WO2015080007A1 - 超音波診断装置 - Google Patents

超音波診断装置 Download PDF

Info

Publication number
WO2015080007A1
WO2015080007A1 PCT/JP2014/080703 JP2014080703W WO2015080007A1 WO 2015080007 A1 WO2015080007 A1 WO 2015080007A1 JP 2014080703 W JP2014080703 W JP 2014080703W WO 2015080007 A1 WO2015080007 A1 WO 2015080007A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
degree
diagnostic apparatus
ultrasonic diagnostic
unit
Prior art date
Application number
PCT/JP2014/080703
Other languages
English (en)
French (fr)
Inventor
俊徳 前田
村下 賢
Original Assignee
日立アロカメディカル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立アロカメディカル株式会社 filed Critical 日立アロカメディカル株式会社
Priority to CN201480065391.3A priority Critical patent/CN105813577A/zh
Priority to US15/038,831 priority patent/US20170035394A1/en
Publication of WO2015080007A1 publication Critical patent/WO2015080007A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • A61B8/5276Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts due to motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52077Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging with means for elimination of unwanted signals, e.g. noise or interference

Definitions

  • the present invention relates to an ultrasonic diagnostic apparatus, and more particularly to image processing of an ultrasonic image.
  • Patent Document 1 discloses an ultrasonic diagnosis in which a fixed echo (for example, fogging) having a relatively slow motion is suppressed by a filter that attenuates a specific frequency component using a time-series ultrasonic reception signal. An apparatus is described.
  • Patent Document 2 describes a method for improving the image quality of an ultrasonic image by multiresolution decomposition on the image.
  • Patent Document 1 when a relatively low frequency component is attenuated as a specific frequency component, fixed echoes are suppressed, but relatively slow-moving tissue, for example, myocardium at the end diastole, is useful for diagnosis. There is a possibility that information on important parts may be suppressed.
  • the multiresolution decomposition technique described in Patent Document 2 is expected to be applied to ultrasonic images in various ways.
  • the inventors of the present application have been researching and developing techniques for reducing image portions called fogging or fixed artifacts appearing in an ultrasonic image.
  • the present invention has been made in the course of its research and development, and its purpose is to reduce image portions such as fogging or fixed artifacts appearing in an ultrasonic image using multi-resolution decomposition.
  • An ultrasonic diagnostic apparatus suitable for the above object includes a probe that transmits and receives ultrasonic waves, a transmission / reception unit that obtains a reception signal from the probe by controlling the probe, and a resolution conversion for an ultrasonic image obtained based on the reception signal.
  • a resolution processing unit that forms a plurality of resolution images having different resolutions by processing, a reduction processing unit that determines a degree of reduction in each part in the image based on the plurality of resolution images, and a part in the image
  • an image forming unit that forms an ultrasonic image subjected to reduction processing according to the degree of reduction.
  • the reduction processing unit estimates the degree of structure for each part in the image based on the difference image for the plurality of resolution images, and for each part in the image based on the estimation result The degree of reduction is determined.
  • the reduction processing unit estimates the degree of motion for each portion in the image based on an image obtained over at least one of the plurality of resolution images over a plurality of time phases, and The degree of reduction is determined for each part in the image based on the estimation result.
  • the reduction processing unit estimates the degree of structure and the degree of movement for each part in the image, and the degree of reduction for each part in the image based on the degree of tissue and the degree of movement.
  • the image forming unit forms an ultrasonic image from which the subtracted component is subtracted.
  • the reduction processing unit generates a subtraction candidate component by subtracting the optimum luminance value determined based on the lowest luminance value in the ultrasonic image from the luminance value of each pixel, and determines the degree of structure.
  • the subtraction component is determined based on a subtraction weight and a subtraction candidate component that are determined according to the degree of exercise.
  • the resolution processing unit forms at least one high resolution image and a plurality of low resolution images as the plurality of resolution images, and the reduction processing unit generates an image based on the plurality of low resolution images.
  • the degree of reduction is determined in each of the portions, and a low-resolution image component subjected to reduction processing is formed according to the degree of reduction, and the image forming unit is configured to obtain a high-resolution image component obtained from the high-resolution image. And an ultrasonic image is formed by combining the low resolution image components.
  • an image portion referred to as a fog or a fixed artifact appearing in an ultrasonic image is reduced, and preferably the image portion is completely removed.
  • FIG. 1 is a diagram showing an overall configuration of an ultrasonic diagnostic apparatus suitable for implementing the present invention.
  • FIG. 2 is a diagram illustrating a specific example of an image including a fog.
  • FIG. 3 is a diagram for explaining motion estimation.
  • FIG. 4 is a diagram for explaining motion estimation.
  • FIG. 5 is a diagram showing a specific example (myocardial portion) of multiresolution decomposition.
  • FIG. 6 is a diagram for explaining the structure estimation.
  • FIG. 7 is a diagram illustrating a specific example of the difference image regarding the myocardial portion.
  • FIG. 8 is a diagram illustrating a specific example of multiresolution decomposition.
  • FIG. 9 is a diagram illustrating a specific example of the difference image related to the fogging portion.
  • FIG. 1 is a diagram showing an overall configuration of an ultrasonic diagnostic apparatus suitable for implementing the present invention.
  • FIG. 2 is a diagram illustrating a specific example of an image including a fog.
  • FIG. 3 is
  • FIG. 10 is a diagram illustrating a specific example of the subtraction candidate component.
  • FIG. 11 is a diagram illustrating an example of calculating the weight based on the estimation result.
  • FIG. 12 is a diagram illustrating an example of calculating the subtraction weight.
  • FIG. 13 is a diagram illustrating a calculation example of the subtraction component.
  • FIG. 14 is a diagram showing a specific example of fog removal.
  • FIG. 15 is a diagram illustrating an internal configuration of the image processing unit.
  • FIG. 16 is a diagram illustrating an internal configuration of the multi-resolution decomposition unit.
  • FIG. 17 is a diagram illustrating an internal configuration of the down dump ring unit.
  • FIG. 18 is a diagram illustrating an internal configuration of the high-frequency component calculation unit.
  • FIG. 19 is a diagram illustrating an internal configuration of the upsampling unit.
  • FIG. 20 is a diagram illustrating an internal configuration of the structure calculation unit.
  • FIG. 21 is a diagram illustrating a specific example of processing in the zero-cross removing unit.
  • FIG. 22 is a diagram illustrating an internal configuration of the data update unit.
  • FIG. 23 is a diagram illustrating a specific example of processing in the data update unit.
  • FIG. 24 is a diagram illustrating an internal configuration of the background subtraction unit.
  • FIG. 25 is a diagram illustrating an internal configuration of the weight calculation unit.
  • FIG. 26 is a diagram illustrating an internal configuration of the optimum luminance value estimation unit.
  • FIG. 27 is a diagram illustrating an internal configuration of the subtraction component calculation unit.
  • FIG. 20 is a diagram illustrating an internal configuration of the structure calculation unit.
  • FIG. 21 is a diagram illustrating a specific example of processing in the zero-cross removing unit.
  • FIG. 22 is a diagram illustrating an
  • FIG. 28 is a diagram illustrating a specific example of processing in the conditional multiplication unit.
  • FIG. 29 is a diagram illustrating an internal configuration of the image reconstruction unit.
  • FIG. 30 is a diagram illustrating a modification of the image processing unit.
  • FIG. 31 is a diagram illustrating an internal configuration of the data update unit.
  • FIG. 32 is a diagram illustrating an internal configuration of the background subtraction unit.
  • FIG. 33 is a diagram illustrating an internal configuration of the weight calculation unit.
  • FIG. 34 is a diagram illustrating another modification of the image processing unit.
  • FIG. 1 is a diagram showing an overall configuration of an ultrasonic diagnostic apparatus suitable for implementing the present invention.
  • the probe 10 is an ultrasonic probe that transmits and receives an ultrasonic wave to a region including a diagnosis target such as a heart.
  • the probe 10 includes a plurality of vibration elements that each transmit and receive ultrasonic waves, and the plurality of vibration elements are transmission-controlled by the transmission / reception unit 12 to form a transmission beam. Further, the plurality of vibration elements receive ultrasonic waves from within the region including the diagnosis target, and a signal obtained thereby is output to the transmission / reception unit 12, and the transmission / reception unit 12 forms a reception beam along the reception beam. Echo data is collected.
  • the probe 10 scans an ultrasonic beam (a transmission beam and a reception beam) in a two-dimensional plane.
  • a three-dimensional probe that three-dimensionally scans an ultrasonic beam in a three-dimensional space may be used.
  • the image processing unit 20 is based on the collected line data. Ultrasonic image data is formed.
  • the image processing unit 20 forms image data of a B-mode image.
  • the image processing unit 20 forms a plurality of resolution images having different resolutions by a resolution conversion process on the ultrasonic image obtained based on the received signal, and reduces the reduction in each part in the image based on the plurality of resolution images.
  • the degree is determined, and an ultrasonic image subjected to reduction processing according to the degree of reduction is formed at each part in the image.
  • the image processing unit 20 suppresses fixed noise appearing in the ultrasonic image. In particular, noise called fog (or fixed artifact) is reduced.
  • the image processing unit 20 has functions of multi-resolution decomposition, motion estimation, structure estimation, fog removal, and image reconstruction.
  • the image processing unit 20 for example, a plurality of image data in which the heart that is the diagnosis target is projected over a plurality of frames is formed and output to the display processing unit 30.
  • the display processing unit 30 performs, for example, a coordinate conversion process for converting from an ultrasonic scanning coordinate system to an image display coordinate system on the image data obtained from the image processing unit 20, and further, if necessary, a graphic A display image including an ultrasonic image is formed by adding an image or the like.
  • the display image formed in the display processing unit 30 is displayed on the display unit 40.
  • the transmission / reception unit 12, the image processing unit 20, and the display processing unit 30 can be realized by using hardware such as a processor and an electronic circuit, respectively.
  • a device such as a memory may be used as necessary in the implementation.
  • a suitable specific example of the display unit 40 is, for example, a liquid crystal display.
  • configurations other than the probe 10 shown in FIG. 1 can also be realized by a computer, for example. That is, the configuration (for example, only the image processing unit 20) other than the probe 10 of FIG. 1 may be obtained by cooperation of a CPU, hardware such as a memory or a hard disk, and software (program) that defines the operation of the CPU. ) May be realized.
  • the overall configuration of the ultrasonic diagnostic apparatus in FIG. 1 is as described above. Next, functions and the like realized by the ultrasonic diagnostic apparatus (present ultrasonic diagnostic apparatus) in FIG. 1 will be described in detail.
  • FIG. 2 is a diagram illustrating a specific example of an image including a fog.
  • A a specific example of an ultrasonic image (for example, a B-mode image) of a myocardium including a cover is illustrated.
  • the myocardial part and the cover part in the image of (A) are shown in (A1) and (A2), respectively.
  • This ultrasonic diagnostic apparatus preferably identifies a fog part shown in (A2) in an ultrasonic image including a fog as shown in (A) and reduces the influence of the specified fog part, so that the fog part is desirable. For example, an ultrasonic image in which the myocardial portion shown in (A1) is clearly projected is formed.
  • the image processing unit 20 of the ultrasonic diagnostic apparatus identifies a fogged portion in the ultrasonic image by motion estimation and structure estimation.
  • 3 and 4 are diagrams for explaining motion estimation. 3 and 4 show specific examples of ultrasonic images obtained over a plurality of time phases (T-2, T-1, T). 3 shows only the myocardial portion in the ultrasonic image, and FIG. 4 shows only the fogging portion in the ultrasonic image.
  • the myocardial portion shown in FIG. 3 moves with the expansion and contraction motion of the heart. Therefore, the luminance value of the pixel in the myocardial portion in the ultrasonic image changes relatively greatly over a plurality of frames (time phases T-2, T-1, T).
  • the fogging portion shown in FIG. 4 is fixed, and therefore, the luminance value of the pixel in the fogging portion in the ultrasonic image is different over a plurality of frames (time phases T ⁇ 2, T ⁇ 1, T). There is almost no. Therefore, for example, the image processing unit 20 calculates a standard deviation of luminance values over a plurality of frames (time phases) for each pixel (coordinates are (i, j)), and calculates the standard deviation of the motion.
  • the myocardial portion and the cover portion can be identified according to the level of exercise (the amount of exercise).
  • the level of exercise the amount of exercise
  • the image processing unit 20 of the ultrasonic diagnostic apparatus further performs structure estimation using multi-resolution decomposition, and identifies a myocardial portion and a cover portion in the ultrasonic image.
  • FIG. 5 is a diagram showing a specific example of multi-resolution decomposition.
  • FIG. 5 shows only the myocardial portion in the ultrasonic image.
  • FIG. 5 shows an ultrasonic image G.
  • Ultrasonic image G n Low resolution image G obtained by one downsampling process from n + 1
  • low resolution image G n + 1 Low resolution image G obtained by one downsampling process from n + 2 Is shown.
  • Ultrasonic image G n May be a basic ultrasonic image before resolution conversion, or may be a low-resolution image obtained by down-sampling a basic ultrasonic image.
  • the low resolution image G n + 2 From the low-resolution image Ex (Ex (G n + 2 )) Is also illustrated.
  • Low resolution image Ex (Ex (G n + 2 )) Is the low resolution image G n + 2 Is the same resolution as the ultrasonic image G n Is the same image size.
  • the image processing unit 20 uses, for example, the ultrasonic image G illustrated in FIG. 5 based on a plurality of resolution images corresponding to different resolutions. n And the low resolution image Ex (Ex (G n + 2 )), The degree of structure is evaluated and structure estimation is performed.
  • FIG. 6 is a diagram for explaining the structure estimation.
  • the image processing unit 20 generates an ultrasonic image G n And the low resolution image Ex (Ex (G n + 2 )) Of the two images are formed.
  • a difference image is obtained by setting a difference in luminance value of pixels corresponding to each other (pixels having the same coordinates) between two images as a pixel value (difference luminance value) of the pixel.
  • the myocardial portion in the ultrasonic image reflects the properties of the myocardial tissue (structure), for example, minute irregularities on the tissue surface or in the tissue. Therefore, for example, if a pixel on the myocardial surface or in the myocardium is the target pixel, the ultrasound image G having a relatively high resolution is used. n , A relatively large luminance difference appears between the target pixel and its surrounding pixels.
  • the low resolution image Ex (Ex (G n + 2 )
  • the ultrasonic image G can be reduced by reducing the resolution (downsampling process). n Since the image is dull (blurred) compared to the ultrasonic image G n As compared with, the luminance difference between the pixel of interest and its surrounding pixels is reduced. Therefore, the ultrasonic image G n The larger the luminance difference between the target pixel and the surrounding pixels is, the lower the resolution image Ex (Ex (G n + 2 The pixel of interest in)) is the ultrasound image G n The pixel value (luminance difference) in the difference image becomes large.
  • FIG. 7 is a diagram showing a specific example of a difference image related to the myocardial portion.
  • FIG. 7 shows an ultrasonic image G in the myocardial portion.
  • n And the low resolution image Ex (Ex (G n + 2 ))
  • a specific example of a difference image between these two images is shown.
  • FIG. 8 is a diagram showing a specific example of multi-resolution decomposition.
  • FIG. 8 shows only the fogging part in the ultrasonic image.
  • FIG. 8 shows an ultrasonic image G.
  • Ultrasonic image G n Low resolution image G obtained by one downsampling process from n + 1 And low resolution image G n + 1 Low resolution image G obtained by one downsampling process from n + 2 Is shown.
  • Ultrasonic image G n May be a basic ultrasonic image before resolution conversion, or may be a low-resolution image obtained by down-sampling a basic ultrasonic image.
  • the low resolution image G n + 2 From the low-resolution image Ex (Ex (G n + 2 )) Is also illustrated.
  • Low resolution image Ex (Ex (G n + 2 )) Is the low resolution image G n + 2 Is the same resolution as the ultrasonic image G n Is the same image size.
  • FIG. 9 is a diagram showing a specific example of the difference image relating to the cover part.
  • FIG. 9 shows an ultrasonic image G in the cover part.
  • n And the low resolution image Ex (Ex (G n + 2 )) And the difference image of these two images.
  • the cover portion in the ultrasonic image does not reflect the minute unevenness of the tissue. Therefore, the ultrasonic image G having a relatively high resolution for the cover portion.
  • n And the low resolution image Ex (Ex (G n + 2 )) Does not show a great difference, and the pixel value (luminance difference) in the difference image is smaller than in the case of the myocardial portion (FIG. 7).
  • the image processing unit 20 determines that the degree of the structure (tissue) is weaker as the pixel value (luminance difference) of the difference image is smaller. Based on the structure estimation and motion estimation described above, the image processing unit 20 generates a subtraction component for subtracting (removing) the fog as will be described in detail below.
  • FIG. 10 is a diagram illustrating a specific example of the subtraction candidate component. In generating the subtraction component, the image processing unit 20 generates a subtraction candidate component that is a range that can be subtracted in order to avoid excessive reduction (shaping) of the image information. For example, as shown in FIG.
  • FIG. 11 is a diagram illustrating an example of calculating the weight based on the estimation result.
  • the image processing unit 20 calculates the weight of the structure based on the result obtained by the structure estimation. For example, the luminance value of each pixel in the difference image (FIGS. 7 and 9) is squared to calculate the weight of the structure of each pixel.
  • the image processing unit 20 calculates the weight of the exercise based on the result obtained by the estimation of the exercise. For example, the motion weight of each pixel is calculated from the motion amount (FIGS. 3 and 4) of each pixel obtained by the motion estimation. Then, the image processing unit 20 calculates a subtraction weight based on the structure weight and the motion weight.
  • FIG. 12 is a diagram illustrating an example of calculating the subtraction weight. The image processing unit 20 calculates a subtraction weight by, for example, multiplying the structure weight and the motion weight, that is, multiplying the structure weight and the motion weight for each pixel.
  • FIG. 13 is a diagram illustrating a calculation example of the subtraction component.
  • the image processing unit 20 calculates the subtraction component by multiplying the subtraction candidate component (FIG. 10) and the subtraction weight (FIG. 12), that is, by multiplying the subtraction candidate component and the subtraction weight for each pixel.
  • FIG. 14 is a diagram showing a specific example of fog removal.
  • the image processing unit 20 subtracts the subtraction component (FIG. 13) from the original image (FIG. 10) including the myocardial portion and the cover portion, that is, subtracts the subtraction component from the pixel value of the original image for each pixel.
  • an ultrasonic image with reduced fog preferably with the fog removed is formed.
  • FIG. 15 is a diagram illustrating an internal configuration of the image processing unit 20.
  • the image processing unit 20 includes a multi-resolution decomposition unit 31, a high frequency component calculation unit 41, a structure calculation unit 51, a data update unit 61, a background subtraction unit 71, and an image reconstruction unit 111.
  • FIG. 16 is a diagram showing an internal configuration of the multi-resolution decomposition unit 31 (FIG. 15).
  • the multi-resolution decomposition unit 31 has the configuration shown in FIG.
  • FIG. 17 is a diagram showing an internal configuration of the down dumpling unit 3101 (FIG. 16).
  • the down-sampling unit 3101 has the configuration shown in the figure, and the low-pass filter (LPF) unit 12-1 is G n
  • the component is subjected to a two-dimensional low-pass filter (LPF), and the decimation unit 31011 performs decimation processing by thinning out the data output from the LPF unit 12-1, and the sample density and resolution are reduced.
  • n + 1 Ingredients are generated.
  • the G generated in the multi-resolution decomposition unit 31 in FIG. n Ingredient is G 0
  • the component is a multi-resolution expression with different sample density and resolution.
  • the original diagnostic image G 0 And G 0 G obtained by down dumpling from 1 , G 2 , G 3 , G 4
  • a specific example of the frequency band of the component is as shown in FIG. In the specific example shown in FIG. 0 If the frequency band is 0 to f, G 1 Frequency band of 0 to f / 2, G 2 The frequency band of 0 to f / 4 becomes G 3 Frequency band of 0 to f / 8, G 4 The frequency band is 0 to f / 16.
  • G 0 When the frequency band is 0 to f, G 1 Frequency band becomes 0-4f / 5, G 2 The frequency band of 0 to 3f / 5 3 The frequency band of 0 to 2f / 5 4 Down-dampling may be performed such that the frequency band of 0 to f / 5.
  • the two-dimensional low-pass filter is applied to the down-sampling unit 3101 (FIG. 17), and then the decimation process is performed.
  • Decimation may be performed after application in each direction, or decimation processing may be performed while applying a one-dimensional low-pass filter.
  • a low-pass filter appearing in the following description may be provided with a two-dimensional low-pass filter or may be applied in each direction of the one-dimensional low-pass filter.
  • LPF low-pass filter
  • a configuration that performs Gaussian pyramid processing is shown as an example of a multiresolution decomposition unit. It may be changed. Returning to FIG. 15, the G obtained in the multi-resolution decomposition unit 31. n
  • the components are input to the high frequency component calculation unit 41, the structure calculation unit 51, the data update unit 61, and the image configuration unit 111.
  • the high frequency component calculation unit 41 generates a Laplacian pyramid used at the time of image reconstruction.
  • FIG. 18 is a diagram showing an internal configuration of the high-frequency component calculation unit 41 (FIG. 15).
  • the high frequency component calculation unit 41 has the configuration shown in the figure, and the input G n + 1
  • the components are input to the upsampling units 4101-1-1 and 4101-2-1, and are subjected to upsampling processing by a method as described later.
  • the upsampled component is G n It is input to the subtracters 13-1 and 13-2 together with the components and subjected to differential processing, and is a high frequency component L n The component is calculated.
  • FIG. 19 is a diagram showing an internal configuration of the upsampling unit 4101 (FIG. 18).
  • the upsampling unit 4101 has the configuration shown in the figure, and the zero insertion unit 41011 has G n + 1 G is zero-inserted in the LPF unit 12-2 by performing zero insertion processing for inserting zeros at intervals of one skip of data.
  • n + 1 The component is subjected to a low pass filter (LPF).
  • LPF low pass filter
  • the component subjected to the above-described processing is converted into G n Interpolated so that the component and the size (image size) are equal, and EX (G n + 1 ) Component is obtained.
  • the data of each hierarchy created by the high frequency component calculation unit 41 in FIG. n Called the component (n ⁇ 0).
  • L n The component has edge information with different fineness for each layer.
  • FIG. 18 shows a specific example of the frequency band of each component. Diagnostic image G that is the original image 0 Frequency band of 0 to f, G 1 Frequency band of 0 to f / 2, G 2 Is 0 to f / 4 (see FIG.
  • the high frequency component calculation unit 41 includes G 0 From component to G 2 Enter the component L 0 Ingredients and L 1 Although the component is obtained, it is not necessary to limit to this specific example, for example, more layers of G n Enter more ingredients and more L n You may make it obtain an ingredient.
  • a configuration in which Laplacian pyramid processing is performed is shown as an example of high-frequency component calculation. You may change to Returning to FIG. 15, L obtained in the high-frequency component calculation unit 41.
  • FIG. 20 is a diagram illustrating an internal configuration of the structure calculation unit 51 (FIG. 15).
  • the structure calculation unit 51 has the configuration shown in FIG. n + 2 After the component is input to the upsampling unit 4101-4 and subjected to the upsampling process, the upsampled component is once again subjected to the upsampling process in the upsampling unit 4101-3, n It is input to the subtracter 13-3 together with the components.
  • the difference value obtained by the subtractor 13-3 is input to the zero cross removing unit 5101 and subjected to a zero cross removing process as will be described later, and then input to the square value calculating unit 5102 to receive the structure estimated value Str. 2 Is calculated.
  • Structure estimation value Str generated by the structure calculation unit 51 2 Is data having structural strength information.
  • n 2 and the structure calculation unit 51 has G 2 From component to G 4 The component is input and the structure estimation value Str 2 However, it is not necessary to limit to this specific example.
  • n At least one of the components is input, and the structure estimated value Str 2 May be calculated.
  • G 4 Ingredients up-sampled twice and G 2
  • the structure estimation value Str is obtained by obtaining the component difference. 2
  • the difference may be obtained using a continuous hierarchy or a further distant hierarchy.
  • G 4 Ingredients up-sampled twice and G 2
  • the difference between the components is obtained, but another component such as G 3
  • G 4 Ingredients up-sampled twice and G 1
  • the final structure estimation value Str is calculated by adding the structure estimation values obtained from both of the differences obtained from the components (both differences). 2 May be calculated.
  • FIG. 21 is a diagram showing a specific example of processing in the zero cross removing unit 5101 (FIG. 20).
  • S101 difference data is acquired from the subtracter 13-3.
  • S102 an attention point is set.
  • S103 the difference value between the upper and lower points (in the y-axis direction of the image) adjacent to the point of interest is acquired.
  • S104 the obtained difference value between the two points is multiplied.
  • S105 the difference value between the left and right points (in the x-axis direction of the image) adjacent to the point of interest is acquired.
  • S106 the obtained difference value of the two points is multiplied.
  • S107 it is determined whether at least one of the multiplication values obtained in S104 and S106 is negative.
  • S109 When even one is negative, it progresses to S109, and when that is not right, it progresses to S108.
  • S108 it is determined that the attention point is not a zero cross, and the difference value of the attention point (pixel) is not changed, and the process proceeds to S113.
  • S109 it is determined whether only one of the multiplication values obtained in S104 and S106 is negative. If only one of the multiplication values is negative, the process proceeds to S110, and if both the multiplication values are negative, the process proceeds to S111.
  • S110 the average of the two absolute values in the direction in which the multiplication value is negative is set as the value of the point of interest, and the process proceeds to S113.
  • the maximum inclination direction is selected by selecting the direction in which the absolute value of the multiplication values obtained in S104 and S106 is the maximum.
  • the average of the absolute values of the two points in the direction selected in S111 is set as the value of the point of interest, and the process proceeds to S113.
  • S113 it is determined whether or not the values of all attention points have been determined. If the values of all the points of interest have been determined, the process ends. If not, the process returns to S102, and the process for the next point of interest is executed.
  • the difference value between the upper and lower or left and right points of the attention point is acquired. However, the present invention is not limited to this.
  • a step for obtaining a difference value in an oblique direction is provided, and more directions It is also possible to detect zero cross.
  • all the values of an adjacent point may be acquired and a maximum inclination direction may be calculated, for example by principal component analysis.
  • an average of absolute values in the maximum inclination direction is input.
  • the present invention is not limited to this.
  • an average value of absolute values of four adjacent points may be input.
  • FIG. 22 is a diagram showing an internal configuration of the data update unit 61 (FIG. 15).
  • the data update unit 61 has the configuration shown in the figure. In other words, the data update unit 61 performs G of the current frame generated by the multiresolution decomposition unit 31 (FIG. 15).
  • n Using at least one or more data of the components, n MultiG to store components (image data) n Structure estimation value Str of the current frame generated by the image data update unit 6101 for updating the buffer and the structure calculation unit 51 (FIG. 15). 2 , And a structure data update unit 6102 for updating a multiStr buffer for storing structure data before the current frame.
  • FIG. 15 the specific example of FIG.
  • FIG. 23 is a diagram illustrating a specific example of processing in the data update unit 61 (FIG. 22).
  • FIG. 23 shows a flowchart of processing executed in the image data update unit 6101 (FIG. 22).
  • S201 multiG 2 Get the buffer.
  • S202 the head address of the oldest time phase t is acquired.
  • S203 the start address of the time phase t-1 that is one younger than t is acquired.
  • S204 the data array of time phase t-1 is all copied to the data array of time phase t.
  • t t-1.
  • it is determined whether t 0.
  • FIG. 24 is a diagram showing an internal configuration of the background subtraction unit 71 (FIG. 15).
  • the background subtraction unit 71 has the configuration shown in the figure.
  • the weight calculation unit 81 uses multiG n Based on the buffer and the multiStr buffer, an average image frameAve component and a subtraction weight weight component are calculated.
  • the optimum luminance value estimation unit 91 calculates the optimum luminance value base that the current frame has.
  • the subtraction component calculation unit 101 calculates the average image frameAve component calculated by the weight calculation unit 81, the optimal luminance value base calculated by the optimal luminance value estimation unit 91, and the LPF unit 12-3 calculated by the weight calculation unit 81.
  • the subtraction component is calculated from the subtraction weight weight subjected to the low pass filter (LPF).
  • the calculated subtraction component is subjected to a low-pass filter (LPF) by the LPF unit 12-4 and smoothed in the spatial direction, and is smoothed in the time direction by the adjustment unit 7101 based on the following equation.
  • LPF low-pass filter
  • the diagnostic image reconstructed by the processing described below can suppress a local subtraction and a large luminance change at the same pixel between frames, and can provide a diagnostic image with less discomfort.
  • multiG n G of the current frame stored in the component n NrG in which fogging is reduced by subtracting a subtracted component smoothed spatially and temporally from the component n The component is calculated.
  • n 2
  • the adjustment unit 7101 calculates the weighted addition value of the subtraction component calculated in the current frame and the subtraction component updated up to the previous frame. Alternatively, parameters equivalent thereto may be stored and weighted appropriately.
  • the component is input to the image reconstruction unit 111. Further, the subtraction component obtained in the background subtraction unit 71 is input to the background subtraction unit 71 again in preparation for the calculation of the next frame.
  • the weight calculation unit 81 calculates the subtraction weight weight as an evaluation value representing the average image frameAve component and the estimated value of the fog.
  • FIG. 25 is a diagram showing an internal configuration of the weight calculation unit 81 (FIG. 24). The weight calculation unit 81 has the configuration shown in the figure.
  • the average value calculation unit 8101 receives the input multiG 2 At least one G stored in the buffer 2 Intensity value of component or multiple G 2 The average value of the components is calculated for each pixel (pixel).
  • the variance value calculation unit 8102 uses multiG 2 Multiple G's stored in buffer 2 The variance value of the luminance value of the component is calculated for each pixel (pixel).
  • the average value calculation unit 8103 has at least one Str stored in the multiStr buffer. 2 Intensity value of component, or multiple Str 2 The average value of the components is calculated for each pixel (pixel).
  • the values calculated by the average value calculation unit 8101, the variance value calculation unit 8102, and the average value calculation unit 8103 are subjected to a low-pass filter (LPF) by the LPF units 12-5, 12-6, and 12-7, respectively. . Data subjected to the low-pass filter in the LPF unit 12-5 is output as an average image frameAve.
  • LPF low-pass filter
  • the weight determination unit 8104 leaves the component estimated to be fogging as a subtraction component among the subtraction candidate components obtained through the processing described later, and removes the component estimated not to be fogging so as not to become a subtraction component.
  • the weight weight is calculated. That is, the subtraction weight weight is given by 0 ⁇ weight ⁇ 1 as an evaluation value representing the estimated value of fogging. This is a normalized evaluation value indicating the “saliency” of the fog. In order to calculate this evaluation value, in this embodiment, the evaluation value of the fog is obtained using movement and structure as an example.
  • the fog is noise that appears in the vicinity of the probe 10 and has little movement and no structure. Therefore, preferably, the smaller the component having the smaller movement and the lower the structural strength, the more it is determined to be fogging and the weight is made closer to 1. On the other hand, if the component has a large motion or a strong structure, information about the myocardium or the like may be included, and thus the weight is made close to zero. As a result, the weight determination unit 8104 calculates the subtraction weight weight based on the values calculated by the LPF units 12-6 and 12-7, for example, by the method described below.
  • the value calculated by the LPF unit 12-6 is a value obtained by smoothing the dispersion value for each pixel (pixel) obtained using a plurality of frames, the smaller the value, the less the luminance change as a region. It can be considered that there was little movement.
  • the weight related to the motion can be calculated by a decreasing function of the following equation using the calculated value at the pixel (i, j) and the parameter gamma.
  • the value calculated by the LPF unit 12-7 is a value obtained by smoothing the structure estimated value for each pixel (pixel) obtained using a plurality of frames. Therefore, the smaller this value, the weaker the structure as a region. Can be considered.
  • the weight related to the structure can be calculated by the decreasing function of the following equation using the calculated value at the pixel (i, j) and the parameter delta.
  • the weighting for the subtraction candidate component can be calculated by the decreasing function of the following equation.
  • the decreasing function is used such that the weight is closer to 1 in the place where the fog is estimated, but a decreasing function other than this specific example may be used.
  • the variance value calculation unit 8102 and the average value calculation unit 8103 perform calculation based on the values for each pixel of a plurality of frames.
  • the kernel size m ⁇ n (m ⁇ 0, n The calculation may be performed using pixel data in a range given by ⁇ 0).
  • the weight related to the motion is obtained from the variance of the luminance value, but is calculated using an evaluation value used when performing block matching or the like, for example, SAD (Sum of Absolute Difference). Also good.
  • SAD Sud of Absolute Difference
  • the average image frameAve obtained in the weight calculation unit 81 is output to the optimum luminance value estimation unit 91 and the subtraction component calculation unit 101.
  • the subtraction weight weight obtained in the weight calculation unit 81 is output to the subtraction component calculation unit 101 after being subjected to LPF processing in the LPF unit 12-3.
  • the optimum luminance value estimation unit 91 estimates the optimum luminance value base of the input data.
  • FIG. 26 is a diagram illustrating an internal configuration of the optimum luminance value estimation unit 91 (FIG. 24).
  • the optimum luminance value estimation unit 91 has the configuration shown in the figure.
  • the background luminance value search unit 9101 searches for the minimum value of the input data, that is, the optimum luminance value min in the average image frameAve, and the adjustment unit 9102 uses the parameter epsilon for the obtained minimum value min, for example. Make adjustments. That is, the optimum luminance value estimation unit 91 performs the calculation shown in the following equation to calculate the optimum luminance value base.
  • the optimum luminance value base is obtained by the above-described method, but it is not necessary to limit to this.
  • the optimum luminance value base is a value obtained by estimating the luminance value that the noise part such as fogging would originally have, an arbitrary luminance value other than the optimum luminance value is discriminated from, for example, an image histogram. You may calculate automatically using an analysis method etc. Further, an arbitrary luminance value may be given by the user. In this way, by estimating the optimum luminance value, it is possible to control a subtraction candidate component obtained through the processing described later and adjust so as not to subtract the luminance of the portion estimated to be fogged.
  • FIG. 27 is a diagram illustrating an internal configuration of the subtraction component calculation unit 101 (FIG. 24).
  • the subtraction component calculation unit 101 has the configuration shown in the figure.
  • the subtractor 13-5 subtracts the optimum luminance value base calculated by the optimum luminance value estimation unit 91 (FIG. 24) from the average image frameAve calculated by the weight calculation unit 81 (FIG.
  • FIG. 28 is a diagram showing a specific example of processing in the conditional multiplication unit 10101 (FIG. 27).
  • FIG. 28 shows a flowchart of processing executed in the conditional multiplication unit 10101. In S301, the average image frameAve, the optimum luminance value base, and the subtraction weight weight are acquired.
  • a target pixel (pixel) is set, and the optimum luminance value base is subtracted from the luminance value of the target pixel to calculate a subtraction candidate component.
  • S303 it is determined whether the subtraction candidate component is positive. If the subtraction candidate component is positive, the process proceeds to S303, and if it is negative, the process proceeds to S305.
  • S304 since the subtraction candidate component is positive, a subtraction value is determined by multiplying the subtraction weight weight.
  • S305 since the subtraction candidate component is negative, the luminance value is lower than the optimum luminance value. Therefore, the subtraction value is set to 0 so that processing is not performed.
  • S306 it is determined whether or not all the target pixel values have been determined.
  • the process ends. If not, the process proceeds to S302 to determine the value of the next target pixel.
  • the subtraction component diffData obtained in the subtraction component calculation unit 101 is output to the adjustment unit 7101 after being subjected to LPF processing in the LPF unit 12-4.
  • the adjustment unit 7101 executes processing based on Equation (1).
  • the background subtraction unit 71 transfers the image reconstruction 111 (FIG. 15) to the nrG with reduced fog.
  • n The component is output.
  • the image reconstruction unit 111 nrG from which the fog component is subtracted n Ingredients and L 0 Ingredient, L 1 Reconstruct the Gaussian pyramid using the components.
  • FIG. 29 is a diagram showing an internal configuration of the image reconstruction unit 111 (FIG. 15).
  • the image reconstruction unit 111 has the configuration shown in the figure.
  • Input nrG n The components are input to the upsampling units 4101-1-2 and 4101-2-2 and subjected to upsampling processing. Upsampled component is L n Together with the components, they are input to adders 14-1 and 14-2 and subjected to addition processing. In this way, the image data nrG with the fog reduced, preferably with the fog removed. 0 Is obtained.
  • Image data nrG 0 Is the image data G input to the image processing unit 20 0 And equivalent sample density and resolution.
  • FIG. 29 shows a specific example of the frequency band of each component.
  • nrG 2 Is G 2 This is a component obtained based on (FIG. 16), and the frequency band is 0 to f / 4.
  • L 0 The frequency band of f / 2 to f is L 1
  • the frequency band is f / 4 to f / 2 (FIG. 18).
  • nrG 0 Is nrG 2 And L 1 And L 0 Therefore, the frequency band is 0 to f. That is, nrG reconstructed by the image reconstruction unit 111 0 Is the original diagnostic image G 0 It becomes the same frequency band.
  • the component is obtained, it is not necessary to limit to this, and more layers may be used.
  • the hierarchy G with n ⁇ 1 n NrG with reduced fog by performing fog reduction with ingredients n L while upsampling components k By adding the components (0 ⁇ k ⁇ n), the “stickiness” seen with a simple filter or the like is reduced, and the diagnostic image can be reconstructed without a more uncomfortable feeling.
  • FIG. 30 is a diagram illustrating a modification (second embodiment) of the image processing unit 20. The difference from the image processing unit 20 in FIG. 15 is that a feature calculation unit 121 is added in FIG. 30 and the third or more feature is used for estimation of fogging in addition to the two features of tissue movement and tissue structure. Is a point.
  • examples of the third or more features obtained by the feature calculation unit 121 include a tissue direction, a frame direction difference, and image color information.
  • n 2 and G 2 From component to G 4
  • the feature estimation value Ftr is obtained using the components, but it is not necessary to limit to this, and the created G n It is only necessary that at least one of the components is input and the feature estimation value Ftr is calculated.
  • only one feature calculation unit 121 is arranged in the image processing unit 20, but the present invention is not limited to this.
  • the feature calculation unit 121 may be increased according to the number of features to be used.
  • FIG. 31 is a diagram showing an internal configuration of the data update unit 61 (FIG.
  • the data update unit 61 has the configuration shown in the figure. The difference from the data update unit 61 in FIG. 22 is that, in FIG. 31, a feature data update unit 6103 exists in addition to the image data update unit 6101 and the structure data update unit 6102.
  • the feature data update unit 6103 updates the multiFtr buffer that stores the structure data before the current frame, using the feature estimation value Ftr of the current frame created by the feature calculation unit 121 (FIG. 30).
  • the data update unit 61 has a configuration in which only one feature data update unit 6103 is arranged.
  • the feature data update unit 6103 may be increased according to the number of features to be used.
  • FIG. 31 The difference from the data update unit 61 in FIG. 22 is that, in FIG. 31, a feature data update unit 6103 exists in addition to the image data update unit 6101 and the structure data update unit 6102.
  • the feature data update unit 6103 updates the multiFtr buffer that stores the structure data before the current frame, using the feature estimation value Ftr of the current frame created
  • the background subtraction unit 71 has the configuration shown in the figure. 24 differs from the background subtraction unit 71 in FIG. 32 in that the multiFtr buffer is increased as an input in FIG. 32, and the multiFtr buffer is input to the weight calculation unit 81.
  • the background subtracting unit 71 has a configuration in which one multiFtr buffer is added as an input.
  • the present invention is not limited to this, and the third or more features to be used.
  • the input buffer may be increased according to the number. Accordingly, the number of buffers input to the weight calculation unit 81 may be increased according to the number of features to be used.
  • FIG. 30 The background subtraction unit 71 has the configuration shown in the figure. 24 differs from the background subtraction unit 71 in FIG. 32 in that the multiFtr buffer is increased as an input in FIG. 32, and the multiFtr buffer is input to the weight calculation unit 81.
  • the background subtracting unit 71 has a configuration in which one multiFtr buffer is added as an input.
  • FIG. 33 is a diagram showing an internal configuration of the weight calculation unit 81 (FIG. 32).
  • the weight calculation unit 81 has the configuration shown in the figure. The difference from the weight calculation unit 81 in FIG. 25 is that in FIG. 33, the number of multiFtr buffers is increased as an input, and an average value calculation unit 8105 is added and the luminance of at least one Ftr component stored in the multiFtr buffer.
  • the low pass filter (LPF) is applied by the LPF unit 12-8 to which the value or the average value of the plurality of Ftr components is calculated for each pixel (pixel), and the calculated value is also added.
  • a point input to the weight determination unit 8104 is applied to the LPF unit 12-8 to which the value or the average value of the plurality of Ftr components is calculated for each pixel (pixel), and the calculated value is also added.
  • the weight calculation unit 81 has a configuration in which one multiFtr buffer is added as an input.
  • the input buffer may be increased depending on Further, along with this, the average value calculation unit 8105 and the LPF unit 12-8 may be increased according to the third or more number of features to be used.
  • FIG. 34 is a diagram illustrating another modification (third embodiment) of the image processing unit 20. The difference from the image processing unit 20 in FIGS. 15 and 30 is that in FIG. 34, features obtained in advance using machine learning or the like are handled. Accordingly, in addition to the configuration shown in the second embodiment in FIG. 30, a feature storage unit 131 is added in FIG.
  • the feature storage unit 131 stores the feature of the cover part and the return value corresponding to the feature in advance. At this time, features of the structure such as the myocardium important for diagnosis and return values corresponding to the features may be stored. Thus, by inputting the feature calculated by the feature calculation unit 121 to the feature storage unit 131, the feature calculation unit 121 can obtain a return value corresponding to each feature. By using this return value as the feature estimation value Ftr, the feature is calculated.
  • this modified example (third example), a configuration in which only one feature storage unit 131 is arranged in the image processing unit 20 is shown. However, the present invention is not limited to this. The feature storage unit 131 may be increased according to the number of features.
  • the second embodiment and the third embodiment in combination.
  • image processing centered on a two-dimensional image has been described.
  • fog reduction processing on a three-dimensional image may be performed.
  • the downsampling unit 3101 (FIG. 16) and the upsampling unit 4101 (FIGS. 18, 20, and 29) are preferably provided with a two-dimensional low-pass filter. Changed to dimensional low pass filter.
  • a one-dimensional low-pass filter may be applied in each of three-dimensional directions, or after a two-dimensional low-pass filter is applied to a cross section including any two directions, the one-dimensional low-pass filter is applied in the remaining direction.
  • a filter may be applied.
  • the signal obtained from the transmission / reception unit 12 may be subjected to processing such as detection and logarithmic conversion, and then the image processing unit 20 may reduce fogging, and the coordinate conversion processing may be performed in the digital scan converter after the reduction.
  • the signal obtained from the transmission / reception unit 12 may be subjected to processing such as detection and logarithmic conversion after the image processing unit 20 reduces fogging, or the digital scan converter performs coordinate conversion processing. Therefore, the fog may be reduced in the image processing unit 20.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Cardiology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)

Abstract

超音波画像内に現れるかぶり又は固定アーチファクトなどの画像部分を、多重解像度分解を利用して低減する。画像処理部20は、受信信号に基づいて得られる超音波画像に対する解像度の変換処理により、互いに解像度の異なる複数の解像度画像を形成し、複数の解像度画像に基づいて、画像内の各部分において低減の度合いを決定し、画像内の各部分において低減の度合いに応じて低減処理を施した超音波画像を形成する。

Description

超音波診断装置
 本発明は、超音波診断装置に関し、特に、超音波画像の画像処理に関する。
 超音波を送受することにより得られる超音波画像内において、特に超音波探触子(プローブ)の近傍には、かぶり(又は固定アーチファクト)などと称されるノイズが出現する場合がある。このかぶりは、例えば、多重反射やサイドローブなどに起因して生じると考えられ、超音波画像の画質を劣化させる要因となる。そのため、従来から、超音波画像内のかぶりを除去する技術が提案されている。
 例えば、特許文献1には、時系列的な超音波の受信信号を用いて特定の周波数成分を減衰するフィルタにより、比較的動きの遅い固定的なエコー(例えばかぶりなど)を抑制する超音波診断装置が記載されている。
 また、特許文献2には、画像に対する多重解像度分解により超音波画像の画質を改善する方法が記載されている。
特許第3683943号公報 特許第4789854号公報
 しかし、特許文献1において、特定の周波数成分として、例えば比較的低い周波数成分を減衰させると、固定的なエコーが抑制されるものの、比較的動きの遅い組織、例えば拡張末期の心筋など、診断に重要な部位の情報まで抑制されてしまう可能性がある。一方、特許文献2に記載された多重解像度分解の技術は、超音波画像への様々な応用が期待されている。
 上述した背景事情に鑑み、本願の発明者は、超音波画像内に現れるかぶり又は固定アーチファクトなどと称される画像部分を低減する技術について研究開発を重ねてきた。特に多重解像度分解を応用した画像処理に注目した。
 本発明は、その研究開発の過程において成されたものであり、その目的は、超音波画像内に現れるかぶり又は固定アーチファクトなどの画像部分を、多重解像度分解を利用して低減することにある。
 上記目的にかなう好適な超音波診断装置は、超音波を送受するプローブと、プローブを制御することによりプローブから受信信号を得る送受信部と、受信信号に基づいて得られる超音波画像に対する解像度の変換処理により、互いに解像度の異なる複数の解像度画像を形成する解像度処理部と、複数の解像度画像に基づいて、画像内の各部分において低減の度合いを決定する低減処理部と、画像内の各部分において低減の度合いに応じて低減処理を施した超音波画像を形成する画像形成部と、を有することを特徴とする。
 望ましい具体例において、前記低減処理部は、前記複数の解像度画像についての差分画像に基づいて画像内の各部分ごとに構造の度合いを推定し、当該推定の結果に基づいて画像内の各部分ごとに低減の度合いを決定する、ことを特徴とする。
 望ましい具体例において、前記低減処理部は、前記複数の解像度画像のうちの少なくとも1つから複数時相に亘って得られる画像に基づいて画像内の各部分ごとに運動の度合いを推定し、当該推定の結果に基づいて画像内の各部分ごとに低減の度合いを決定することを特徴とする。
 望ましい具体例において、前記低減処理部は、画像内の各部分ごとに構造の度合いと運動の度合いを推定し、組織の度合いと運動の度合いに基づいて、画像内の各部分ごとに低減の度合いを定めた減算成分を決定し、前記画像形成部は、前記減算成分が減算された超音波画像を形成する、ことを特徴とする。
 望ましい具体例において、前記低減処理部は、超音波画像内の最低輝度値に基づいて決定される最適輝度値を各画素の輝度値から減算することにより減算候補成分を生成し、構造の度合いと運動の度合いに応じて決定される減算重みと減算候補成分とに基づいて前記減算成分を決定する、ことを特徴とする。
 望ましい具体例において、前記解像度処理部は、前記複数の解像度画像として、少なくとも1つの高解像度画像と複数の低解像度画像を形成し、前記低減処理部は、複数の低解像度画像に基づいて、画像内の各部分において低減の度合いを決定し、低減の度合いに応じて低減処理を施した低解像度の画像成分を形成し、前記画像形成部は、前記高解像度画像から得られる高解像度の画像成分と前記低解像度の画像成分を合成して超音波画像を形成する、ことを特徴とする。
 本発明により、超音波画像内に現れるかぶり又は固定アーチファクトなどと称される画像部分が低減され、望ましくは、当該画像部分が完全に除去される。
 図1は、本発明の実施において好適な超音波診断装置の全体構成を示す図である。
 図2は、かぶりを含む画像の具体例を示す図である。
 図3は、運動推定を説明するための図である。
 図4は、運動推定を説明するための図である。
 図5は、多重解像度分解の具体例(心筋部分)を示す図である。
 図6は、構造推定を説明するための図である。
 図7は、心筋部分に関する差分画像の具体例を示す図である。
 図8は、多重解像度分解の具体例を示す図である。
 図9は、かぶり部分に関する差分画像の具体例を示す図である。
 図10は、減算候補成分の具体例を示す図である。
 図11は、推定結果に基づいた重みの算出例を示す図である。
 図12は、減算重みの算出例を示す図である。
 図13は、減算成分の算出例を示す図である。
 図14は、かぶり除去の具体例を示す図である。
 図15は、画像処理部の内部構成を示す図である。
 図16は、多重解像度分解部の内部構成を示す図である。
 図17は、ダウンダンプリング部の内部構成を示す図である。
 図18は、高周波成分算出部の内部構成を示す図である。
 図19は、アップサンプリング部の内部構成を示す図である。
 図20は、構造算出部の内部構成を示す図である。
 図21は、ゼロクロス除去部における処理の具体例を示す図である。
 図22は、データ更新部の内部構成を示す図である。
 図23は、データ更新部における処理の具体例を示す図である。
 図24は、背景減算部の内部構成を示す図である。
 図25は、重み計算部の内部構成を示す図である。
 図26は、最適輝度値推定部の内部構成を示す図である。
 図27は、減算成分算出部の内部構成を示す図である。
 図28は、条件付き乗算部における処理の具体例を示す図である。
 図29は、画像再構成部の内部構成を示す図である。
 図30は、画像処理部の変形例を示す図である。
 図31は、データ更新部の内部構成を示す図である。
 図32は、背景減算部の内部構成を示す図である。
 図33は、重み計算部の内部構成を示す図である。
 図34は、画像処理部の他の変形例を示す図である。
 図1は、本発明の実施において好適な超音波診断装置の全体構成を示す図である。プローブ10は、例えば心臓などの診断対象を含む領域に対して超音波を送受する超音波探触子である。プローブ10は、各々が超音波を送受する複数の振動素子を備えており、複数の振動素子が送受信部12により送信制御されて送信ビームが形成される。また、複数の振動素子が診断対象を含む領域内から超音波を受波し、これにより得られた信号が送受信部12へ出力され、送受信部12が受信ビームを形成して受信ビームに沿ってエコーデータが収集される。プローブ10は、超音波ビーム(送信ビームと受信ビーム)を二次元平面内において走査する。もちろん、超音波ビームを三次元空間内において立体的に走査する三次元プローブが利用されてもよい。
 診断対象を含む領域内で超音波ビームが走査され、送受信部12により超音波ビームに沿ったエコーデータ、つまりラインデータが収集されると、画像処理部20は、収集されたラインデータに基づいて超音波の画像データを形成する。画像処理部20は、例えばBモード画像の画像データを形成する。
 画像処理部20は、受信信号に基づいて得られる超音波画像に対する解像度の変換処理により、互いに解像度の異なる複数の解像度画像を形成し、複数の解像度画像に基づいて画像内の各部分において低減の度合いを決定し、画像内の各部分において低減の度合いに応じて低減処理を施した超音波画像を形成する。超音波画像(画像データ)を形成するにあたり、画像処理部20は、超音波画像内に現れる固定的なノイズを抑制する。特に、かぶり(又は、固定アーチファクト)などと称されるノイズが低減される。かぶりなどのノイズを低減するために、画像処理部20は、多重解像度分解、運動推定、構造推定、かぶり除去、画像再構成の各機能を備えている。そして、画像処理部20において、例えば、複数フレームに亘って診断対象である心臓を映し出した複数の画像データが形成されて表示処理部30に出力される。
 表示処理部30は、画像処理部20から得られる画像データに対して、例えば、超音波の走査座標系から画像の表示座標系へ変換する座標変換処理等を施し、さらに、必要に応じてグラフィック画像等を加えて、超音波画像を含んだ表示画像を形成する。表示処理部30において形成された表示画像は表示部40に表示される。
 図1に示す構成(各機能ブロック)のうち、送受信部12と画像処理部20と表示処理部30は、それぞれ、例えばプロセッサや電子回路等のハードウェアを利用して実現することができ、その実現において必要に応じてメモリ等のデバイスが利用されてもよい。表示部40の好適な具体例は例えば液晶ディスプレイ等である。
 また、図1に示すプローブ10以外の構成は、例えばコンピュータにより実現することもできる。つまり、コンピュータが備えるCPUやメモリやハードディスク等のハードウェアと、CPU等の動作を規定するソフトウェア(プログラム)との協働により、図1のプローブ10以外の構成(例えば画像処理部20のみでもよい)が実現されてもよい。
 図1の超音波診断装置の全体構成は以上のとおりである。次に、図1の超音波診断装置(本超音波診断装置)により実現される機能等について詳述する。なお、図1に示した構成(部分)については以下の説明において図1の符号を利用する。まず、図2から図14を利用して、本超音波診断装置(特に画像処理部20)において実行される処理の原理について説明する。
 図2は、かぶりを含む画像の具体例を示す図である。(A)には、かぶりを含む心筋の超音波画像(例えばBモード画像)の具体例が図示されている。なお、(A)の画像内における心筋部分とかぶり部分が、それぞれ、(A1)と(A2)に図示されている。本超音波診断装置は、例えば(A)のようなかぶりを含む超音波画像内において、(A2)に示すかぶり部分を特定し、特定したかぶり部分の影響を低減することにより、望ましくはかぶり部分を除去することにより、例えば(A1)に示す心筋部分を鮮明に映し出した超音波画像を形成する。本超音波診断装置の画像処理部20は、運動推定と構造推定により超音波画像内においてかぶり部分を特定する。
 図3,図4は、運動推定を説明するための図である。図3,図4には、複数の時相(T−2,T−1,T)に亘って得られる超音波画像の具体例が図示されている。なお、図3には、超音波画像内における心筋部分のみが図示されており、図4には、超音波画像内におけるかぶり部分のみが図示されている。
 図3に示す心筋部分は、心臓の拡張収縮運動に伴って動いている。従って、超音波画像内の心筋部分における画素の輝度値は、複数フレーム(時相T−2,T−1,T)に亘って比較的大きく変化する。一方、図4に示すかぶり部分は固定的であり、従って、超音波画像内のかぶり部分における画素の輝度値は、複数フレーム(時相T−2,T−1,T)に亘って、差がほとんどない。
 そこで、画像処理部20は、例えば、各画素(座標を(i,j)とする)ごとに、複数フレーム(時相)に亘って、輝度値の標準偏差を算出し、標準偏差を運動の度合いを評価するための指標(運動量)とする。これにより、運動の度合いの強弱(運動量の大小)に応じて、心筋部分とかぶり部分を識別することが可能になる。
 但し、心筋部分において、例えば心臓壁の中などでは、比較的運動の度合いの小さい部分が存在する。そのため、例えば、運動の度合い(運動量)のみを評価した場合には、図3に示すように、例えば心筋部分の内部が心筋部分として特定できない可能性がある。
 そこで、本超音波診断装置の画像処理部20は、さらに、多重解像度分解を利用して構造推定を行い、超音波画像内において心筋部分とかぶり部分を識別する。
 図5は、多重解像度分解の具体例を示す図であり、図5には、超音波画像内における心筋部分のみが図示されている。図5には、超音波画像Gと、超音波画像Gから1回のダウンサンプリング処理により得られる低解像度画像Gn+1と、低解像度画像Gn+1から1回のダウンサンプリング処理により得られる低解像度画像Gn+2が図示されている。なお、超音波画像Gは、解像度変換前の基本となる超音波画像であってもよいし、基本となる超音波画像をダウンサンプリング処理して得られた低解像度画像であってもよい。
 さらに、低解像度画像Gn+2から2回のアップサンプリング処理により得られる低解像度画像Ex(Ex(Gn+2))も図示されている。低解像度画像Ex(Ex(Gn+2))は、低解像度画像Gn+2と同じ解像度であり、超音波画像Gと同じ画像サイズである。
 画像処理部20は、互いに異なる解像度に対応した複数の解像度画像に基づいて、例えば、図5に示す超音波画像Gと低解像度画像Ex(Ex(Gn+2))を比較することにより、構造の度合いを評価して構造推定を行う。
 図6は、構造推定を説明するための図である。画像処理部20は、超音波画像Gと低解像度画像Ex(Ex(Gn+2))の2つの画像の差分画像を形成する。つまり、2つの画像間において互いに対応する画素(互いに同じ座標の画素)の輝度値の差を、その画素の画素値(差分の輝度値)としたものが差分画像である。
 超音波画像内の心筋部分には、心筋組織(構造物)の性状、例えば組織表面または組織内における微小な凹凸が反映されている。そのため、例えば、心筋表面や心筋内の画素を注目画素とすると、比較的解像度の高い超音波画像Gにおいて、注目画素とその周囲画素との間には比較的大きな輝度差が現れる。
 これに対し、低解像度画像Ex(Ex(Gn+2))は、低解像度化(ダウンサンプリング処理)により、超音波画像Gに比べて鈍った(ボケた)画像であるため、超音波画像Gと比較して、注目画素とその周囲画素との間における輝度差が小さくなる。
 したがって、超音波画像Gにおける注目画素と周囲画素の輝度差が大きければ大きいほど、低解像度画像Ex(Ex(Gn+2))における注目画素が超音波画像Gから大きく変更され、差分画像における画素値(輝度差)が大きくなる。
 そこで、画像処理部20は、差分画像の画素値(輝度差)が大きいほど、構造(組織)の度合いが強いと判断する。
 図7は、心筋部分に関する差分画像の具体例を示す図であり、図7には、心筋部分における超音波画像Gと低解像度画像Ex(Ex(Gn+2))と、これら2つの画像の差分画像の具体例が図示されている。
 図8は、多重解像度分解の具体例を示す図であり、図8には、超音波画像内におけるかぶり部分のみが図示されている。図8には、超音波画像Gと、超音波画像Gから1回のダウンサンプリング処理により得られる低解像度画像Gn+1と、低解像度画像Gn+1から1回のダウンサンプリング処理により得られる低解像度画像Gn+2が図示されている。なお、超音波画像Gは、解像度変換前の基本となる超音波画像であってもよいし、基本となる超音波画像をダウンサンプリング処理して得られた低解像度画像であってもよい。
 さらに、低解像度画像Gn+2から2回のアップサンプリング処理により得られる低解像度画像Ex(Ex(Gn+2))も図示されている。低解像度画像Ex(Ex(Gn+2))は、低解像度画像Gn+2と同じ解像度であり、超音波画像Gと同じ画像サイズである。
 図9は、かぶり部分に関する差分画像の具体例を示す図であり、図9には、かぶり部分における超音波画像Gと低解像度画像Ex(Ex(Gn+2))と、これら2つの画像の差分画像が図示されている。
 超音波画像内のかぶり部分は、心筋部分(図7)とは異なり、組織の微小な凹凸が反映されていない。そのため、かぶり部分について、比較的解像度の高い超音波画像Gと低解像度画像Ex(Ex(Gn+2))を比較しても大きな相違は現れず、心筋部分(図7)の場合に比べて、差分画像における画素値(輝度差)が小さくなる。そこで、画像処理部20は、差分画像の画素値(輝度差)が小さいほど、構造(組織)の度合いが弱いと判断する。
 画像処理部20は、上述した構造推定と運動推定に基づいて、以下に詳述するように、かぶりを減算(除去)するための減算成分を生成する。
 図10は、減算候補成分の具体例を示す図である。画像処理部20は、減算成分を生成するにあたって、画像情報の過剰な低減(削りすぎ)を避けるために、減算してもよい範囲である減算候補成分を生成する。
 例えば、図10に示すように、心筋部分とかぶり部分を含む原画像の全画素について、各画素の輝度値から、全画素のうちの最低となる輝度値(最低輝度)に基づいて決定される最適な輝度値(最適輝度)を減算することにより、減算候補成分が生成される。
 次に、画像処理部20は、構造の推定結果と運動の推定結果から、減算における重みを算出する。
 図11は、推定結果に基づいた重みの算出例を示す図である。画像処理部20は、構造の推定により得られた結果に基づいて構造の重みを算出する。例えば、差分画像(図7,図9)の各画素の輝度値を二乗して、各画素の構造の重みを算出する。また、画像処理部20は、運動の推定により得られた結果に基づいて運動の重みを算出する。例えば、運動の推定により得られた各画素の運動量(図3,図4)から、各画素の運動の重みを算出する。そして、画像処理部20は構造の重みと運動の重みに基づいて減算重みを算出する。
 図12は、減算重みの算出例を示す図である。画像処理部20は、例えば、構造の重みと運動の重みを乗算することにより、つまり、各画素ごとに構造の重みと運動の重みを乗算することにより減算重みを算出する。
 図13は、減算成分の算出例を示す図である。画像処理部20は、例えば、減算候補成分(図10)と減算重み(図12)を乗算することにより、つまり、各画素ごとに減算候補成分と減算重みを乗算することにより減算成分を算出する。
 図14は、かぶり除去の具体例を示す図である。画像処理部20は、心筋部分とかぶり部分を含む原画像(図10)から減算成分(図13)を減算することにより、つまり、各画素ごとに原画像の画素値から減算成分を減算することにより、かぶりが低減された、望ましくは、かぶりが除去された超音波画像を形成する。
 以上に説明した処理により、心筋部分とかぶり部分を含む原画像から、心筋部分をできるかぎり維持しつつ、望ましくは心筋部分が完全に維持されるように、構造の度合いが小さく且つ運動の度合いも小さいかぶり部分が低減または除去される。次に、上述した処理を実現する画像処理部20の具体的な構成例について説明する。
 図15は、画像処理部20の内部構成を示す図である。画像処理部20は、多重解像度分解部31、高周波成分算出部41、構造算出部51、データ更新部61、背景減算部71、画像再構成部111を備えている。画像処理部20が送受信部12から得たラインデータ、つまり診断画像(例えば図10の原画像)の画像データGは、まず、多重解像度分解部31において処理される。
 多重解像度分解部31は、入力された診断画像のガウシアンピラミッドを作成する。なお、入力された診断画像をGとし、多重解像度分解部31で生成される各階層のデータをG成分(nは0以上の整数)とする。
 図16は、多重解像度分解部31(図15)の内部構成を示す図である。多重解像度分解部31は図示する構成を備えており、入力されたG成分がダウンサンプリング部3101−1、3101−2、3101−3、3101−4へ入力され、後述するような手法でダウンサンプリング処理を受ける。
 図17は、ダウンダンプリング部3101(図16)の内部構成を示す図である。ダウンサンプリング部3101は図示する構成を有しており、ローパスフィルタ(LPF)部12−1はG成分に2次元低域通過フィルタ(LPF)を施し、デシメーション部31011は、LPF部12−1から出力されたデータを間引いてデシメーション処理を施し、サンプル密度と解像度が減少したGn+1成分が生成される。
 こうして、図16の多重解像度分解部31において生成されたG成分は、G成分とはサンプル密度と解像度が異なる多重解像度表現となっている。例えば、原画像である診断画像Gと、Gからダウンダンプリングにより得られるG,G,G,G成分の周波数帯域の具体例は、図16に示すようになる。図16に示す具体例において、Gの周波数帯域は0~fであれば、Gの周波数帯域が0~f/2となり、Gの周波数帯域が0~f/4となり、Gの周波数帯域が0~f/8となり、Gの周波数帯域が0~f/16となる。なお、変形例として、Gの周波数帯域が0~fの場合に、Gの周波数帯域が0~4f/5となり、Gの周波数帯域が0~3f/5となり、Gの周波数帯域が0~2f/5となり、Gの周波数帯域が0~f/5となるようなダウンダンプリングが行われてもよい。
 なお、図16に示した具体例においては、多重解像度表現の最高階層を4(n=4)としているが、この具体例はあくまで一例であり、階層0から階層n(n≧1)の範囲で多重解像度分解が行われれば良い。
 また、上記具体例では、ダウンサンプリング部3101(図17)において2次元低域通過フィルタを施してから、デシメーション処理を施しているが、これに限定する必要はなく、1次元低域通過フィルタをそれぞれの方向に施してからデシメーションをしても良いし、1次元低域通過フィルタを施しながらデシメーション処理を行っても良い。
 なお、以降の説明に登場する低域通過フィルタ(LPF)においても、2次元低域通過フィルタを施しても良いし、1次元低域通過フィルタ各方向に施しても良い。また、上記具体例では、多重解像度分解部の一例としてガウシアンピラミッド処理を行う構成を示しているが、離散ウェーブレット変換や、ガボール変換、周波数領域におけるバンドパスフィルタ等を用いて多重解像度分解する構成に変更しても良い。
 図15に戻り、多重解像度分解部31において得られたG成分は、高周波成分算出部41、構造算出部51、データ更新部61、画像構成部111に入力される。この際、必要なデータだけそれぞれのブロックに入力しても良いし全てのデータを共有しても良い。また、それぞれのブロックに入力する際、なんらかのフィルタ処理等を施しても良い。高周波成分算出部41は、画像再構成時に用いるラプラシアンピラミッドを生成する。
 図18は、高周波成分算出部41(図15)の内部構成を示す図である。高周波成分算出部41は図示する構成を有しており、入力されたGn+1成分がアップサンプリング部4101−1−1、4101−2−1へ入力され、後述するような手法でアップサンプリング処理を受ける。アップサンプリングされた成分はG成分と共に減算器13−1、13−2へ入力されて差分処理を受け、高域周波数成分であるL成分が算出される。
 図19は、アップサンプリング部4101(図18)の内部構成を示す図である。アップサンプリング部4101は図示する構成を有しており、ゼロ挿入部41011は、Gn+1成分に対して、データの一つ飛ばしの間隔でゼロを挿入するゼロ挿入処理を施し、LPF部12−2においてゼロ挿入されたGn+1成分に低域通過フィルタ(LPF)が施される。データ補間部41012では、上述の処理を施された成分が、G成分とサイズ(画像サイズ)が等しくなるように補間を受け、これによりアップサンプリングされたEX(Gn+1)成分が得られる。
 こうして、図18の高周波成分算出部41で作成された各階層のデータをL成分(n≧0)と呼ぶ。L成分は、階層ごとに細かさの異なるエッジ情報を有している。
 なお、図18には各成分の周波数帯域の具体例が図示されている。原画像である診断画像Gの周波数帯域が0~fであり、Gの周波数帯域が0~f/2であり、Gの周波数帯域が0~f/4であれば(図16参照)、L成分はGとGの差分に基づいて得られるため周波数帯域がf/2~fとなり、L成分はGとGの差分に基づいて得られるため周波数帯域がf/4~f/2となる。
 なお、上述した具体例では、高周波成分算出部41にG成分からG成分を入力してL成分とL成分を得ているが、この具体例に限定する必要はなく、例えば、さらに多くの階層のG成分を入力して、さらに多くのL成分を得るようにしてもよい。
 また、上述した具体例では、高周波成分算出の一例としてラプラシアンピラミッド処理を行う構成を示しているが、離散ウェーブレット変換や、ガボール変換、周波数領域におけるバンドパスフィルタ等を用いて高周波成分を算出する構成に変更しても良い。
 図15に戻り、高周波成分算出部41において得られたL成分とL成分は画像構成部111に入力される。また、構造算出部51は、構造強度の推定(構造の推定)に用いる構造推定値Strを算出する。
 図20は、構造算出部51(図15)の内部構成を示す図である。構造算出部51は図示する構成を有しており、入力されたGn+2成分がアップサンプリング部4101−4へ入力されてアップサンプリング処理を受け、アップサンプリングされた成分がもう一度アップサンプリング部4101−3でアップサンプリング処理を受けたのち、G成分と共に減算器13−3へ入力される。減算器13−3で求められた差分値はゼロクロス除去部5101に入力されて後述するようなゼロクロス除去処理を受けたのち、二乗値算出部5102へ入力されて構造推定値Strが算出される。構造算出部51において生成された構造推定値Strは、構造の強度情報を有するデータとなっている。
 なお、上述した具体例では、n=2として、構造算出部51にG成分からG成分を入力して構造推定値Strを得ているが、この具体例に限定する必要はなく、例えば、G成分のうち、少なくとも1つ以上の成分が入力され、構造推定値Strが算出されれば良い。
 また、上述した具体例では、G成分を2回アップサンプリングした成分とG成分の差分を求めて構造推定値Strを得ているが、この具体例に限定する必要はなく、連続した階層、もしくはさらに離れた階層を用いて差分を求めても良い。また、上述した具体例では、G成分を2回アップサンプリングした成分とG成分の差分を求めているが、さらに、別の成分、例えばG成分を2回アップサンプリングした成分とG成分の差分も求め、G成分とG成分から得られる差分とG成分とG成分から得られる差分の両者(両差分)それぞれから求まる構造推定値を加味して、最終的な構造推定値Strを算出しても良い。
 図21はゼロクロス除去部5101(図20)における処理の具体例を示す図である。S101において、減算器13−3から差分データを取得する。S102において、注目点を設定する。S103において、注目点に隣接する上下(画像のy軸方向)の点の差分値を取得する。S104において、取得した2点の差分値を乗算する。S105において注目点に隣接する左右(画像のx軸方向)の点の差分値を取得する。S106において、取得した2点の差分値を乗算する。
 S107において、S104とS106で得られた乗算値のうち、少なくとも1つが負であるか否か判定する。1つでも負である場合はS109に進み、そうでない場合はS108に進む。
 S108において、注目点はゼロクロスではなかったと判定し、注目点(ピクセル)の差分値は変更せずS113に進む。
 S109において、S104とS106で得られた乗算値の一方のみが負であるか否か判定する。一方の乗算値だけが負である場合はS110に進み、2つの乗算値が共に負であった場合はS111に進む。S110において、乗算値が負をとる方向の2点の絶対値の平均を注目点の値とし、S113に進む。
 S111において、S104とS106で得られた乗算値の絶対値が最大の方向を選ぶことで、傾斜最大方向を選ぶ。S112において、S111で選ばれた方向の2点の絶対値の平均を注目点の値とし、S113に進む。
 S113において、全注目点の値が定まったか否か判定する。全注目点の値が定まった場合は終了とし、そうでない場合はS102に戻り、次の注目点に係る処理を実行する。
 なお、上述した具体例では、注目点の上下または左右の点の差分値を取得しているが、これに限定する必要はなく、例えば斜め方向の差分値を求めるステップを設け、さらに多くの方向でゼロクロスを検出するようにしても良い。また、上述した具体例では、方向ごとの比較を行っているが、隣接点の全ての値を取得し、例えば主成分分析などで傾斜最大方向を算出しても良い。なお、ゼロクロスの除去では、好ましくは傾斜最大方向の絶対値の平均を入れるが、これに限定する必要はなく、例えば隣接する4点の絶対値の平均値を入れても良い。
 図15に戻り、構造算出部51において得られたStr成分はデータ更新部61に入力される。データ更新部61は、組織の動きの推定および組織の構造の推定に用いるmultiGバッファと、multiStrバッファを更新する。
 図22は、データ更新部61(図15)の内部構成を示す図である。データ更新部61は図示する構成を有している。つまり、データ更新部61は、多重解像度分解部31(図15)で生成された現フレームのG成分のうち少なくとも1つ以上のデータを用いて、現フレーム以前のG成分(画像データ)を保存するmultiGバッファを更新する画像データ更新部6101と、構造算出部51(図15)で生成された現フレームの構造推定値Strを用いて、現フレーム以前の構造データを保存するmultiStrバッファを更新する構造データ更新部6102で構成される。なお、図22の具体例では、n=2としているが、これに限定する必要はなく、例えばさらに複数の階層を更新しても良い。
 図23は、データ更新部61(図22)における処理の具体例を示す図である。図23には、画像データ更新部6101(図22)において実行される処理のフローチャートが図示されている。
 S201において、multiGバッファを取得する。S202において、最も古い時相tの先頭アドレスを取得する。S203において、tよりも1つ若い時相t−1の先頭アドレスを取得する。S204において、時相t−1のデータ配列を全て時相tのデータ配列にコピーする。S205においてt=t−1とする。
 S206において、t=0であるか否か判定する。t=0となった場合にはS207に進み、そうでない場合にはS203に進み、次の時相のコピーを実行する。S207において、現フレームのG成分を取得する。S208において、t=0のデータ配列に現時相のデータG成分をコピーして、multiGバッファの更新を終了する。
 図23に示す具体例により、画像データ更新部6101から、3フレームのG成分で構成されるmultiGバッファが出力される。
 また、図23の具体例において、GをStrとすることにより、構造データ更新部6102においても図23のフローチャートと同様な処理により、3フレームのStr成分で構成されるmultiStrバッファが出力される。なお、必ずしも上述の更新方法を取らず、例えば、ポインタをつなぎかえるような処理でも良い。
 図15に戻りデータ更新部61において更新されたmultiGバッファとmultiStrバッファは、背景減算部71に入力される。また、multiGバッファとmultiStrバッファは、次のフレームの計算に備え、再度データ更新部61に入力される。背景減算部71は、G成分に含まれるかぶり成分を、組織の動きの推定および組織の構造の推定から求め、かぶり低減処理を施したnrG成分を算出する。
 図24は、背景減算部71(図15)の内部構成を示す図である。背景減算部71は図示する構成を有している。重み計算部81は、multiGバッファとmultiStrバッファに基づいて平均画像frameAve成分と、減算重みweight成分を算出する。最適輝度値推定部91は、現フレームが有する最適輝度値baseを算出する。
 減算成分算出部101は、重み計算部81で算出された平均画像frameAve成分と、最適輝度値推定部91で算出された最適輝度値baseと、重み計算部81で算出されてLPF部12−3で低域通過フィルタ(LPF)を施された減算重みweightから、減算成分を算出する。
 好ましくは、算出された減算成分は、LPF部12−4で低域通過フィルタ(LPF)が施されて空間方向に平滑化され、調整部7101において、次式に基づいて時間方向に平滑化される。
Figure JPOXMLDOC01-appb-M000001
 これにより、後述の処理により再構成された診断画像は、局所的な減算、およびフレーム間における同一画素での大きな輝度変化が抑制され、違和感の少ない診断画像が提供できるようになる。減算器13−4では、multiG成分に保存された現フレームのG成分から、空間的、時間的に平滑化された減算成分が減算され、かぶりが低減されたnrG成分が算出される。
 なお、上述した具体例では、n=2としているが、この具体例に限定されない。また、上述した具体例では、調整部7101において現フレームで算出された減算成分と、前フレームまでに更新されてきた減算成分の重みづけ加算値で算出しているが、これまでの全てのデータ、またはそれに準じるパラメータを保存しておき、適宜重みづけを施しても良い。
 背景減算部71において得られたnrG成分は、画像再構成部111に入力される。また、背景減算部71において得られた減算成分は、次のフレームの計算に備え、再度背景減算部71に入力される。重み計算部81は、平均画像frameAve成分と、かぶりの推定値を表す評価値として、減算重みweightを算出する。
 図25は、重み計算部81(図24)の内部構成を示す図である。重み計算部81は図示する構成を有している。平均値算出部8101は、入力されたmultiGバッファに保存される少なくとも1枚のG成分の輝度値、もしくは複数枚のG成分の平均値を画素(ピクセル)ごとに算出する。分散値算出部8102は、multiGバッファに保存される複数枚のG成分の輝度値の分散値を画素(ピクセル)ごとに算出する。平均値算出部8103は、multiStrバッファに保存される少なくとも1枚のStr成分の強度値、もしくは複数枚のStr成分の平均値を画素(ピクセル)ごとに算出する。
 平均値算出部8101、分散値算出部8102、平均値算出部8103で算出された値は、それぞれLPF部12−5、12−6、12−7で低域通過フィルタ(LPF)を施される。LPF部12−5で低域通過フィルタを施されたデータは、平均画像frameAveとして出力される。また、LPF部12−6、12−7で低域通過フィルタを施されたデータは、重み決定部8104に入力される。
 ここで、重み決定部8104で行われる計算についてさらに詳しく説明する。重み決定部8104では、後述の処理を経て得られ減算候補成分のうち、かぶりと推定される成分を減算成分に残し、かぶりではないと推定される成分を減算成分とならないように除去するような重みweightを算出する。すなわち、かぶりの推定値を表す評価値として、減算重みweightを0≦weight≦1で与える。これは、かぶりの「顕著性」を示す正規化された評価値であり、この評価値を算出するために、本実施例では動きと構造を例に、かぶりの評価値を求める。
 かぶりは、プローブ10の近傍に現れる、動きが少なく構造を持たないノイズである。よって、好ましくは、動きが小さく、かつ構造強度が弱い成分であるほど、かぶりであると判定しweightを1に近づける。一方、動きが大きい、または構造が強い成分であれば心筋等の情報を有している可能性があるため、weightを0に近づける。
 これにより、重み決定部8104では、LPF部12−6,12−7で算出された値をもとに、例えば後述のような手法で、減算重みweightが算出される。
 まず、LPF部12−6で算出された値は、複数フレームを用いて求めた、画素(ピクセル)ごとの分散値を平滑化した値なので、この値が小さいほど、領域として輝度変化が少なく、動きが少なかったと考えることができる。これより、例えばピクセル(i,j)における算出値とパラメータgammaを用いた次式の減少関数により、動きに関する重みを算出することができる。
Figure JPOXMLDOC01-appb-M000002
 次に、LPF部12−7で算出された値は、複数フレームを用いて求めた、画素(ピクセル)ごとの構造推定値を平滑化した値なので、この値が小さいほど、領域として構造が弱いと考えることができる。これにより、例えばピクセル(i,j)における算出値とパラメータdeltaを用いた次式の減少関数により、構造に関する重みを算出することができる。
Figure JPOXMLDOC01-appb-M000003
 数2式の動きに関する重みと、数3式の構造に関する重みを用いて、例えば、次式の減少関数により、減算候補成分に対する重みづけを算出することができる。
Figure JPOXMLDOC01-appb-M000004
 なお、上述した具体例では、かぶりと推定される場所ほどweightが1に近づくような減少関数を用いたが、この具体例以外の減少関数を用いてもよい。また、本実施形態においては、分散値算出部8102、平均値算出部8103では複数フレームの画素ごとの値をもとに計算を行ったが、例えば、カーネルサイズm×n(m≧0,n≧0)で与えられる範囲の画素データを使用しても計算を行っても良い。また、本実施形態においては、動きに関する重みづけを輝度値の分散から求めたが、ブロックマッチング等を行った際に用いられる評価値、例えばSAD(Sum of Absolute Difference)などを用いて算出しても良い。
 図24に戻り、重み計算部81において得られた平均画像frameAveは最適輝度値推定部91と減算成分算出部101に出力される。また、重み計算部81において得られた減算重みweightは、LPF部12−3でLPF処理を施された後、減算成分算出部101に出力される。最適輝度値推定部91は、入力されたデータの最適輝度値baseを推定する。
 図26は、最適輝度値推定部91(図24)の内部構成を示す図である。最適輝度値推定部91は図示する構成を有している。背景輝度値探索部9101は、入力されたデータの最小値、つまり平均画像frameAveは内の最適輝度値minを探索し、調整部9102は、得られた最小値minに、例えばパラメータepsilonを用いて調整を行う。すなわち、最適輝度値推定部91は、次式に示す計算を行い、最適輝度値baseを算出する。
Figure JPOXMLDOC01-appb-M000005
 なお、本実施形態においては上述のような手法で最適輝度値baseを求めたが、これに限定する必要はない。好ましくは、最適輝度値baseは、かぶり等のノイズ部が本来有していたであろう輝度値を推定した値であるため、最適輝度値以外の任意の輝度値を、例えば画像のヒストグラムから判別分析法などを用いて自動で算出しても良い。また、任意の輝度値をユーザーが与えるようにしても良い。
 このように、最適輝度値を推定しておくことで、後述の処理を経て得られる減算候補成分を制御し、かぶりと推定された部位の輝度を減算しすぎないように調整することができる。これにより、後述の処理を経て再構成された診断画像が違和感を含まないようにできる。
 図24に戻り、最適輝度値推定部91において得られた最適輝度値baseは、減算成分算出部101に出力される。減算成分算出部101では、注目フレームのかぶり成分が推測され、減算成分として算出される。
 図27は、減算成分算出部101(図24)の内部構成を示す図である。減算成分算出部101は図示する構成を有している。減算器13−5は、重み計算部81(図24)で算出された平均画像frameAveから、最適輝度値推定部91(図24)で算出された最適輝度値baseを減算し、減算候補成分を算出する。
 条件付き乗算部10101は、算出された減算候補成分と減算重みweightから、減算成分diffDataを算出する。調整部10102は、得られた減算成分diffDataに、例えばパラメータalphaを用いて調整が行われる。減算成分算出部101は、例えば次式に基づいて、各画素(i,j)ごとに減算成分diffDataを算出する。
Figure JPOXMLDOC01-appb-M000006
 図28は条件付き乗算部10101(図27)における処理の具体例を示す図である。図28には、条件付き乗算部10101において実行される処理のフローチャートが図示されている。S301において、平均画像frameAve、最適輝度値base、減算重みweightをそれぞれ取得する。S302において、注目画素(ピクセル)を設定し、注目画素の輝度値から最適輝度値baseを減算し、減算候補成分を算出する。S303において、減算候補成分が正であるか否かを判定する。減算候補成分が正の場合S303に進み、負である場合S305に進む。
 S304において、減算候補成分が正であるので、減算重みweightを乗算して減算値を決定する。S305において、減算候補成分が負であることから、最適輝度値より低い輝度値を有する。そこで処理は行わないよう、減算値を0とする。S306において、全注目画素の値が定まったか否かを判定する。全注目画素の値が定まった場合は終了とし、そうでない場合S302に進んで次の注目画素の値を決める。
 図24に戻り、減算成分算出部101において得られた減算成分diffDataは、LPF部12−4でLPF処理を施された後、調整部7101に出力される。調整部7101は前述したように、数1式に基づいた処理を実行する。こうして、背景減算部71から画像再構成111(図15)に、かぶりが低減されたnrG成分が出力される。画像再構成部111は、かぶり成分が減算されたnrG成分と、L成分,L成分を用い、ガウシアンピラミッドの再構成処理を行う。
 図29は、画像再構成部111(図15)の内部構成を示す図である。画像再構成部111は図示する構成を有している。入力されたnrG成分は、アップサンプリング部4101−1−2,4101−2−2へ入力され、アップサンプリング処理を受ける。アップサンプリングされた成分はL成分と共に加算器14−1,14−2へ入力され加算処理を受ける。
 こうして、かぶりが低減された、望ましくはかぶりが除去された画像データnrGが得られる。画像データnrGは、画像処理部20に入力された画像データGと、同等のサンプル密度・解像度を有する。
 なお、図29には各成分の周波数帯域の具体例が図示されている。nrGはG(図16)に基づいて得られる成分であり周波数帯域が0~f/4となる。またLの周波数帯域はf/2~fであり、Lの周波数帯域はf/4~f/2である(図18)。そして、nrGは、nrGとLとLの加算に基づいて得られるため周波数帯域が0~fとなる。つまり、画像再構成部111において再構成されたnrGは、原画像である診断画像Gと同じ周波数帯域となる。
 また、上述した実施例においては、G成分,G成分,L成分,L成分と、かぶり成分が減算されたnrG成分を得ているが、これに限定する必要はなく、さらに多くの階層を用いても良い。また、上記実施例において、好ましくはn≧1の階層G成分でかぶり低減処理を行い、かぶりが低減されたnrG成分をアップサンプリングしながらL成分(0≦k≦n)を加算することで、単純なフィルタ等でみられる「べたつき感」が軽減され、より違和感なく診断画像の再構成が行えるようになる。
 画像再構成部111において再構成された画像データnrGは、表示処理部30に送られ、これにより、かぶりが低減された、望ましくはかぶりが除去された超音波画像が表示部40に表示される。こうして、例えば、心筋情報を大きく減ずることなく、効率的にかぶりを低減することで、視認性のよい超音波画像(例えばBモード画像)を表示することが可能になる。
 図30は、画像処理部20の変形例(第2実施例)を示す図である。図15の画像処理部20との相違は、図30において、特徴算出部121を追加し、かぶりの推定に、組織の動きと組織の構造の2つの特徴以外に、第3以上の特徴を用いる点である。ここで、特徴算出部121で求める第3以上の特徴とは、例えば組織の方向、フレーム方向の差分、画像の色情報などが挙げられる。
 なお、図30に示す具体例においては、処理を具体化するためn=2として、G成分からG成分を利用して特徴推定値Ftrを得ているが、これに限定する必要はなく、作成されたG成分のうち、少なくとも1つ以上のデータが入力され、特徴推定値Ftrが算出されれば良い。
 また、上記変形例(第2実施例)においては、画像処理部20に特徴算出部121を1つだけ配置するような構成を示しているが、これに限定する必要はなく、第3以上の利用したい特徴数に応じて特徴算出部121を増やしても良い。
 図31は、データ更新部61(図30)の内部構成を示す図である。データ更新部61は図示する構成を有している。図22のデータ更新部61との相違は、図31において、画像データ更新部6101、構造データ更新部6102に加え、特徴データ更新部6103が存在する点である。特徴データ更新部6103は特徴算出部121(図30)で作成された現フレームの特徴推定値Ftrを用いて、現フレーム以前の構造データを保存するmultiFtrバッファを更新する。
 この変形例(第2実施例)においては、データ更新部61において、特徴データ更新部6103を1つだけ配置するような構成を示しているが、これに限定する必要はなく、第3以上の利用したい特徴数に応じて特徴データ更新部6103を増やしても良い。
 図32は、背景減算部71(図30)の内部構成を示す図である。背景減算部71は図示する構成を有している。図24の背景減算部71との相違は、図32において、入力としてmultiFtrバッファが増えた点、および、重み計算部81にmultiFtrバッファが入力される点である。
 この変形例(第2実施例)においては、背景減算部71において、入力としてmultiFtrバッファが1つ増えるような構成を示しているが、これに限定する必要はなく、第3以上の利用したい特徴数に応じて入力バッファを増やしても良い。またこれに伴い、重み計算部81に入力されるバッファ数も、用いたい特徴数に応じて増やしても良い。
 図33は、重み計算部81(図32)の内部構成を示す図である。重み計算部81は図示する構成を有している。図25の重み計算部81との相違は、図33において、入力としてmultiFtrバッファが増えた点、また、平均値算出部8105が追加され、multiFtrバッファに保存される少なくとも1枚のFtr成分の輝度値、もしくは複数枚のFtr成分の平均値を画素(ピクセル)ごとに算出される点、および算出された値が、同じく追加されたLPF部12−8で低域通過フィルタ (LPF)が施され、重み決定部8104へ入力される点である。
 この変形例(第2実施例)においては、重み計算部81において、入力としてmultiFtrバッファが1つ増えるような構成を示しているが、これに限定する必要はなく第3以上の利用したい特徴数に応じて入力バッファを増やしても良い。またこれに伴い、第3以上の利用したい特徴数に応じて平均値算出部8105、LPF部12−8を増やしても良い。
 図34は、画像処理部20の他の変形例(第3実施例)を示す図である。図15,図30の画像処理部20との相違は、図34において、機械学習などを用いて事前に得られた特徴を扱う点が挙げられる。これに伴い、図30の第2実施例で示した構成に加え、図34では特徴記憶部131が追加される。
 例えば、特徴記憶部131は、事前にかぶり部の特徴と、その特徴に応じた戻り値を記憶しておく。この際、診断に重要な心筋等の構造の特徴と、その特徴に応じた戻り値を記憶しておいても良い。これにより、特徴算出部121で算出された特徴を特徴記憶部131へ入力することで、特徴算出部121はそれぞれの特徴に応じた戻り値を得ることができる。この戻り値を特徴推定値Ftrとして用いることで、特徴の算出を行う。
 この変形例(第3実施例)においては、画像処理部20に特徴記憶部131を1つだけ配置するような構成を示しているが、これに限定する必要はなく、第3以上の利用したい特徴数に応じて特徴記憶部131を増やしても良い。また、第2実施例と第3実施例を併用することも可能である。
 なお、以上においては、2次元画像を中心とした画像処理について説明したが、3次元画像についてのかぶり低減処理を施すようにしてもよい。3次元画像を処理する場合には、好ましくはダウンサンプリング部3101(図16)とアップサンプリング部4101(図18,図20,図29)は、2次元低域通過フィルタを施していたが、3次元低域通過フィルタに変更される。ただし、例えば、1次元低域通過フィルタを3次元の各方向に施しても良いし、任意の2方向を含む断面に2次元低域通過フィルタを施した後、残る方向に1次元低域通過フィルタを施しても良い。
 また、送受信部12から得られる信号に対して検波や対数変換等の処理を施してから、画像処理部20においてかぶりを低減し、その低減後にデジタルスキャンコンバータにおいて座標変換処理が実行されてもよい。もちろん、送受信部12から得られる信号に対して、画像処理部20においてかぶりを低減してから、検波や対数変換等の処理を施してもよいし、デジタルスキャンコンバータにおいて座標変換処理を実行してから、画像処理部20においてかぶりを低減してもよい。
 以上、本発明の好適な実施形態を説明したが、上述した実施形態は、あらゆる点で単なる例示にすぎず、本発明の範囲を限定するものではない。本発明は、その本質を逸脱しない範囲で各種の変形形態を包含する。
 10  プローブ
 12  送受信部
 20  画像処理部
 30  表示処理部
 40  表示部

Claims (13)

  1.  超音波を送受するプローブと、
     プローブを制御することによりプローブから受信信号を得る送受信部と、
     受信信号に基づいて得られる超音波画像に対する解像度の変換処理により、互いに解像度の異なる複数の解像度画像を形成する解像度処理部と、
     複数の解像度画像に基づいて、画像内の各部分において低減の度合いを決定する低減処理部と、
     画像内の各部分において低減の度合いに応じて低減処理を施した超音波画像を形成する画像形成部と、
     を有する、
     ことを特徴とする超音波診断装置。
  2.  請求項1に記載の超音波診断装置において、
     前記低減処理部は、前記複数の解像度画像についての差分画像に基づいて画像内の各部分ごとに構造の度合いを推定し、当該推定の結果に基づいて画像内の各部分ごとに低減の度合いを決定する、
     ことを特徴とする超音波診断装置。
  3.  請求項1に記載の超音波診断装置において、
     前記低減処理部は、前記複数の解像度画像のうちの少なくとも1つから複数時相に亘って得られる画像に基づいて画像内の各部分ごとに運動の度合いを推定し、当該推定の結果に基づいて画像内の各部分ごとに低減の度合いを決定する、
     ことを特徴とする超音波診断装置。
  4.  請求項2に記載の超音波診断装置において、
     前記低減処理部は、前記複数の解像度画像のうちの少なくとも1つから複数時相に亘って得られる画像に基づいて画像内の各部分ごとに運動の度合いを推定し、当該運動の度合いに係る推定の結果と、前記構造の度合いに係る推定の結果と、に基づいて画像内の各部分ごとに低減の度合いを決定する、
     ことを特徴とする超音波診断装置。
  5.  請求項1に記載の超音波診断装置において、
     前記低減処理部は、画像内の各部分ごとに構造の度合いと運動の度合いを推定し、組織の度合いと運動の度合いに基づいて、画像内の各部分ごとに低減の度合いを定めた減算成分を決定し、
     前記画像形成部は、前記減算成分が減算された超音波画像を形成する、
     ことを特徴とする超音波診断装置。
  6.  請求項5に記載の超音波診断装置において、
     前記低減処理部は、前記複数の解像度画像についての差分画像に基づいて画像内の各部分ごとに構造の度合いを推定する、
     ことを特徴とする超音波診断装置。
  7.  請求項5に記載の超音波診断装置において、
     前記低減処理部は、前記複数の解像度画像のうちの少なくとも1つから複数時相に亘って得られる画像に基づいて画像内の各部分ごとに運動の度合いを推定する、
     ことを特徴とする超音波診断装置。
  8.  請求項5に記載の超音波診断装置において、
     前記低減処理部は、超音波画像内の最低輝度値に基づいて決定される最適輝度値を各画素の輝度値から減算することにより減算候補成分を生成し、構造の度合いと運動の度合いに応じて決定される減算重みと減算候補成分とに基づいて前記減算成分を決定する、
     ことを特徴とする超音波診断装置。
  9.  請求項8に記載の超音波診断装置において、
     前記低減処理部は、前記複数の解像度画像についての差分画像に基づいて画像内の各部分ごとに構造の度合いを推定する、
     ことを特徴とする超音波診断装置。
  10.  請求項8に記載の超音波診断装置において、
     前記低減処理部は、前記複数の解像度画像のうちの少なくとも1つから複数時相に亘って得られる画像に基づいて画像内の各部分ごとに運動の度合いを推定する、
     ことを特徴とする超音波診断装置。
  11.  請求項1に記載の超音波診断装置において、
     前記解像度処理部は、前記複数の解像度画像として、少なくとも1つの高解像度画像と複数の低解像度画像を形成し、
     前記低減処理部は、複数の低解像度画像に基づいて、画像内の各部分において低減の度合いを決定し、低減の度合いに応じて低減処理を施した低解像度の画像成分を形成し、
     前記画像形成部は、前記高解像度画像から得られる高解像度の画像成分と前記低解像度の画像成分を合成して超音波画像を形成する、
     ことを特徴とする超音波診断装置。
  12.  請求項11に記載の超音波診断装置において、
     前記低減処理部は、前記複数の低解像度画像についての差分画像に基づいて画像内の各部分ごとに構造の度合いを推定し、当該推定の結果に基づいて画像内の各部分ごとに低減の度合いを決定する、
     ことを特徴とする超音波診断装置。
  13.  請求項11に記載の超音波診断装置において、
     前記低減処理部は、前記複数の低解像度画像のうちの少なくとも1つから複数時相に亘って得られる画像に基づいて画像内の各部分ごとに運動の度合いを推定し、当該推定の結果に基づいて画像内の各部分ごとに低減の度合いを決定する、
     ことを特徴とする超音波診断装置。
PCT/JP2014/080703 2013-11-29 2014-11-13 超音波診断装置 WO2015080007A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201480065391.3A CN105813577A (zh) 2013-11-29 2014-11-13 超声波诊断装置
US15/038,831 US20170035394A1 (en) 2013-11-29 2014-11-13 Ultrasonic diagnostic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013247181A JP5918200B2 (ja) 2013-11-29 2013-11-29 超音波診断装置
JP2013-247181 2013-11-29

Publications (1)

Publication Number Publication Date
WO2015080007A1 true WO2015080007A1 (ja) 2015-06-04

Family

ID=53198951

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/080703 WO2015080007A1 (ja) 2013-11-29 2014-11-13 超音波診断装置

Country Status (4)

Country Link
US (1) US20170035394A1 (ja)
JP (1) JP5918200B2 (ja)
CN (1) CN105813577A (ja)
WO (1) WO2015080007A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2777562C (en) 2009-10-12 2016-08-16 Silicon Valley Medical Instruments, Inc. Intravascular ultrasound system for co-registered imaging
US10653393B2 (en) * 2015-10-08 2020-05-19 Acist Medical Systems, Inc. Intravascular ultrasound imaging with frequency selective imaging methods and systems
US10909661B2 (en) 2015-10-08 2021-02-02 Acist Medical Systems, Inc. Systems and methods to reduce near-field artifacts
WO2019057461A1 (en) 2017-09-25 2019-03-28 Koninklijke Philips N.V. ULTRASOUND IMAGING WITH MULTI-SCALE PROCESSING FOR NETWORK LOBE SUPPRESSION
JP6545887B2 (ja) * 2017-11-24 2019-07-17 キヤノンメディカルシステムズ株式会社 医用データ処理装置、磁気共鳴イメージング装置及び学習済みモデル生成方法
US11024034B2 (en) 2019-07-02 2021-06-01 Acist Medical Systems, Inc. Image segmentation confidence determination

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005296331A (ja) * 2004-04-12 2005-10-27 Toshiba Corp 超音波診断装置及び画像データ処理装置
JP2010044641A (ja) * 2008-08-14 2010-02-25 Toshiba Corp 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP2012050816A (ja) * 2010-08-05 2012-03-15 Toshiba Corp 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP2013013436A (ja) * 2011-06-30 2013-01-24 Toshiba Corp 超音波診断装置、画像処理装置及びプログラム
JP2013078569A (ja) * 2011-09-20 2013-05-02 Toshiba Corp 画像処理装置及び医用画像診断装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3816151B2 (ja) * 1995-09-29 2006-08-30 富士写真フイルム株式会社 画像処理方法および装置
JP4751282B2 (ja) * 2006-09-27 2011-08-17 株式会社日立製作所 超音波診断装置
JP4895204B2 (ja) * 2007-03-22 2012-03-14 富士フイルム株式会社 画像成分分離装置、方法、およびプログラム、ならびに、正常画像生成装置、方法、およびプログラム
JP5680718B2 (ja) * 2007-08-15 2015-03-04 富士フイルム株式会社 画像成分分離装置、方法、およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005296331A (ja) * 2004-04-12 2005-10-27 Toshiba Corp 超音波診断装置及び画像データ処理装置
JP2010044641A (ja) * 2008-08-14 2010-02-25 Toshiba Corp 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP2012050816A (ja) * 2010-08-05 2012-03-15 Toshiba Corp 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP2013013436A (ja) * 2011-06-30 2013-01-24 Toshiba Corp 超音波診断装置、画像処理装置及びプログラム
JP2013078569A (ja) * 2011-09-20 2013-05-02 Toshiba Corp 画像処理装置及び医用画像診断装置

Also Published As

Publication number Publication date
CN105813577A (zh) 2016-07-27
US20170035394A1 (en) 2017-02-09
JP2015104463A (ja) 2015-06-08
JP5918200B2 (ja) 2016-05-18

Similar Documents

Publication Publication Date Title
WO2015080007A1 (ja) 超音波診断装置
JP5449852B2 (ja) 超音波診断装置
US8768069B2 (en) Image enhancement apparatus and method
JP5002397B2 (ja) 超音波診断装置及びプログラム
JP5331797B2 (ja) 医用診断装置および医用診断装置の画質改善方法
US9123139B2 (en) Ultrasonic image processing with directional interpolation in order to increase the resolution of an image
JP5918198B2 (ja) 超音波診断装置
Choi et al. 2D-plus-depth based resolution and frame-rate up-conversion technique for depth video
JP2004242285A (ja) ノイズ抑制処理方法および装置並びにプログラム
JP4327171B2 (ja) 最大値投影方法および装置
JP7152958B2 (ja) 超音波撮像装置及び画像処理方法
JP5946197B2 (ja) 超音波診断装置
JP2006051202A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6045866B2 (ja) 超音波画像処理装置
JP5134757B2 (ja) 画像処理装置、画像処理方法、及び超音波診断装置
Priyadharsini et al. An Efficient Edge Preserving Interpolation Method for Underwater Acoustic Image Resolution Enhancement
Yang et al. Pixel compounding: resolution-enhanced ultrasound imaging for quantitative analysis
US20170287206A1 (en) Method and apparatus for processing three-dimensional image data
Haseena et al. A view on ultrasonogram denoising techniques
JP5950291B1 (ja) 超音波診断装置及びプログラム
JP6739374B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2023006926A (ja) 画像処理装置、超音波診断装置、画像処理方法及び画像処理プログラム
Zhang et al. Super-resolution reconstruction Algorithm for PMD range image based on regularization
JP2016016282A (ja) 超音波診断装置
CN112017113A (zh) 图像处理方法及装置、模型训练方法及装置、设备及介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14865579

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15038831

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14865579

Country of ref document: EP

Kind code of ref document: A1