WO2012060318A1 - 超音波診断装置及び超音波画像処理装置 - Google Patents

超音波診断装置及び超音波画像処理装置 Download PDF

Info

Publication number
WO2012060318A1
WO2012060318A1 PCT/JP2011/075054 JP2011075054W WO2012060318A1 WO 2012060318 A1 WO2012060318 A1 WO 2012060318A1 JP 2011075054 W JP2011075054 W JP 2011075054W WO 2012060318 A1 WO2012060318 A1 WO 2012060318A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
filter
unit
luminance value
ultrasonic
Prior art date
Application number
PCT/JP2011/075054
Other languages
English (en)
French (fr)
Inventor
良太 大住
Original Assignee
株式会社 東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社 東芝
Priority to CN201180002826.6A priority Critical patent/CN102753100B/zh
Priority to US13/333,376 priority patent/US20120108973A1/en
Publication of WO2012060318A1 publication Critical patent/WO2012060318A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0891Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Definitions

  • the present embodiment relates to an ultrasonic diagnostic apparatus and an ultrasonic image processing apparatus.
  • the ultrasonic diagnostic apparatus transmits an ultrasonic wave from a transducer built in an ultrasonic probe to a subject, receives an ultrasonic wave reflected by the subject through the transducer, and receives the received ultrasonic wave.
  • An ultrasonic image is generated based on an echo signal corresponding to the signal.
  • the ultrasonic image includes speckles due to interference of various noises and ultrasonic waves in addition to information on the subject tissue. Noise and speckle deteriorate the image quality of the ultrasonic image.
  • the vascular wall intima region is entirely emphasized, smoothed in the intima direction, and the substantial region located in the vicinity of the vascular wall intima region is not emphasized .
  • the vascular wall intima region is detected as an edge, but a substantial region having a large luminance change is also detected as an edge. Therefore, when the vascular wall intima region is emphasized, the substantial region is also emphasized.
  • the substantial region near the vascular wall intimal region may become too bright.
  • An object of the embodiment is to provide an ultrasonic diagnostic apparatus and an ultrasonic image processing apparatus that can improve the image quality of an ultrasonic image.
  • the ultrasonic diagnostic apparatus includes an ultrasonic probe, a generation unit, a calculation unit, a filter processing unit, an enhancement unit, and a synthesis unit.
  • the ultrasonic probe transmits ultrasonic waves toward the subject, receives the ultrasonic waves reflected by the subject, and generates an echo signal corresponding to the received ultrasonic waves.
  • the generator generates an ultrasound image related to the subject based on the generated echo signal.
  • the calculation unit calculates edge information based on the generated ultrasonic image.
  • the filter processing unit applies a filter having a filter characteristic corresponding to the calculated edge information to the ultrasonic image, and generates a filter image from the ultrasonic image.
  • the enhancement unit raises the luminance value of the portion corresponding to the edge information in the generated filter image according to the edge information, and generates an enhanced image from the filter image.
  • the synthesizing unit generates a synthesized image of the enhanced image and the ultrasonic image according to a synthesis ratio according to a luminance value of the generated enhanced image.
  • FIG. 1 is a diagram illustrating a configuration of an ultrasonic diagnostic apparatus according to the present embodiment.
  • FIG. 2 is a diagram illustrating a configuration of the image processing unit in FIG. 1.
  • FIG. 3 is a diagram illustrating a configuration of the optimum luminance image generation unit in FIG.
  • FIG. 4 is a diagram illustrating a configuration of the high luminance suppression unit in FIG. 3.
  • FIG. 5 is a diagram illustrating an example of a blood vessel image that is a processing target image of the high-luminance suppressing unit in FIG. 3.
  • FIG. 6 is a diagram showing the relationship between the parameter E TH used by the image composition unit of FIG. 5 and the luminance value of the emphasized image I ENH .
  • FIG. 1 is a diagram illustrating a configuration of an ultrasonic diagnostic apparatus according to the present embodiment.
  • FIG. 2 is a diagram illustrating a configuration of the image processing unit in FIG. 1.
  • FIG. 3 is a diagram illustrating a configuration of the optimum luminance image generation unit
  • FIG. 7 is a diagram illustrating a configuration of the optimum luminance image generation unit according to the first modification of the present embodiment.
  • FIG. 8 is a diagram illustrating a configuration of the optimum luminance image generation unit according to the second modification of the present embodiment.
  • FIG. 9 is a diagram showing the input / output characteristics of the LUT used by the table unit of FIG.
  • FIG. 10 is a diagram illustrating a configuration of the optimum luminance image generation unit according to the third modification of the present embodiment.
  • FIG. 1 is a diagram showing a configuration of an ultrasonic diagnostic apparatus 1 according to the present embodiment.
  • the ultrasonic diagnostic apparatus 1 includes an ultrasonic probe 10, a transmission unit 20, a reception unit 30, a B-mode processing unit 40, a color Doppler processing unit 50, an image generation unit 60, an image processing unit 70, and a storage unit. 80 and a display unit 90.
  • the ultrasonic probe 10 has a plurality of transducers.
  • the ultrasonic probe 10 receives the drive signal from the transmission unit 20 and transmits ultrasonic waves toward the subject.
  • the ultrasonic waves transmitted to the subject are successively reflected by the discontinuous surface of the acoustic impedance of the body tissue.
  • the reflected ultrasonic wave is received by the ultrasonic probe 10.
  • the ultrasonic probe 10 generates an electrical signal (echo signal) corresponding to the intensity of the received ultrasonic wave.
  • the amplitude of the echo signal depends on the difference in acoustic impedance at the reflected discontinuous surface.
  • the echo signal when ultrasonic waves are reflected on the surface of a moving body such as a moving bloodstream or heart wall, the echo signal has a frequency shift depending on the velocity component in the ultrasonic transmission direction of the moving body due to the Doppler effect. receive.
  • the transmission unit 20 repeatedly transmits ultrasonic waves to the subject via the ultrasonic probe 10. More specifically, the transmission unit 20 includes a rate pulse generation circuit, a transmission delay circuit, a drive pulse generation circuit, and the like (not shown) for transmitting ultrasonic waves.
  • the rate pulse generation circuit repeatedly generates a rate pulse for each channel at a predetermined rate frequency frHz (cycle; 1 / fr second).
  • the delay circuit focuses the ultrasonic wave into a beam for each channel and gives each rate pulse a delay time necessary to determine the transmission directivity.
  • the drive pulse generation circuit applies a drive pulse to the ultrasonic probe 10 at a timing based on each delayed rate pulse.
  • the receiving unit 30 repeatedly receives ultrasonic waves from the subject via the ultrasonic probe 10. More specifically, the receiving unit 30 includes an amplifier circuit (not shown), an A / D converter, a reception delay circuit, an adder, and the like for receiving ultrasonic waves.
  • the amplifier circuit amplifies the echo signal from the ultrasonic probe 10 for each channel.
  • the A / D converter converts the amplified echo signal from an analog signal to a digital signal for each channel.
  • the reception delay circuit focuses the echo signal converted into the digital signal into a beam shape for each channel and gives a delay time necessary for determining the reception directivity.
  • the adder adds the echo signals given delay times.
  • a reception signal corresponding to the reception beam is generated by the addition process. In this way, the receiving unit 30 generates a plurality of reception signals respectively corresponding to the plurality of reception beams.
  • the received signal is supplied to the B mode processing unit 40 and the color Doppler processing unit 50.
  • the B-mode processing unit 40 logarithmically amplifies the reception signal from the reception unit 30, and envelope-detects the log-amplified reception signal, thereby generating B-mode signal data that expresses the intensity of the echo signal by luminance. .
  • the generated B-mode signal data is supplied to the image generator 60.
  • the color Doppler processing unit 50 performs autocorrelation calculation on the received signal from the receiving unit 30, extracts blood flow, tissue, and contrast agent echo components due to the Doppler effect, and the intensity of blood flow information such as average velocity, dispersion, and power. Generates Doppler signal data that expresses in color. The generated Doppler signal data is supplied to the image generator 60.
  • the image generator 60 generates a B-mode image related to the subject based on the B-mode signal from the B-mode processor 40.
  • the image generation unit 60 is configured by a scan converter.
  • the image generator 60 generates a B-mode image by converting the scan mode of the B-mode signal from the ultrasonic scan method to the display device method.
  • the pixel of the B mode image has a luminance value corresponding to the intensity of the derived B mode signal.
  • the image generation unit 60 generates a Doppler image related to the subject based on the Doppler signal from the color Doppler processing unit 50.
  • the pixel of the Doppler image has a color value corresponding to the intensity of the derived Doppler signal.
  • the B-mode image and the Doppler image are supplied to the storage unit 80 and the image processing unit 70.
  • the image processing unit 70 performs image processing on the B-mode image from the image generation unit 60 or the storage unit 70.
  • the image processing generates a B-mode image in which speckles and noise are reduced, and the attention area is appropriately emphasized without excessive enhancement of the non-attention area. Details of the image processing will be described later.
  • the B-mode image subjected to the image processing is supplied to the storage unit 80 and the display unit 90.
  • the display unit 90 displays the B-mode image subjected to the image processing by the image processing unit 70 on the display device. At this time, a Doppler image may be superimposed on the B-mode image.
  • a display device such as a CRT display, a liquid crystal display, an organic EL display, or a plasma display can be used as appropriate.
  • the image processing unit 70, the storage unit 80, and the display unit 90 constitute the image processing apparatus 100.
  • the image processing apparatus 100 may be incorporated in the ultrasonic diagnostic apparatus 1 or may be incorporated in a computer separate from the ultrasonic diagnostic apparatus 1.
  • the B-mode image to be processed by the image processing unit 70 is a B-mode image related to the blood vessels of the subject.
  • the present embodiment is not limited to this, and the B-mode image to be processed by the image processing unit 70 can also be applied to a B-mode image related to a molded tissue such as bone or muscle other than blood vessels.
  • FIG. 2 is a diagram illustrating a configuration of the image processing unit 70.
  • the image processing unit 70 has a multiple structure composed of a plurality of layers (levels) in order to perform multiresolution decomposition / combination.
  • the maximum level of multi-resolution decomposition / combination is set to 3 for specific explanation.
  • Multi-resolution decomposition / synthesis may be performed in a range from level 1 to level n (where n is a natural number of 2 or more).
  • discrete wavelet transform / inverse transform is adopted as an example of multiresolution decomposition / synthesis.
  • the present embodiment need not be limited to this.
  • an existing multiresolution decomposition / synthesis method such as a Laplacian / pyramid method or a Gabor transformation / inverse transformation may be adopted.
  • the image processing unit 70 includes a multi-resolution decomposition unit 71 (71-1, 71-2, 71-3) and an optimum luminance image generation unit 73 (73-1) for each level. 73-2, 73-3), high-frequency image control unit 75 (75-1, 75-2, 75-3), and multi-resolution composition unit 77 (77-1, 77-2, 77-3). I have.
  • the multi-resolution decomposition unit 71 generates a low-frequency image and a high-frequency image having a resolution lower than the resolution of the processing target image based on the processing target image. For example, the multi-resolution decomposition unit 71 performs discrete wavelet transform on the processing target image. In the discrete wavelet transform, the multiresolution decomposition unit 71 applies a one-dimensional low-pass filter and a high-pass filter in each axial direction (each dimension) of the xy orthogonal coordinates. By applying these filters, the processing target image is decomposed into one low-frequency image and three high-frequency images.
  • the low frequency image includes a low frequency component among the spatial frequency components of the processing target image.
  • Each high-frequency image includes a high-frequency component related to at least one direction among the spatial frequency components of the processing target image.
  • the number of samples per coordinate axis of each image after decomposition is reduced to half of the number of samples per coordinate axis before decomposition.
  • the processing target image is a B-mode image from the image generation unit 60 or the storage unit 70.
  • the processing target image is a low-frequency image from the multi-resolution decomposition unit 71 one level below.
  • the generated low frequency image is supplied to the optimum luminance image generation unit 73-3 having the highest level.
  • the generated low-frequency image is supplied to the multi-resolution decomposition unit 71 belonging to the level one level higher.
  • the generated three high frequency images are supplied to the high frequency image control unit 75 belonging to the same level.
  • the optimum luminance image generation unit 73 calculates edge information for each of a plurality of pixels included in the processing target image.
  • the edge information is supplied to the high-frequency image control unit 75 at the same level.
  • the optimum luminance image generating unit 73 uses the edge information to appropriately enhance the edge region of the non-high luminance region without reducing the speckle and noise from the processing target image and overly enhancing the high luminance region. Generated images.
  • the generated image is called an optimum luminance image.
  • the optimum luminance image is supplied to the multi-resolution composition unit 77 at the same level.
  • the processing target image is a low-frequency image from the multi-resolution decomposition unit 71 belonging to the highest level.
  • the processing target image is an image from the multi-resolution composition unit 77 belonging to a level one level higher.
  • FIG. 3 is a diagram showing a configuration of the optimum luminance image generation unit 73.
  • the optimum luminance image generation unit 73 includes an edge information calculation unit 731, an edge filter unit 733, an edge enhancement unit 735, and a high luminance suppression unit 737.
  • the edge information calculation unit 731 calculates edge information for each of a plurality of pixels included in the processing target image IIN . Specifically, the edge information calculation unit 731 first performs spatial differentiation along each coordinate axis using a processing target pixel and a neighboring pixel of the processing target pixel, and calculates a spatial differential value. Then, the edge information calculation unit 731 calculates the edge strength and direction related to the processing target pixel based on the calculated spatial differential value. The combination of edge strength and direction is edge information. More specifically, the edge information calculation unit 731 calculates a plurality of elements of the structure tensor of the processing target pixel using the spatial differential value.
  • the edge information calculation unit 731 performs linear algebra calculation on the calculated plurality of elements, and calculates two eigenvalues and two eigenvectors of the structure tensor.
  • One of the two eigenvectors means a direction along the edge, and the other means a direction perpendicular to the edge.
  • the direction along the edge is referred to as the edge direction.
  • the eigenvalue depends on the strength of the edge.
  • the pixels for which the edge information is to be calculated may be all the pixels included in the processing target image IIN , or may be a pixel in a region of interest set by the user via an input device or the like. Further, one edge information may be calculated for one pixel or one for a plurality of pixels. When one piece of edge information is calculated for a plurality of pixels, for example, the edge information may be calculated for a representative pixel among the plurality of pixels. The representative pixel is, for example, a pixel located at the center, centroid, or end of a plurality of pixels. Further, statistical values of a plurality of edge information for a plurality of pixels may be used as edge information for the plurality of pixels. In this case, the statistical value is set to, for example, an average value, an intermediate value, a maximum value, a minimum value, a mode value, etc. of a plurality of edge information.
  • the edge information calculation method is not limited to the method using the structure tensor.
  • the edge information may be calculated using a Hessian matrix instead of the structure tensor.
  • the edge filter unit 733 applies a filter having a filter characteristic corresponding to the edge information to the input image.
  • a filter having filter characteristics corresponding to edge information is referred to as an edge filter.
  • each of the plurality of pixels included in the target image I IN calculates an edge filter for.
  • the edge filter has a characteristic of sharpening the edge region along the edge direction and smoothing the edge region along the vertical direction of the edge direction.
  • Examples of the edge filter include a non-linear anisotropic diffusion filter (Nonlinear Anisotropic Diffusion Filter) calculated based on edge information.
  • Edge filter 733 by applying an edge filter to each pixel, to emphasize the edge region included in the processing target image I IN, suppressing non-edge region.
  • an output image of the edge filter unit 733 is referred to as a filter image I FIL .
  • the edge enhancement unit 735 increases the luminance value of each of the plurality of pixels included in the filter image I FIL according to the edge information.
  • an output image of the edge enhancement unit 735 is referred to as an enhanced image I ENH .
  • the edge enhancement unit 735 compares the edge strength with a threshold value for each pixel, sets a pixel having an edge strength larger than the threshold value as an edge region, and has an edge strength smaller than the threshold value. Set pixel to non-edge region. Then, the edge enhancement unit 735 increases the luminance value of the pixel included in the edge region by an increase amount corresponding to the edge strength.
  • the amount of increase is defined, for example, by the product of the parameter a ENH and the edge strength E EDGE .
  • the enhancement of the edge region is expressed by the following equation (1), for example. Note that I ENH represents the luminance value of the pixel of the enhanced image, and I FIL represents the luminance value of the pixel of the filter image.
  • the parameter a ENH is a parameter for adjusting the increase degree of the luminance value.
  • the parameter a ENH is set to an arbitrary value by the operator. Since the edge region must not be emphasized too much, the parameter a ENH is set to a minute amount of about 0.02, for example. In this way, the edge enhancement unit 735 further enhances the edge region on the filter image I FIL by slightly increasing the luminance value of the pixel having a relatively large edge strength.
  • the luminance value of the pixel corresponding to the edge information is raised by the edge enhancement unit 735.
  • the edge enhancement unit 735 raises the luminance values of the plurality of pixels corresponding to the edge information.
  • the high luminance suppression unit 737 suppresses the high luminance region on the enhanced image I ENH and generates an optimal luminance image. More specifically, the high luminance suppression unit 737 combines the emphasized image I ENH and the processing target image I IN according to the combination ratio according to the luminance value of the emphasized image I ENH to generate the optimum luminance image I OUT .
  • FIG. 4 is a diagram illustrating a configuration of the high luminance suppression unit 737.
  • the high luminance suppression unit 737 includes an area detection unit 7371 and an image composition unit 7373.
  • a B-mode image related to a blood vessel hereinafter referred to as a blood vessel image
  • a blood vessel image a B-mode image related to a blood vessel
  • FIG. 5 is a diagram showing an example of a blood vessel image.
  • the blood vessel image includes a lumen region R1 related to the lumen, a blood vessel wall intima region R2 related to the blood vessel wall intima, and a substantial tissue region R3 related to the substantial tissue.
  • the pixel region that the operator wants to observe is the vascular wall intima region R2.
  • the vascular wall intima region R2 is located between the lumen region R1 and the parenchymal tissue region R3.
  • the vascular wall intima region R2 has a lower luminance value than the substantial tissue region R3 if the vascular wall intima is normal.
  • the vascular wall intima region R2 is displayed in light gray.
  • the vascular wall intima region R2 has an elongated shape. Therefore, the vascular wall intima region R2 is recognized as an edge region by image processing. Accordingly, the edge filter unit 733 emphasizes the vascular wall intima region R2. On the other hand, as described above, the edge filter by the edge filter unit 733 is executed at each level of multi-resolution decomposition. Since the resolution of the image is reduced by the multi-resolution decomposition, the vascular wall intima region R2 that is the edge region is not sufficiently reproduced on the image. For example, the vascular wall intima region R2 that should be actually one connected pixel region is displayed as a pixel region divided into a plurality of pixels due to a decrease in resolution.
  • the edge enhancement unit 735 following the edge filter unit 733 further enhances the vascular wall intima region R2 (edge region of the non-high brightness region).
  • the edge enhancement by the edge enhancement unit 735 further enhances the edge region of the high luminance region. Accordingly, the substantial tissue region R3 on the emphasized image is excessively emphasized, and whiteness is conspicuous on the image.
  • the region detection unit 7371 detects a high luminance region and a non-high luminance region from the enhanced image I ENH . Specifically, the region detection unit 7371 compares the luminance value of the pixel with a threshold value for each of the plurality of pixels included in the enhanced image I ENH . When the luminance value of the processing target pixel is larger than the threshold value, the region detection unit 7371 sets the processing target pixel as a high luminance pixel. When the luminance value of the processing target pixel is lower than the threshold value, the region detection unit 7371 sets the processing target pixel as a non-high luminance pixel. A set of high brightness pixels is a high brightness area, and a set of non-high brightness pixels is a non-high brightness area.
  • the region detection unit 7371 detects a high luminance region and a non-high luminance region from the emphasized image I ENH .
  • the threshold for region detection is, for example, the maximum luminance that the vascular wall intimal region after enhancement can have so that the vascular wall intimal region is included in the non-high luminance region Set to a value.
  • the image composition unit 7373 generates an optimal luminance image in which the edge region of the high luminance region is suppressed and the edge region of the non-high luminance region is emphasized.
  • the image processing, the image synthesizing unit 7373 may generate an optimum luminance image I OUT by combining the enhanced image I ENH and the target image I IN accordance with the synthesis ratio of the enhanced image I ENH and processed image I IN To do.
  • the composition ratio means a ratio between the contribution degree of the emphasized image I ENH and the contribution degree of the processing target image I IN to the luminance value of the optimum luminance image. Specifically, the composition ratio is determined for each of a plurality of pixels included in the enhanced image I ENH according to the luminance value.
  • the weighting factor for the enhanced image I ENH and the weight coefficient for the processing target image I IN Is set to the ratio of the weighting factor to the processing target image IIN with respect to the total value.
  • the total value of the weighting coefficient weighting factor to the processing target image I IN to enhanced image I ENH is set to 1.
  • the combination ratio is set to a value such that the non-high brightness area is emphasized and the high brightness area is suppressed.
  • the synthesis ratio is 100%, that is, the weighting factor for the enhanced image I ENH is set to 0, and the weight for the processing target image I IN The coefficient is set to 1. If the target pixel is classified into the non-high-luminance region setting, the synthesis ratio is 0%, that is, the weighting coefficients to emphasize the pixel I ENH is set to 1, the weighting factor to the processing target image I IN is 0 Is done. That is, the image composition unit 7373 replaces the luminance value of the high-luminance pixel included in the enhanced image I ENH with the luminance value of the pixel at the same coordinate in the processing target image I IN .
  • the image composition unit 7373 selects the emphasized image I ENH in the high luminance region, and selects the processing target image I IN in the non-high luminance region. Therefore, using the first composition ratio, the image composition unit 7373 optimizes the vascular wall intima region based on the processing target image I IN and the enhanced image I ENH and optimally suppresses the substantial tissue region appropriately. A luminance image can be generated.
  • the optimal luminance image generation process using the second synthesis ratio is expressed by the following equation (2), for example.
  • I OUT represents the luminance value of the pixel of the optimum luminance image
  • I IN represents the luminance value of the pixel of the processing target image
  • I ENH represents the luminance value of the pixel of the enhanced image.
  • I OUT E TH ⁇ I IN + (1 ⁇ E TH ) ⁇ I ENH (2)
  • E TH is a weighting factor to the processing target image I IN
  • (1-E TH ) is a weighting factor to enhanced image I ENH.
  • FIG. 6 is a graph showing the relationship between the parameter E TH and the luminance value of the emphasized image I ENH .
  • the weighting factor E TH for the processing target image I IN is linear according to the luminance value of the enhanced image I ENH in order to smooth the boundary between the high luminance region and the non-high luminance region.
  • the weighting factor E TH is set to 0 and the weighting factor (1-E TH ) is set to 1. That is, when the processing target pixel is divided into non-high brightness areas, the composition ratio is set to 0%.
  • the weighting factor E TH increases from 0 to 1 and the weighting factor (1-E TH ) increases from 1 to 0 as the luminance value of the processing target pixel increases. Decreases linearly. That is, when the processing target pixel is divided into high luminance areas, the composition ratio is linearly changed from 0% to 100% as the luminance value increases. More specifically, as the luminance value increases from the threshold value I Thl to the threshold value I Thh , the weighting factor E TH decreases linearly from 0 to 1.
  • the threshold value I Thl is set, for example, between the maximum luminance value that the vascular wall intima region can have and the minimum luminance value that the parenchymal tissue region can have.
  • the threshold value I Thh is set, for example, to a value that is larger by a specified value than the lowest luminance value that the substantial tissue region can have.
  • the second combination ratio linearly changes in accordance with the luminance value in the luminance value range that the high luminance region can take.
  • the image composition unit 7373 can smooth the boundary between the high brightness area and the non-high brightness area on the optimum brightness image as compared with the case where the first composition ratio is used. Therefore, using the second composition ratio, the image composition unit 7373 optimizes the vascular wall intimal region based on the processing target image I IN and the enhanced image I ENH and optimally suppresses the substantial tissue region appropriately.
  • a luminance image I OUT can be generated.
  • first synthesis ratio or the second synthesis ratio can be arbitrarily set by the operator.
  • the optimum luminance image I OUT generated using the first synthesis ratio or the second synthesis ratio in this way is supplied to the multi-resolution synthesis unit 77 at the same level.
  • the high frequency image control unit 75 controls the luminance values of the three high frequency images from the multi-resolution decomposition unit 71 by using the edge information from the optimum luminance image generation unit 73. Specifically, the high frequency image generation unit 75 multiplies the pixel by a parameter corresponding to the edge information for each of a plurality of pixels included in each high frequency image. This parameter has a first parameter for the edge region and a second parameter for the non-edge region. The first parameter is set so that the edge region is emphasized. The second parameter is set so that the non-edge region is suppressed.
  • the high frequency image whose luminance value is controlled by the high frequency image control unit 75 is supplied to the multi-resolution composition unit 77.
  • the multi-resolution composition unit 77 has a resolution larger than that of the optimum luminance image and the high frequency image based on the optimum luminance image from the optimum luminance image generation unit 73 and the three high frequency images from the high frequency image control unit 75. Generate an output image. Specifically, the multi-resolution synthesis unit 77 performs multi-resolution synthesis such as discrete wavelet inverse transform on the optimal luminance image and the three high-frequency images. The number of samples per coordinate axis of the output image after synthesis is expanded to twice the number of samples per coordinate axis of the optimum luminance image and high-frequency image before synthesis.
  • the output image is supplied to the optimum luminance image generation unit 73 belonging to a level one level lower.
  • the output image is supplied from the image processing unit 70 to the display unit 90.
  • the ultrasonic diagnostic apparatus 1 and the image processing apparatus 100 include the edge filter unit 733, the edge enhancement unit 735, and the high brightness suppression unit 737.
  • the edge filter unit 733 applies an edge filter having filter characteristics corresponding to the edge information to the input image. As a result, a filter image that is smoothed in the edge direction and sharpened in the vertical direction of the edge direction is generated.
  • the edge enhancement unit 735 generates an enhanced image in which the brightness value of the edge region is further increased according to the edge information from the filter image.
  • the high luminance suppression unit 737 suppresses a high luminance region on the enhanced image.
  • the high-intensity suppression unit 737 combines the enhanced image and the input image according to the combination ratio according to the luminance value of the enhanced image.
  • the optimum luminance image generation unit 73 can generate an optimum luminance image in which speckles and noises are reduced and the edge region of the non-high luminance region is appropriately emphasized without excessively emphasizing the high luminance region.
  • the optimum luminance image generation unit 73 can set an appropriate luminance value without excessively increasing the luminance value of the substantial tissue region adjacent to the vascular wall intima region.
  • the optimum luminance image generation unit 73 can be a pixel region in which the vascular wall intima regions are connected to one.
  • edge enhancement by the edge enhancement unit 735 and high luminance suppression by the high luminance suppression unit 737 are performed at each level subjected to multi-resolution decomposition.
  • edge enhancement by the edge enhancement unit 735 and high luminance suppression by the high luminance suppression unit 737 are performed after multi-level synthesis at level 1, the boundary between the edge region and the non-edge region, or the high luminance region And the non-high brightness area becomes more natural.
  • the ultrasonic diagnostic apparatus 1 and the image processing apparatus 100 according to the present embodiment realize an improvement in the image quality of the ultrasonic image.
  • the optimum luminance image generation unit 73 is provided at each level of multi-resolution decomposition, and the low frequency image at each level is a processing target.
  • the optimum luminance image generation unit 73 may process the high frequency image instead of the low frequency image. Further, it may be provided only at some levels of multi-resolution decomposition.
  • the optimum luminance image generation unit 73 may process an image before multiresolution decomposition or an image after multiresolution decomposition.
  • the optimum luminance image generation unit 73 according to the present embodiment performs high luminance suppression by the high luminance suppression unit 737 after edge enhancement by the edge enhancement unit 735.
  • the optimum luminance image generation unit according to the first modification includes an edge enhancement unit after the high luminance suppression unit 737.
  • the optimum luminance image generation unit according to Modification 1 will be described. In the following description, components having substantially the same functions as those of the present embodiment are denoted by the same reference numerals, and redundant description is given only when necessary.
  • FIG. 7 is a diagram illustrating a configuration of the optimum luminance image generation unit 73a according to the first modification.
  • the optimum luminance image generation unit 73a includes an edge information calculation unit 731, an edge filter unit 733, a high luminance suppression unit 737a, and an edge enhancement unit 735a.
  • the high luminance suppression unit 737 a suppresses a high luminance region on the filter image I FIL from the edge filter unit 733. Specifically, high-luminance suppression unit 737a generates a composite image I CON by combining the processed image I IN and filters the image I FIL accordance with the synthesis ratio corresponding to the luminance values of the filtered image I FIL.
  • the composition ratio according to the first modification means the ratio of the contribution degree of the filter image I FIL and the contribution degree of the processing target image I IN to the luminance value of the composite image I CON .
  • Synthesis ratio according to Modification 1 is set to the ratio of weight coefficients into the processing target image I IN to the total value of the weighting factor of the weighting factor to the filtered image I FIL to the processing target image I IN.
  • the composite image I CON is an image in which a high luminance region on the filter image I FIL is suppressed.
  • the image synthesizing method is the same as the image synthesizing method by the image synthesizing unit 7373 in the present embodiment, and the description thereof will be omitted.
  • the high luminance suppression unit increases the luminance value of each of the plurality of pixels included in the composite image I CON from 737a according to the edge information.
  • the method of increasing the brightness value is the same as the method by the edge enhancement unit 735 according to the present embodiment.
  • the edge enhancement unit 735a generates an optimum luminance image in which the edge region of the non-high luminance region is emphasized while the edge region of the high luminance region is suppressed.
  • an optimal luminance image is generated in which the vascular wall intima region is more emphasized and the substantial tissue region is suppressed.
  • the ultrasonic diagnostic apparatus and the image processing apparatus according to the first modification of the present embodiment realize an improvement in the image quality of the ultrasonic image.
  • the optimum luminance image generation unit 73 (Modification 2)
  • the optimum luminance image generation unit 73 according to the present embodiment generates an optimum luminance image based on the processing target image and the enhanced image from the edge enhancement unit 735.
  • the optimum luminance image generation unit according to the modified example 2 generates an optimum luminance image based only on the enhanced image from the edge enhancement unit.
  • the optimum luminance image generation unit according to Modification 2 will be described.
  • components having substantially the same functions as those of the present embodiment are denoted by the same reference numerals, and redundant description is given only when necessary.
  • FIG. 8 is a diagram illustrating a configuration of the optimum luminance image generating unit 73b according to the second modification.
  • the optimum luminance image generation unit 73b includes an edge information calculation unit 731, an edge filter unit 733, an edge enhancement unit 735, and a table unit 739.
  • the table unit 739 applies a lookup table (LUT) to the enhanced image from the edge enhancement unit 735.
  • An optimum luminance image I OUT is generated by applying the LUT.
  • the LUT is prepared in advance.
  • LUT is a table defining the output characteristics of the input luminance value (enhanced image I luminance value ENH) and the output luminance values (luminance value of the optimum luminance image I OUT).
  • FIG. 9 is a diagram illustrating the input / output characteristics of the LUT of the table unit 739, where the horizontal axis represents the input luminance value and the vertical axis represents the output luminance value.
  • the LUT has a first input / output characteristic and a second input / output characteristic.
  • the first input / output characteristic dominates a luminance value range in which the input luminance value is lower than the threshold value ITh .
  • the output luminance value increases linearly as the input luminance value increases.
  • the line L1 indicating the output luminance value with respect to the input luminance value in the first input / output characteristic is a straight line and has an inclination of 45 degrees or more with respect to the input luminance value axis.
  • this low luminance value range for example, a value obtained by multiplying the input luminance value by a positive number of 1 or more is replaced with the output luminance value.
  • the second input / output characteristic dominates a luminance value range in which the input luminance value is higher than the threshold value ITh . In the second input / output characteristic, the output luminance value increases more slowly and nonlinearly than the first input / output characteristic as the input luminance value increases.
  • the line L2 indicating the output luminance value with respect to the input luminance value in the second input / output characteristic is a curve, and rises nonlinearly below the extended line L1 ′ of the line L1.
  • the threshold value I Th is set at the boundary between the high luminance region and the non-high luminance region.
  • the threshold value I Th is set to, for example, the maximum luminance value that the vascular wall intimal region in the enhanced image can have so that the vascular wall intimal region is included in the non-high luminance region.
  • the ultrasonic diagnostic apparatus and the image processing apparatus according to the second modification of the present embodiment can improve the image quality of the ultrasonic image.
  • the optimum luminance image generation unit 73 according to the present embodiment is provided with a high luminance suppression unit 737 after the edge filter unit 733.
  • the optimum luminance image generation unit according to the modified example 3 includes an edge filter unit after the high luminance suppression unit.
  • the optimum luminance image generation unit according to Modification 3 will be described.
  • configurations having substantially the same functions as those of the present embodiment, the first modification, and the second modification are denoted by the same reference numerals, and redundant description is performed only when necessary.
  • FIG. 10 is a diagram illustrating a configuration of the optimum luminance image generating unit 73c according to the third modification.
  • the optimum luminance image generation unit 73c includes a table unit 739c, an edge information calculation unit 731c, a main filter unit 733c, and an edge enhancement unit 735c.
  • Table unit 739c applies the LUT to the processing target image I IN, generates a table image I CON.
  • the LUT has the same characteristics as the input / output characteristics according to the second modification.
  • the edge information calculation unit 731c calculates edge information for each of the plurality of pixels included in the table image I CON .
  • Edge filter unit 733c by applying an edge filter having a filter characteristic according to the edge information in the table image I CON, smoothed in the edge direction, sharpen the vertical edge direction. As a result, a filter image I FIL is generated.
  • the edge enhancement unit 735c increases the luminance value of each of the plurality of pixels included in the filter image I FIL according to the edge information.
  • the method of increasing the brightness value is the same as the method by the edge enhancement unit 735 according to the present embodiment.
  • the edge enhancement unit 735c generates the optimum luminance image I OUT in which the edge region of the high luminance region is appropriately suppressed and the edge region of the non-high luminance region is emphasized.
  • an optimal luminance image is generated in which the vascular wall intima region is more emphasized and the substantial tissue region is suppressed.
  • the ultrasonic diagnostic apparatus and the image processing apparatus according to the third modification of the present embodiment realize an improvement in the image quality of the ultrasonic image.
  • the image processing apparatus is assumed to process ultrasonic images.
  • the present embodiment is not limited to this. That is, the image processing apparatus according to the present embodiment generates a CT image generated by an X-ray computed tomography apparatus, an X-ray image generated by an X-ray diagnostic apparatus, and a magnetic resonance imaging apparatus in addition to an ultrasound image.
  • the processed MR image can also be a processing target.
  • SYMBOLS 1 Ultrasound diagnostic apparatus, 10 ... Ultrasonic probe, 20 ... Transmission part, 30 ... Reception part, 40 ... B mode processing part, 50 ... Color doppler processing part, 60 ... Image generation part, 70 ... Image processing part, 71 ... Multi-resolution decomposition unit, 73 ... Optimal luminance image generation unit, 75 ... High frequency image control unit, 77 ... Multi-resolution composition unit, 80 ... Storage unit, 90 ... Display unit, 100 ... Ultrasonic image processing device, 731 ... Edge Information calculation unit, 733 ... edge filter unit, 735 ... edge enhancement unit, 737 ... high luminance suppression unit, 7371 ... area detection unit, 7373 ... image composition unit

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Physics & Mathematics (AREA)
  • Vascular Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)

Abstract

 超音波画像の画質の向上。 エッジ情報算出部731は、前記発生された超音波画像に基づいてエッジ情報を算出する。エッジフィルタ部733は、前記算出されたエッジ情報に応じたフィルタ特性を有するフィルタを前記超音波画像に施し、前記超音波画像からフィルタ画像を発生する。エッジ強調部735は、前記発生されたフィルタ画像のうちの前記エッジ情報に対応する箇所の輝度値を前記エッジ情報に応じて上昇し、前記フィルタ画像から強調画像を発生する。高輝度抑制部737は、前記発生された強調画像の輝度値に応じた合成比率に従って前記強調画像と前記超音波画像との合成画像を発生する。

Description

超音波診断装置及び超音波画像処理装置
 本実施形態は、超音波診断装置及び超音波画像処理装置に関する。
 超音波診断装置は、超音波プローブに内蔵された振動子から被検体に超音波を送波し、被検体により反射された超音波を振動子を介して受波し、受波された超音波に応じたエコー信号に基づいて超音波画像を発生している。超音波画像は、被検体組織に関する情報以外に、各種のノイズや超音波の干渉によるスペックルを含んでいる。ノイズやスペックルは、超音波画像の画質を劣化させている。
 ノイズやスペックルを低減し被検体組織に関する情報を強調するために、超音波画像の各画素のエッジ情報を算出し、算出されたエッジ情報に応じたフィルタを画素に適用する方法がある。このフィルタは、具体的には、エッジ方向に平滑化し、エッジ方向の垂直方向に鮮鋭化している。このフィルタを利用した画像処理方法は、例えば、血管画像の画質向上に利用されている。
 血管に関する超音波画像の観察のためには、血管壁内膜領域は全体的に強調され、内膜方向に平滑化され、血管壁内膜領域の近傍に位置する実質領域は強調されないことが望ましい。上記の画像処理方法により、血管壁内膜領域がエッジとして検出されるが、輝度変化の大きい実質領域もエッジとして検出されてしまう。そのため、血管壁内膜領域が強調されると、実質領域も強調されてしまう。このように上記の画像処理方法を適用することにより、血管壁内膜領域の表示を最適化しようとすると、血管壁内膜領域近傍の実質領域が明るくなり過ぎてしまう場合がある。
特開2009―153918号公報
 実施形態の目的は、超音波画像の画質の向上を可能とする超音波診断装置及び超音波画像処理装置を提供することにある。
 本実施形態に係る超音波診断装置は、超音波プローブ、発生部、算出部、フィルタ処理部、強調部、及び合成部を有する。超音波プローブは、超音波を被検体に向けて送波し、前記被検体により反射された超音波を受波し、前記受波された超音波に応じたエコー信号を発生する。発生部は、前記発生されたエコー信号に基づいて前記被検体に関する超音波画像を発生する。算出部は、前記発生された超音波画像に基づいてエッジ情報を算出する。フィルタ処理部は、前記算出されたエッジ情報に応じたフィルタ特性を有するフィルタを前記超音波画像に施し、前記超音波画像からフィルタ画像を発生する。強調部は、前記発生されたフィルタ画像のうちの前記エッジ情報に対応する箇所の輝度値を前記エッジ情報に応じて上昇し、前記フィルタ画像から強調画像を発生する。合成部は、前記発生された強調画像の輝度値に応じた合成比率に従って前記強調画像と前記超音波画像との合成画像を発生する。
 超音波画像の画質の向上を可能とする超音波診断装置及び超音波画像処理装置を提供することが可能となる。
図1は、本実施形態に係る超音波診断装置の構成を示す図である。 図2は、図1の画像処理部の構成を示す図である。 図3は、図2の最適輝度画像発生部の構成を示す図である。 図4は、図3の高輝度抑制部の構成を示す図である。 図5は、図3の高輝度抑制部の処理対象画像である血管画像の一例を示す図である。 図6は、図5の画像合成部により利用されるパラメータETHと強調画像IENHの輝度値との関係を示す図である。 図7は、本実施形態の変形例1に係る最適輝度画像発生部の構成を示す図である。 図8は、本実施形態の変形例2に係る最適輝度画像発生部の構成を示す図である。 図9は、図8のテーブル部により利用されるLUTの入出力特性を示す図である。 図10は、本実施形態の変形例3に係る最適輝度画像発生部の構成を示す図である。
 以下、図面を参照しながら本実施形態に係わる超音波診断装置及び画像処理装置を説明する。
 図1は、本実施形態に係る超音波診断装置1の構成を示す図を示している。図1に示すように超音波診断装置1は、超音波プローブ10、送信部20、受信部30、Bモード処理部40、カラードプラ処理部50、画像発生部60、画像処理部70、記憶部80、及び表示部90を備えている。
 超音波プローブ10は、複数の振動子を有している。超音波プローブ10は、送信部20からの駆動信号を受けて被検体に向けて超音波を送波する。被検体に送波された超音波は、体内組織の音響インピーダンスの不連続面で次々と反射される。反射された超音波は、超音波プローブ10に受波される。超音波プローブ10は、受波された超音波の強度に応じた電気信号(エコー信号)を発生する。エコー信号の振幅は、反射された不連続面における音響インピーダンスの差に依存する。また、移動している血流や心臓壁等の移動体の表面で超音波が反射された場合、エコー信号は、ドプラ効果により移動体の超音波送信方向の速度成分に依存した周波数偏移を受ける。
 送信部20は、超音波プローブ10を介して被検体に超音波を繰り返し送信する。より詳細には、送信部20は、超音波の送信用に図示しないレートパルス発生回路、送信遅延回路、及び駆動パルス発生回路等を有している。レートパルス発生回路は、所定のレート周波数frHz(周期;1/fr秒)で、レートパルスをチャンネル毎に繰り返し発生する。遅延回路は、チャンネル毎に超音波をビーム状に集束させ且つ送信指向性を決定するのに必要な遅延時間を各レートパルスに与える。駆動パルス発生回路は、各遅延されたレートパルスに基づくタイミングで、超音波プローブ10に駆動パルスを印加する。
 受信部30は、超音波プローブ10を介して被検体からの超音波を繰り返し受信する。より詳細には、受信部30は、超音波の受信用に図示しないアンプ回路、A/D変換器、受信遅延回路、及び加算器等を有している。アンプ回路は、超音波プローブ10からのエコー信号をチャンネル毎に増幅する。A/D変換器は、増幅されたエコー信号をチャンネル毎にアナログ信号からデジタル信号に変換する。受信遅延回路は、デジタル信号に変換されたエコー信号に対し、チャンネル毎にビーム状に集束させ且つ受信指向性を決定するのに必要な遅延時間を与える。加算器は、遅延時間が与えられた各エコー信号を加算する。加算処理により、受信ビームに対応する受信信号が発生される。このようにして受信部30は、複数の受信ビームにそれぞれ対応する複数の受信信号を発生する。受信信号は、Bモード処理部40とカラードプラ処理部50とに供給される。
 Bモード処理部40は、受信部30からの受信信号を対数増幅し、対数増幅された受信信号を包絡線検波することで、エコー信号の強度を輝度で表現するBモード信号のデータを発生する。発生されたBモード信号のデータは、画像発生部60に供給される。
 カラードプラ処理部50は、受信部30からの受信信号に自己相関演算を施し、ドプラ効果による血流や組織、造影剤エコー成分を抽出し、平均速度や分散、パワー等の血流情報の強度をカラーで表現するドプラ信号のデータを発生する。発生されたドプラ信号のデータは、画像発生部60に供給される。
 画像発生部60は、Bモード処理部40からのBモード信号に基づいて、被検体に関するBモード画像を発生する。具体的には、画像発生部60は、スキャンコンバータにより構成される。画像発生部60は、Bモード信号のスキャン方式を超音波スキャン方式から表示デバイス方式に変換することにより、Bモード画像を発生する。Bモード画像の画素は、由来するBモード信号の強度に応じた輝度値を有している。同様にして画像発生部60は、カラードプラ処理部50からのドプラ信号に基づいて、被検体に関するドプラ画像を発生する。ドプラ画像の画素は、由来するドプラ信号の強度に応じたカラー値を有している。以下、Bモード画像とドプラ画像とは、記憶部80と画像処理部70とに供給される。
 画像処理部70は、画像発生部60又は記憶部70からのBモード画像に対して画像処理を実行する。画像処理により、スペックルやノイズが低減され、且つ非注目領域が強調され過ぎずに注目領域が適切に強調されたBモード画像を発生する。画像処理の詳細については後述する。画像処理が施されたBモード画像は、記憶部80と表示部90とに供給される。
 表示部90は、画像処理部70により画像処理が施されたBモード画像を表示デバイスに表示する。この際、Bモード画像には、ドプラ画像が重ねられても良い。表示デバイスとしては、例えばCRTディスプレイや、液晶ディスプレイ、有機ELディスプレイ、プラズマディスプレイ等の表示デバイスが適宜利用可能である。
 なお画像処理部70、記憶部80、及び表示部90は、画像処理装置100を構成する。この画像処理装置100は、図1に示すように、超音波診断装置1に組み込まれていてもよいし、超音波診断装置1とは別体のコンピュータに組み込まれていても良い。
 以下、本実施形態に係る画像処理部70の詳細について説明する。なお、画像処理部70の処理対象のBモード画像は、被検体の血管に関するBモード画像であるとする。しかしながら、本実施形態はこれに限定されず、画像処理部70の処理対象のBモード画像は、血管以外の骨や筋肉等の成形組織に関するBモード画像にも適用可能である。
 図2は、画像処理部70の構成を示す図である。図2に示すように、画像処理部70は、多重解像度分解/合成を行なうために、複数階層(レベル)からなる多重構造を有している。本実施形態においては、説明を具体的に行うため、多重解像度分解/合成の最高レベルは、3としている。しかしながら本実施形態は、これに限定する必要はない。多重解像度分解/合成は、レベル1からレベルn(ただし、nは2以上の自然数)の範囲で行なわれればよい。また本実施形態では、多重解像度分解/合成の一例として離散ウェーブレット変換/逆変換を採用する。しかしながら本実施形態は、これに限定する必要はない。例えば、多重解像度分解/合成として、ラプラシアン・ピラミッド(Laplacian pyramid)法やガボール(Gabor)変換/逆変換等の既存の多重解像度分解/合成法を採用してもよい。
 図2に示すように、本実施形態に係る画像処理部70は、レベル毎に多重解像度分解部71(71―1、71―2、71―3)、最適輝度画像発生部73(73―1、73―2、73―3)、高域画像制御部75(75―1、75―2、75―3)、及び多重解像度合成部77(77―1、77―2、77―3)を備えている。
 多重解像度分解部71は、処理対象画像に基づいて、処理対象画像の解像度よりも低い解像度を有する低域画像と高域画像とを発生する。例えば、多重解像度分解部71は、処理対象画像に離散ウェーブレット変換を施す。離散ウェーブレット変換において多重解像度分解部71は、xy直交座標の各軸方向(各次元)に1次元の低域フィルタと高域フィルタとをそれぞれ適用する。これらフィルタの適用により、処理対象画像が1枚の低域画像と3枚の高域画像とに分解される。低域画像は、処理対象画像が有する空間周波数成分のうちの低周波成分を含む。各高域画像は、処理対象画像が有する空間周波数成分のうちの少なくとも1方向に関する高周波成分を含む。分解後の各画像の各座標軸あたりの標本数は、分解前の各座標軸あたりの標本数の半分に縮小される。
 多重解像度分解部71が最低レベル(図2の場合レベル1)に属する場合、処理対象画像は、画像発生部60又は記憶部70からのBモード画像である。多重解像度分解部71が最低レベル(図2の場合レベル1)に属さない場合、処理対象画像は、1レベル下の多重解像度分解部71からの低域画像である。
 多重解像度分解部71が最高レベル(図2の場合レベル3)に属する場合、発生された低域画像は、同最高レベルの最適輝度画像発生部73―3に供給される。多重解像度分解部71が最高レベルに属さない場合、発生された低域画像は、1レベル上のレベルに属する多重解像度分解部71に供給される。発生された3枚の高域画像は、同レベルに属する高域画像制御部75に供給される。
 最適輝度画像発生部73は、処理対象画像に含まれる複数の画素の各々についてエッジ情報を算出する。エッジ情報は、同レベルの高域画像制御部75に供給される。また、最適輝度画像発生部73は、エッジ情報を利用して処理対象画像から、スペックルやノイズが低減され且つ高輝度領域が強調され過ぎずに非高輝度領域のエッジ領域が適切に強調された画像を発生する。発生された画像を最適輝度画像と呼ぶことにする。最適輝度画像は、同レベルの多重解像度合成部77に供給される。
 最適輝度画像発生部73が最高レベル(図2の場合レベル3)に属する場合、処理対象画像は、同最高レベルに属する多重解像度分解部71からの低域画像である。最適輝度画像発生部73が最高レベルに属さない場合、処理対象画像は、1レベル上のレベルに属する多重解像度合成部77からの画像である。
 図3は、最適輝度画像発生部73の構成を示す図である。図3に示すように、最適輝度画像発生部73は、エッジ情報算出部731、エッジフィルタ部733、エッジ強調部735、及び高輝度抑制部737を有する。
 エッジ情報算出部731は、処理対象画像IINに含まれる複数の画素の各々についてエッジ情報を算出する。具体的には、エッジ情報算出部731は、まず処理対象画素と処理対象画素の近傍画素とを利用して各座標軸に沿って空間微分し、空間微分値を算出する。そしてエッジ情報算出部731は、算出された空間微分値に基づいて処理対象画素に関するエッジの強度と方向とを算出する。このエッジの強度と方向との組合せがエッジ情報である。より詳細には、エッジ情報算出部731は、空間微分値を利用して処理対象画素の構造テンソル(structure tensor)の複数の要素を算出する。エッジ情報算出部731は、算出された複数の要素に線形代数演算に施し、構造テンソルの2つの固有値と2つの固有ベクトルとを算出する。2つの固有ベクトルのうちの一方がエッジに沿う方向を意味し、他方がエッジに垂直な方向を意味する。ここでエッジに沿う方向をエッジ方向と呼ぶことにする。固有値は、エッジの強度に依存する。
 エッジ情報の算出対象の画素は、処理対象画像IINに含まれる全ての画素であっても良いし、ユーザにより入力装置等を介して設定された関心領域内の画素であっても良い。また、エッジ情報は、一つの画素について一つ計算されても良いし、複数の画素について一つ計算されてもよい。エッジ情報が複数の画素について一つ計算される場合、例えば、複数の画素のうちの代表画素について計算されるとよい。代表画素は、例えば、複数の画素の中心、重心、あるいは、端部に位置する画素である。また、複数の画素についての複数のエッジ情報の統計値が複数の画素のエッジ情報として用いられても良い。この場合、統計値は、例えば、複数のエッジ情報の平均値、中間値、最大値、最小値、最頻値等に設定される。
 なおエッジ情報の算出方法は、構造テンソルを利用する方法に限定されない。例えば、構造テンソルの代わりにヘッセ行列(Hessian matrix)を利用してエッジ情報を算出しても良い。
 エッジフィルタ部733は、エッジ情報に応じたフィルタ特性を有するフィルタを入力画像に施す。ここでエッジ情報に応じたフィルタ特性を有するフィルタをエッジフィルタと呼ぶことにする。具体的には、エッジフィルタ部733は、処理対象画像IINに含まれる複数の画素の各々についてエッジフィルタを算出する。エッジフィルタは、エッジ方向に沿ってエッジ領域に鮮鋭化を施し、エッジ方向の垂直方向に沿ってエッジ領域に平滑化を施す特性を有する。エッジフィルタとしては、例えば、エッジ情報に基づいて算出される非線形異方性拡散フィルタ(Nonlinear Anisotropic Diffusion Filter)が挙げられる。エッジフィルタ部733は、各画素にエッジフィルタを施すことによって、処理対象画像IINに含まれるエッジ領域を強調し、非エッジ領域を抑制する。ここでエッジフィルタ部733の出力画像をフィルタ画像IFILと呼ぶことにする。
 エッジ強調部735は、フィルタ画像IFILに含まれる複数の画素の各々について輝度値をエッジ情報に応じて上昇する。ここでエッジ強調部735の出力画像を強調画像IENHと呼ぶことにする。具体的には、エッジ強調部735は、各画素についてエッジの強度と閾値とを比較し、閾値よりも大きいエッジの強度を有する画素をエッジ領域に設定し、閾値よりも小さいエッジの強度を有する画素を非エッジ領域に設定する。そしてエッジ強調部735は、エッジ領域に含まれる画素の輝度値を、エッジの強度に応じた増加量だけ増加させる。増加量は、例えば、パラメータaENHとエッジの強度EEDGEとの積により規定される。エッジ領域の強調は、例えば、以下の(1)式により表現される。なおIENHは、強調画像の画素の輝度値を表し、IFILは、フィルタ画像の画素の輝度値を意味する。
 IENH=IFIL+(1+aENH・EEDGE)              ・・・(1)
 パラメータaENHは、輝度値の上昇度合いを調節するためのパラメータである。パラメータaENHは、操作者により任意の値に設定される。なお、エッジ領域が強調され過ぎてはならないので、パラメータaENHは、例えば、0.02程度の微小量に設定される。このようにしてエッジ強調部735は、エッジの強度が比較的大きい画素の輝度値を若干上昇させることにより、フィルタ画像IFIL上のエッジ領域をさらに強調させる。
 このように、エッジ情報に対応する画素の輝度値がエッジ強調部735により上昇される。なお、エッジ情報が複数の画素について一つ算出されている場合、このエッジ情報に対応する複数の画素の輝度値がエッジ強調部735により上昇される。
 高輝度抑制部737は、強調画像IENH上の高輝度領域を抑制し、最適輝度画像を発生する。より具体的には、高輝度抑制部737は、強調画像IENHの輝度値に応じた合成比率に従って強調画像IENHと処理対象画像IINとを合成し、最適輝度画像IOUTを発生する。
 図4は、高輝度抑制部737の構成を示す図である。図4に示すように、高輝度抑制部737は、領域検出部7371と画像合成部7373とを有する。なお以下の説明を具体的に行うため処理対象画像として血管に関するBモード画像(以下、血管画像と呼ぶことにする)を例に挙げて説明する。
 図5は、血管画像の一例を示す図である。図5に示すように、血管画像は、管腔に関する管腔領域R1と血管壁内膜に関する血管壁内膜領域R2と実質組織に関する実質組織領域R3とを含んでいる。操作者が良く観察したい画素領域は、血管壁内膜領域R2であるとする。血管壁内膜領域R2は、管腔領域R1と実質組織領域R3との間に位置する。血管壁内膜領域R2は、血管壁内膜が正常であれば実質組織領域R3よりも低輝度値を有している。一般的に、Bモード画像上、血管壁内膜領域R2は薄いグレーで表示される。血管壁内膜領域R2は、細長い形状を有している。従って、血管壁内膜領域R2は、画像処理によりエッジ領域として認識される。従って、エッジフィルタ部733により血管壁内膜領域R2が強調される。一方、上述のように、エッジフィルタ部733によるエッジフィルタは、多重解像度分解の各レベルにおいて実行される。多重解像度分解により画像の解像度が低下しているため、エッジ領域である血管壁内膜領域R2が画像上に十分に再現されない。例えば、本当は1つの連結画素領域であるはずの血管壁内膜領域R2が、解像度の低下のために、複数に分断された画素領域として表示されてしまう。従ってエッジフィルタ部733による鮮鋭化のみでは、非高輝度領域のエッジ領域である血管壁内膜領域R2を十分に強調することができない。そこで、エッジフィルタ部733の後段のエッジ強調部735は、血管壁内膜領域R2(非高輝度領域のエッジ領域)をさらに強調する。しかしながら、エッジ強調部735によるエッジ強調により、高輝度領域のエッジ領域もさらに強調されることとなる。従って、強調画像上の実質組織領域R3が過度に強調され、画像上において白さが際立ってしまう。
 領域検出部7371は、強調画像IENHの中から高輝度領域と非高輝度領域とを検出する。具体的には、領域検出部7371は、強調画像IENHに含まれる複数の画素の各々について、画素の輝度値と閾値とを比較する。処理対象画素の輝度値が閾値より大きい場合、領域検出部7371は、処理対象画素を高輝度画素に設定する。処理対象画素の輝度値が閾値より低い場合、領域検出部7371は、処理対象画素を非高輝度画素に設定する。高輝度画素の集合が高輝度領域であり、非高輝度画素の集合が非高輝度領域である。このようにして繰り返し輝度値と閾値との比較を行うことにより、領域検出部7371は、強調画像IENHの中から高輝度領域と非高輝度領域とを検出する。血管壁内膜領域を観察する場合、領域検出のための閾値は、血管壁内膜領域が非高輝度領域に含まれるように、例えば、強調後の血管壁内膜領域が有しうる最大輝度値に設定される。
 画像合成部7373は、高輝度領域のエッジ領域が抑制されつつ、非高輝度領域のエッジ領域が強調されている最適輝度画像を発生する。画像処理的には、画像合成部7373は、強調画像IENHと処理対象画像IINとの合成比率に従って強調画像IENHと処理対象画像IINとを合成することによって最適輝度画像IOUTを発生する。合成比率は、最適輝度画像の輝度値に対する強調画像IENHの寄与度と処理対象画像IINの寄与度との割合を意味する。具体的には、合成比率は、強調画像IENHに含まれる複数の画素の各々について輝度値に応じて決定され、例えば、強調画像IENHへの重み係数と処理対象画像IINへの重み係数との合計値に対する処理対象画像IINへの重み係数の割合に設定される。強調画像IENHへの重み係数と処理対象画像IINへの重み係数との合計値は、1に設定される。合成比率は、例えば、非高輝度領域が強調され、高輝度領域が抑制されるような値に設定される。本実施形態に係る合成比率には2つのタイプがある。以下、これら2つのタイプの合成比率について説明する。
 第1の合成比率: 処理対象画素が高輝度領域に区分されている場合、合成比率は100%、すなわち、強調画像IENHへの重み係数は0に設定され、処理対象画像IINへの重み係数は1に設定される。処理対象画素が非高輝度領域に区分されている場合、合成比率は0%、すなわち、強調画素IENHへの重み係数は1に設定され、処理対象画像IINへの重み係数は0に設定される。すなわち、画像合成部7373は、強調画像IENHに含まれる高輝度画素の輝度値を処理対象画像IINの同一座標の画素の輝度値に置き換える。換言すれば、画像合成部7373は、高輝度領域においては強調画像IENHを選択し、非高輝度領域においては処理対象画像IINを選択する。従って第1の合成比率を利用して画像合成部7373は、処理対象画像IINと強調画像IENHとに基づいて血管壁内膜領域がより強調され、実質組織領域が適切に抑制された最適輝度画像を発生することができる。
 第2の合成比率: 第2の合成比率を利用した最適輝度画像の発生処理は、例えば、以下の(2)式により表現される。なおIOUTは、最適輝度画像の画素の輝度値を表し、IINは、処理対象画像の画素の輝度値を表し、IENHは、強調画像の画素の輝度値を表す。
 IOUT=ETH・IIN+(1-ETH)・IENH             ・・・(2)
 パラメータETHは、処理対象画像IINへの重み係数であり、(1-ETH)は、強調画像IENHへの重み係数である。
 図6は、パラメータETHと強調画像IENHの輝度値との関係を示すグラフである。図6に示すように、処理対象画像IINへの重み係数ETHは、高輝度領域と非高輝度領域との境界を滑らかにするために、強調画像IENHの輝度値に応じて線形的に変化する。具体的には、処理対象画素が非高輝度領域に区分されている場合、重み係数ETHは0に設定され、重み係数(1-ETH)は1に設定される。すなわち、処理対象画素が非高輝度領域に区分されている場合、合成比率は0%に設定される。処理対象画素が高輝度領域に区分されている場合、処理対象画素の輝度値が上昇するにつれて、重み係数ETHは0から1に上昇し、重み係数(1-ETH)は1から0に線形的に減少する。すなわち、処理対象画素が高輝度領域に区分されている場合、輝度値が上昇するにつれて合成比率は0%から100%まで線形的に変化される。より詳細には、輝度値が閾値IThlから閾値IThhへ上昇するにつれて、重み係数ETHは0から1に線形的に減少する。閾値IThlは、例えば、血管壁内膜領域が有しうる最大輝度値と実質組織領域が有しうる最低輝度値との間に設定される。閾値IThhは、例えば、実質組織領域が有しうる最低輝度値よりも規定値だけ大きい値に設定される。
 このように第2の合成比率は、高輝度領域がとり得る輝度値範囲において、輝度値に応じて線形的に変化する。これにより画像合成部7373は、第1の合成比率を利用する場合に比して、最適輝度画像上の高輝度領域と非高輝度領域との境界を滑らかにすることができる。従って第2の合成比率を利用して画像合成部7373は、処理対象画像IINと強調画像IENHとに基づいて血管壁内膜領域がより強調され、実質組織領域が適切に抑制された最適輝度画像IOUTを発生することができる。
 第1の合成比率を利用するのか、あるいは第2の合成比率を利用するのかは、操作者により任意に設定可能である。このように第1の合成比率又は第2の合成比率を利用して発生された最適輝度画像IOUTは、同レベルの多重解像度合成部77に供給される。
 次に再び図2に戻って、最適輝度画像発生部73の後段の処理について説明する。
 高域画像制御部75は、最適輝度画像発生部73からのエッジ情報を利用して、多重解像度分解部71からの3枚の高域画像の輝度値をそれぞれ制御する。具体的には、高域画像発生部75は、各高域画像に含まれる複数の画素の各々について、エッジ情報に応じたパラメータを画素に乗ずる。このパラメータは、エッジ領域のための第1のパラメータと非エッジ領域のための第2のパラメータとを有する。第1のパラメータは、エッジ領域が強調されるように設定される。第2のパラメータは、非エッジ領域が抑制されるように設定される。高域画像制御部75により輝度値が制御された高域画像は、多重解像度合成部77に供給される。
 多重解像度合成部77は、最適輝度画像発生部73からの最適輝度画像と高域画像制御部75からの3枚の高域画像とに基づいて、最適輝度画像や高域画像よりも解像度が大きい出力画像を発生する。具体的には、多重解像度合成部77は、最適輝度画像と3枚の高域画像とに離散ウェーブレット逆変換等の多重解像度合成を行う。合成後の出力画像の各座標軸あたりの標本数は、合成前の最適輝度画像や高域画像の各座標軸あたりの標本数の2倍に拡大される。
 多重解像度合成部77が最低レベル(図2の場合レベル1)に属さない場合、出力画像は、1レベル下のレベルに属する最適輝度画像発生部73に供給される。多重解像度合成部77が最低レベルに属する場合、出力画像は、画像処理部70から表示部90に供給される。
 上記のように本実施形態に係る超音波診断装置1及び画像処理装置100は、エッジフィルタ部733とエッジ強調部735と高輝度抑制部737とを有している。エッジフィルタ部733は、エッジ情報に応じたフィルタ特性を有するエッジフィルタを入力画像に適用する。これによりエッジ方向に平滑化がなされ、且つエッジ方向の垂直方向に鮮鋭化がなされたフィルタ画像が発生される。エッジ強調部735は、フィルタ画像から、エッジ情報に応じてエッジ領域の輝度値がさらに上昇された強調画像を発生する。高輝度抑制部737は、強調画像上の高輝度領域を抑制する。具体的には、高輝度抑制部737は、強調画像の輝度値に応じた合成比率に従って強調画像と入力画像とを合成する。これにより最適輝度画像発生部73は、スペックルやノイズが低減され且つ高輝度領域が強調され過ぎずに非高輝度領域のエッジ領域が適切に強調された最適輝度画像を発生することができる。より詳細には、最適輝度画像発生部73は、血管壁内膜領域に隣接する実質組織領域の輝度値を過度に上昇させることなく適切な輝度値とすることができる。また、最適輝度画像発生部73は、血管壁内膜領域を1つに繋がった画素領域とすることができる。
 さらに本実施形態は、多重解像度分解された各レベルでエッジ強調部735によるエッジ強調や高輝度抑制部737による高輝度抑制を行う。これにより、レベル1の多重解像度合成後にエッジ強調部735によるエッジ強調や高輝度抑制部737による高輝度抑制を行う場合に比して、エッジ領域と非エッジ領域との境界、あるいは、高輝度領域と非高輝度領域との境界がより自然なものとなる。
 かくして本実施形態に係る超音波診断装置1及び画像処理装置100は、超音波画像の画質の向上を実現する。
 なお本実施形態に係る最適輝度画像発生部73は、多重解像度分解の各レベルに設けられ、各レベルの低域画像を処理対象とした。しかしながら、本実施形態は、これに限定されない。最適輝度画像発生部73は、低域画像ではなく、高域画像を処理対象としてもよい。また、多重解像度分解の一部のレベルのみに設けられてもよい。また、最適輝度画像発生部73は、多重解像度分解前の画像や多重解像度分解後の画像を処理対象としてもよい。
(変形例1)
 本実施形態に係る最適輝度画像発生部73は、エッジ強調部735によるエッジ強調の後に高輝度抑制部737による高輝度抑制を行うとした。変形例1に係る最適輝度画像発生部は、高輝度抑制部737の後にエッジ強調部を設けている。以下、変形例1に係る最適輝度画像発生部について説明する。なお、以下の説明において本実施形態と略同一の機能を有する構成については同一の符号を付し、重複説明は必要な場合にのみ行う。
 図7は、変形例1に係る最適輝度画像発生部73aの構成を示す図である。図7に示すように、最適輝度画像発生部73aは、エッジ情報算出部731、エッジフィルタ部733、高輝度抑制部737a、及びエッジ強調部735aを有する。
 高輝度抑制部は737aは、エッジフィルタ部733からのフィルタ画像IFIL上の高輝度領域を抑制する。具体的には、高輝度抑制部737aは、フィルタ画像IFILの輝度値に応じた合成比率に従って処理対象画像IINとフィルタ画像IFILとを合成することによって合成画像ICONを発生する。変形例1に係る合成比率は、合成画像ICONの輝度値に対するフィルタ画像IFILの寄与度と処理対象画像IINの寄与度との割合を意味する。変形例1に係る合成比率は、フィルタ画像IFILへの重み係数と処理対象画像IINへの重み係数との合計値に対する処理対象画像IINへの重み係数の割合に設定される。合成画像ICONは、フィルタ画像IFIL上の高輝度領域が抑制された画像である。画像合成方法は、本実施形態における画像合成部7373による画像合成方法と同様であるので説明は省略する。
 エッジ強調部735aは、高輝度抑制部は737aからの合成画像ICONに含まれる複数の画素の各々について輝度値をエッジ情報に応じて上昇する。輝度値の上昇方法は、本実施形態に係るエッジ強調部735による方法と同様である。これによりエッジ強調部735aは、高輝度領域のエッジ領域が抑制されつつ、非高輝度領域のエッジ領域が強調されている最適輝度画像を発生する。血管の超音波検査の場合、血管壁内膜領域がより強調され、実質組織領域が抑制された最適輝度画像が発生される。
 かくして本実施形態の変形例1に係る超音波診断装置及び画像処理装置は、超音波画像の画質の向上を実現する。
(変形例2)
 本実施形態に係る最適輝度画像発生部73は、処理対象画像とエッジ強調部735からの強調画像とに基づいて最適輝度画像を発生するものとした。変形例2に係る最適輝度画像発生部は、エッジ強調部からの強調画像のみに基づいて最適輝度画像を発生する。以下、変形例2に係る最適輝度画像発生部について説明する。なお、以下の説明において本実施形態と略同一の機能を有する構成については同一の符号を付し、重複説明は必要な場合にのみ行う。
 図8は、変形例2に係る最適輝度画像発生部73bの構成を示す図である。図8に示すように、最適輝度画像発生部73bは、エッジ情報算出部731、エッジフィルタ部733、エッジ強調部735、及びテーブル部739を有する。
 テーブル部739は、エッジ強調部735からの強調画像にLUT(ルックアップテーブル)を適用する。LUTの適用により最適輝度画像IOUTが発生される。LUTは、予め用意されている。LUTは、入力輝度値(強調画像IENHの輝度値)と出力輝度値(最適輝度画像IOUTの輝度値)との入出力特性を規定するテーブルである。
 図9は、テーブル部739のLUTの入出力特性を示す図であり、横軸は入力輝度値であり、縦軸は出力輝度値である。図9に示すように、LUTは、第1の入出力特性と第2の入出力特性とを有している。第1の入出力特性は、入力輝度値が閾値IThよりも低い輝度値範囲を支配する。第1の入出力特性において出力輝度値は、入力輝度値の上昇に伴って線形的に上昇する。すなわち、第1の入出力特性における入力輝度値に対する出力輝度値を示す線L1は、直線であり、入力輝度値軸に対して傾き45度以上を有する。この低輝度値範囲においては、例えば、入力輝度値に1以上の正数を乗じた値が出力輝度値に置き換えられる。第2の入出力特性は、入力輝度値が閾値IThよりも高い輝度値範囲を支配する。第2の入出力特性において出力輝度値は、入力輝度値の上昇に伴って、第1の入出力特性よりも緩やかに非線形的に上昇する。すなわち、第2の入出力特性における入力輝度値に対する出力輝度値を示す線L2は、曲線であり、線L1の延長線L1´よりも下方を非線形的に上昇する。この高輝度値範囲においては、例えば、入力輝度値に1未満の正数を乗じた値が出力輝度値に置き換えられる。閾値IThは、高輝度領域と非高輝度領域との境に設定される。具体的には、閾値IThは、血管壁内膜領域が非高輝度領域に含まれるように、例えば、強調画像内の血管壁内膜領域が有しうる最大輝度値に設定される。
 このような入出力特性を有するLUTを強調画像に適用することによって、血管壁内膜領域がより強調され、実質組織領域が抑制された最適輝度画像を発生することができる。
 かくして本実施形態の変形例2に係る超音波診断装置及び画像処理装置は、超音波画像の画質の向上を実現する。
(変形例3)
 本実施形態に係る最適輝度画像発生部73は、エッジフィルタ部733の後段に高輝度抑制部737を設けていた。変形例3に係る最適輝度画像発生部は、高輝度抑制部の後段にエッジフィルタ部を設けている。以下、変形例3に係る最適輝度画像発生部について説明する。なお、以下の説明において本実施形態や変形例1、変形例2と略同一の機能を有する構成については同一の符号を付し、重複説明は必要な場合にのみ行う。
 図10は、変形例3に係る最適輝度画像発生部73cの構成を示す図である。図10に示すように、最適輝度画像発生部73cは、テーブル部739c、エッジ情報算出部731c、メインフィルタ部733c、及びエッジ強調部735cを有する。
 テーブル部739cは、処理対象画像IINにLUTを適用し、テーブル画像ICONを発生する。LUTは、変形例2に係る入出力特性と同様の特性を有している。
 エッジ情報算出部731cは、テーブル画像ICONに含まれる複数の画素の各々についてエッジ情報を算出する。エッジフィルタ部733cは、エッジ情報に応じたフィルタ特性を有するエッジフィルタをテーブル画像ICONに施すことにより、エッジ方向に平滑化し、エッジ方向の垂直方向に鮮鋭化する。これによりフィルタ画像IFILが発生される。エッジ強調部735cは、フィルタ画像IFILに含まれる複数の画素の各々について輝度値をエッジ情報に応じて上昇する。輝度値の上昇方法は、本実施形態に係るエッジ強調部735による方法と同様である。これによりエッジ強調部735cは、高輝度領域のエッジ領域が適切に抑制されつつ、非高輝度領域のエッジ領域が強調されている最適輝度画像IOUTを発生する。血管の超音波検査の場合、血管壁内膜領域がより強調され、実質組織領域が抑制された最適輝度画像が発生される。
 かくして本実施形態の変形例3に係る超音波診断装置及び画像処理装置は、超音波画像の画質の向上を実現する。
 なお、上述の説明において本実施形態に係る画像処理装置は、超音波画像を処理対象とするとした。しかしながら、本実施形態は、これに限定されない。すなわち、本実施形態に係る画像処理装置は、超音波画像以外にも、X線コンピュータ断層撮影装置により生成されたCT画像、X線診断装置により生成されたX線画像、磁気共鳴イメージング装置により生成されたMR画像を処理対象とすることも可能である。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
 1…超音波診断装置、10…超音波プローブ、20…送信部、30…受信部、40…Bモード処理部、50…カラードプラ処理部、60…画像発生部、70…画像処理部、71…多重解像度分解部、73…最適輝度画像発生部、75…高域画像制御部、77…多重解像度合成部、80…記憶部、90…表示部、100…超音波画像処理装置、731…エッジ情報算出部、733…エッジフィルタ部、735…エッジ強調部、737…高輝度抑制部、7371…領域検出部、7373…画像合成部

Claims (16)

  1.  超音波を被検体に向けて送波し、前記被検体により反射された超音波を受波し、前記受波された超音波に応じたエコー信号を発生する超音波プローブと、
     前記発生されたエコー信号に基づいて前記被検体に関する超音波画像を発生する発生部と、
     前記発生された超音波画像に基づいてエッジ情報を算出する算出部と、
     前記算出されたエッジ情報に応じたフィルタ特性を有するフィルタを前記超音波画像に施し、前記超音波画像からフィルタ画像を発生するフィルタ処理部と、
     前記発生されたフィルタ画像のうちの前記エッジ情報に対応する箇所の輝度値を前記エッジ情報に応じて上昇し、前記フィルタ画像から強調画像を発生する強調部と、
     前記発生された強調画像の輝度値に応じた合成比率に従って前記強調画像と前記超音波画像との合成画像を発生する合成部と、
     を具備する超音波診断装置。
  2.  前記算出部は、前記発生された超音波画像に含まれる複数の画素の各々について輝度値の空間分布に基づいて前記画素のエッジ情報を算出し、
     前記強調部は、前記発生されたフィルタ画像に含まれる複数の画素の各々について輝度値を前記エッジ情報に応じて上昇し、前記フィルタ画像から強調画像を発生する、
     請求項1記載の超音波診断装置。
  3.  前記合成画像上の高輝度領域の輝度値は、前記超音波画像の輝度値に設定され、前記合成画像上の非高輝度領域の輝度値は、前記強調画像の輝度値に設定される、請求項1記載の超音波診断装置。
  4.  前記合成比率は、前記強調画像への第1の重み係数と前記超音波画像への第2の重み係数との割合により規定され、
     前記合成部は、前記強調画像の中から第1閾値よりも高い輝度値を有する高輝度領域と前記第1閾値よりも低い輝度値を有する非高輝度領域とを検出し、前記高輝度領域において前記第1の重み係数を0に、前記第2の重み係数を1に設定し、前記非高輝度領域において、前記第1の重み係数を1に、前記第2の重み係数を0に設定する、
     請求項1記載の超音波診断装置。
  5.  前記合成比率は、前記強調画像への第1の重み係数と前記超音波画像への第2の重み係数との割合により規定され、
     前記合成部は、前記強調画像の中から第1閾値よりも高い輝度値を有する高輝度領域と前記第1閾値よりも低い輝度値を有する非高輝度領域とを検出し、前記非高輝度領域の中から前記第1閾値よりも低い第2閾値よりも低い輝度値を有する第1の非高輝度領域と前記第2閾値よりも高い輝度値を有する第2の非高輝度領域とを検出し、前記第1の非高輝度領域において、前記第1の重み係数を1に、前記第2の重み係数を0に設定し、前記第2の非高輝度領域において、輝度値に応じて前記第1の重み係数を1から0まで、前記第2の重み係数を0から1までの値に設定する、
     請求項1記載の超音波診断装置。
  6.  前記発生部は、前記エコー信号に基づいて前記被検体に関するオリジナルの超音波画像を発生する超音波画像発生部と、前記発生されたオリジナルの超音波画像に基づいて前記超音波画像の解像度よりも低い解像度を有する低域画像と高域画像とを発生する多重解像度分解部と、を備え、
     前記低域画像は、前記超音波画像として利用される、
     請求項1記載の超音波診断装置。
  7.  前記合成画像と前記高域画像とに基づいて前記オリジナルの超音波画像の解像度と同一の解像度を有する出力画像を発生する多重解像度合成部、をさらに備える請求項6記載の超音波診断装置。
  8.  前記超音波画像は、前記被検体の血管に関する画像である、請求項1記載の超音波診断装置
  9.  前記強調部は、前記エッジ情報に基づくエッジ強度に応じて前記輝度値を上昇させる度合いを変更する、請求項1記載の超音波診断装置。
  10.  超音波を被検体に向けて送波し、前記被検体により反射された超音波を受波し、前記受波された超音波に応じたエコー信号を発生する超音波プローブと、
     前記発生されたエコー信号に基づいて前記被検体に関する超音波画像を発生する発生部と、
     前記発生された超音波画像に含まれる複数の画素の各々について輝度値の空間微分に基づいて前記画素のエッジ情報を算出する算出部と、
     前記算出されたエッジ情報に応じたフィルタ特性を有するフィルタを前記超音波画像に施し、前記超音波画像からフィルタ画像を発生するフィルタ処理部と、
     前記発生されたフィルタ画像に含まれる複数の画素の各々について輝度値を前記エッジ情報に応じて上昇し、前記フィルタ画像から強調画像を発生する強調部と、
     前記発生された強調画像にテーブルを適用し、前記強調画像からテーブル画像を発生するものであって、前記テーブルは、閾値よりも低い輝度値範囲においては入力輝度値の上昇に伴って出力輝度値が線形的に上昇する第1の入出力特性を有し、前記閾値よりも高い輝度値範囲においては入力輝度値の上昇に伴って出力輝度値が前記第1の入出力特性よりも緩やかに非線形的に上昇する第2の入出力特性を有するテーブル適用部と、
     を具備する超音波診断装置。
  11.  超音波を被検体に向けて送波し、前記被検体により反射された超音波を受波し、前記受波された超音波に応じたエコー信号を発生する超音波プローブと、
     前記発生されたエコー信号に基づいて前記被検体に関する超音波画像を発生する発生部と、
     前記発生された超音波画像に含まれる複数の画素の各々について前記画素の輝度値の空間微分に基づいて前記画素のエッジ情報を算出する算出部と、
     前記算出されたエッジ情報に応じたフィルタ特性を有するフィルタを前記超音波画像に施し、前記超音波画像からフィルタ画像を発生するフィルタ部と、
     前記発生されたフィルタ画像の輝度値に応じた合成比率に従って前記フィルタ画像と前記超音波画像との合成画像を発生する合成部と、
     前記発生された合成画像に含まれる複数の画素の各々について前記画素の輝度値を前記エッジ情報に応じて上昇し、前記合成画像から強調画像を発生する強調部と、
     を具備する超音波診断装置。
  12.  超音波を被検体に向けて送波し、前記被検体により反射された超音波を受波し、前記受波された超音波に応じたエコー信号を発生する超音波プローブと、
     前記発生されたエコー信号に基づいて前記被検体に関する超音波画像を発生する発生部と、
     前記発生された超音波画像にテーブルを適用し、前記超音波画像からテーブル画像を発生するものであって、前記テーブルは、閾値よりも低い輝度値範囲においては入力輝度値の上昇に伴って出力輝度値が線形的に上昇する第1の入出力特性を有し、前記閾値よりも高い輝度値範囲においては入力輝度値の上昇に伴って出力輝度値が前記第1の入出力特性よりも緩やかに非線形的に上昇する第2の入出力特性を有するテーブル適用部と、
     前記発生されたテーブル画像又は前記超音波画像に含まれる複数の画素の各々について前記画素の輝度値の空間微分に基づいて前記画素のエッジ情報を算出する算出部と、
     前記算出されたエッジ情報に応じたフィルタ特性を有するフィルタを前記テーブル画像に施し、前記テーブル画像からフィルタ画像を発生するフィルタ部と、
     前記発生されたフィルタ画像に含まれる複数の画素の各々について前記画素の輝度値を前記エッジ情報に応じて上昇し、前記フィルタ画像から強調画像を発生する強調部と、
     を具備する超音波診断装置。
  13.  被検体に関する医用画像のデータを記憶する記憶部と、
     前記医用画像に基づいてエッジ情報を算出する算出部と、
     前記算出されたエッジ情報に応じたフィルタ特性を有するフィルタを前記医用画像に施し、前記医用画像からフィルタ画像を発生するフィルタ部と、
     前記発生されたフィルタ画像のうちの前記エッジ情報に対応する箇所の輝度値を前記エッジ情報に応じて上昇し、前記フィルタ画像から強調画像を発生する強調部と、
     前記発生された強調画像の輝度値に応じた合成比率に従って前記強調画像と前記医用画像との合成画像を発生する合成部と、
     を具備する画像処理装置。
  14.  被検体に関する医用画像のデータを記憶する記憶部と、
     前記医用画像に含まれる複数の画素の各々について輝度値の空間微分に基づいて前記画素のエッジ情報を算出する算出部と、
     前記算出されたエッジ情報に応じたフィルタ特性を有するフィルタを前記医用画像に施し、前記医用画像からフィルタ画像を発生するフィルタ処理部と、
     前記発生されたフィルタ画像に含まれる複数の画素の各々について輝度値を前記エッジ情報に応じて上昇し、前記フィルタ画像から強調画像を発生する強調部と、
     前記発生された強調画像にテーブルを適用し、前記強調画像からテーブル画像を発生するものであって、前記テーブルは、閾値よりも低い輝度値範囲においては入力輝度値の上昇に伴って出力輝度値が線形的に上昇する第1の入出力特性を有し、前記閾値よりも高い輝度値範囲においては入力輝度値の上昇に伴って出力輝度値が前記第1の入出力特性よりも緩やかに非線形的に上昇する第2の入出力特性を有するテーブル適用部と、
     を具備する画像処理装置。
  15.  被検体に関する医用画像のデータを記憶する記憶部と、
     前記医用画像に含まれる複数の画素の各々について前記画素の輝度値の空間微分に基づいて前記画素のエッジ情報を算出する算出部と、
     前記算出されたエッジ情報に応じたフィルタ特性を有するフィルタを前記医用画像に施し、前記医用画像からフィルタ画像を発生するフィルタ部と、
     前記発生されたフィルタ画像の輝度値に応じた合成比率に従って前記フィルタ画像と前記医用画像との合成画像を発生する合成部と、
     前記発生された合成画像に含まれる複数の画素の各々について前記画素の輝度値を前記エッジ情報に応じて上昇し、前記合成画像から強調画像を発生する強調部と、
     を具備する画像処理装置。
  16.  被検体に関する医用画像のデータを記憶する記憶部と、
     前記医用画像にテーブルを適用し、前記医用画像からテーブル画像を発生するものであって、前記テーブルは、閾値よりも低い輝度値範囲においては入力輝度値の上昇に伴って出力輝度値が線形的に上昇する第1の入出力特性を有し、前記閾値よりも高い輝度値範囲においては入力輝度値の上昇に伴って出力輝度値が前記第1の入出力特性よりも緩やかに非線形的に上昇する第2の入出力特性を有するテーブル適用部と、
     前記発生されたテーブル画像又は前記医用画像に含まれる複数の画素の各々について輝度値の空間微分に基づいて前記画素のエッジ情報を算出する算出部と、
     前記算出されたエッジ情報に応じたフィルタ特性を有するフィルタを前記テーブル画像に施し、前記テーブル画像からフィルタ画像を発生するフィルタ部と、
     前記発生されたフィルタ画像に含まれる複数の画素の各々について輝度値を前記エッジ情報に応じて上昇し、前記フィルタ画像から強調画像を発生する強調部と、
     を具備する画像処理装置。
PCT/JP2011/075054 2010-11-01 2011-10-31 超音波診断装置及び超音波画像処理装置 WO2012060318A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201180002826.6A CN102753100B (zh) 2010-11-01 2011-10-31 超声波诊断装置以及超声波图像处理装置
US13/333,376 US20120108973A1 (en) 2010-11-01 2011-12-21 Ultrasonic diagnostic apparatus and ultrasonic image processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-245266 2010-11-01
JP2010245266A JP5832737B2 (ja) 2010-11-01 2010-11-01 超音波診断装置及び超音波画像処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/333,376 Continuation US20120108973A1 (en) 2010-11-01 2011-12-21 Ultrasonic diagnostic apparatus and ultrasonic image processing apparatus

Publications (1)

Publication Number Publication Date
WO2012060318A1 true WO2012060318A1 (ja) 2012-05-10

Family

ID=46024431

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/075054 WO2012060318A1 (ja) 2010-11-01 2011-10-31 超音波診断装置及び超音波画像処理装置

Country Status (3)

Country Link
JP (1) JP5832737B2 (ja)
CN (1) CN102753100B (ja)
WO (1) WO2012060318A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3613349A1 (en) * 2017-01-31 2020-02-26 Canon Medical Systems Corporation Ultrasound diagnosis apparatus, image processing apparatus and image processing method

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6081139B2 (ja) * 2011-12-26 2017-02-15 東芝メディカルシステムズ株式会社 超音波診断装置、医用画像処理装置、及び医用画像処理方法
JP6116291B2 (ja) * 2013-02-27 2017-04-19 オリンパス株式会社 画像処理装置、画像処理方法及び画像処理プログラム
KR102301379B1 (ko) * 2015-01-20 2021-09-14 삼성전자주식회사 영상 처리 장치, 영상 촬영 장치, 영상 처리 방법 및 영상 촬영 장치의 제어 방법
JP6732476B2 (ja) * 2015-03-04 2020-07-29 キヤノン株式会社 被検体情報取得装置
ES2871500T3 (es) 2017-05-19 2021-10-29 Mayo Found Medical Education & Res Sistema y método de visualización de la microvasculatura de tejido mediante ultrasonidos
WO2021117645A1 (ja) * 2019-12-12 2021-06-17 パナソニックIpマネジメント株式会社 熱画像処理装置、熱画像処理モジュール、熱画像処理方法、及びプログラム
CN111861929A (zh) * 2020-07-24 2020-10-30 深圳开立生物医疗科技股份有限公司 一种超声图像优化处理方法、系统及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005110232A1 (ja) * 2004-05-19 2005-11-24 Hitachi Medical Corporation 画像処理装置及びその方法
WO2008010375A1 (fr) * 2006-07-20 2008-01-24 Hitachi Medical Corporation Dispositif ultrasonographique
JP2009516882A (ja) * 2005-11-23 2009-04-23 セダラ ソフトウェア コーポレイション ディジタル画像を強調する方法及びシステム
JP2009153918A (ja) * 2007-12-27 2009-07-16 Toshiba Corp 超音波診断装置、超音波画像処理装置、超音波画像処理プログラム
WO2009128213A1 (ja) * 2008-04-14 2009-10-22 株式会社日立メディコ 医用診断装置および医用診断装置の画質改善方法
JP2010227554A (ja) * 2009-03-04 2010-10-14 Toshiba Corp 超音波診断装置、画像処理装置、超音波診断装置の制御方法、及び画像処理方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005038940B4 (de) * 2005-08-17 2007-08-30 Siemens Ag Verfahren zur Filterung tomographischer 3D-Darstellungen nach erfolgter Rekonstruktion von Volumendaten
CN100478993C (zh) * 2007-07-13 2009-04-15 天津大学 根据边缘和亮度特征进行自适应调整的图像增强方法
JP5002397B2 (ja) * 2007-09-28 2012-08-15 株式会社東芝 超音波診断装置及びプログラム
JP5106091B2 (ja) * 2007-12-26 2012-12-26 株式会社東芝 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
CN101727659B (zh) * 2008-10-31 2012-06-20 比亚迪股份有限公司 一种图像边缘增强方法及系统
CN101452574B (zh) * 2008-12-19 2011-03-23 深圳市恩普电子技术有限公司 一种提升超声图像质量的方法
CN101853489B (zh) * 2009-04-02 2014-03-12 深圳艾科创新微电子有限公司 一种视频图像降噪装置及方法
CN101639936A (zh) * 2009-04-28 2010-02-03 北京捷科惠康科技有限公司 一种x射线图像增强方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005110232A1 (ja) * 2004-05-19 2005-11-24 Hitachi Medical Corporation 画像処理装置及びその方法
JP2009516882A (ja) * 2005-11-23 2009-04-23 セダラ ソフトウェア コーポレイション ディジタル画像を強調する方法及びシステム
WO2008010375A1 (fr) * 2006-07-20 2008-01-24 Hitachi Medical Corporation Dispositif ultrasonographique
JP2009153918A (ja) * 2007-12-27 2009-07-16 Toshiba Corp 超音波診断装置、超音波画像処理装置、超音波画像処理プログラム
WO2009128213A1 (ja) * 2008-04-14 2009-10-22 株式会社日立メディコ 医用診断装置および医用診断装置の画質改善方法
JP2010227554A (ja) * 2009-03-04 2010-10-14 Toshiba Corp 超音波診断装置、画像処理装置、超音波診断装置の制御方法、及び画像処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3613349A1 (en) * 2017-01-31 2020-02-26 Canon Medical Systems Corporation Ultrasound diagnosis apparatus, image processing apparatus and image processing method

Also Published As

Publication number Publication date
CN102753100B (zh) 2015-10-07
JP2012095806A (ja) 2012-05-24
CN102753100A (zh) 2012-10-24
JP5832737B2 (ja) 2015-12-16

Similar Documents

Publication Publication Date Title
WO2012060318A1 (ja) 超音波診断装置及び超音波画像処理装置
JP6081139B2 (ja) 超音波診断装置、医用画像処理装置、及び医用画像処理方法
US20120108973A1 (en) Ultrasonic diagnostic apparatus and ultrasonic image processing apparatus
JP5525867B2 (ja) 超音波診断装置、画像処理装置、超音波診断装置の制御方法、及び画像処理方法
JP4757307B2 (ja) 超音波画像処理装置
WO2013183669A1 (ja) 超音波診断装置及び超音波イメージング方法
KR20110117047A (ko) 스페클 감소 필터의 구현 방법, 스페클 감소 필터링 장치 및 초음파 촬상 시스템
JP6113592B2 (ja) 超音波診断装置及び超音波イメージングプログラム
US10101450B2 (en) Medical image processing apparatus, a medical image processing method and a medical diagnosis apparatus
US20120136248A1 (en) Ultrasound diagnosis apparatus, image generating method, and image processing apparatus
JP2017093913A (ja) 超音波診断装置、信号処理装置及び解析プログラム
US7852334B2 (en) Ultrasonic imaging apparatus, an image-processing apparatus, and an ultrasonic image-processing method
US11561296B2 (en) System and method for adaptively configuring dynamic range for ultrasound image display
WO2015080006A1 (ja) 超音波診断装置
JP4808373B2 (ja) Bモード画像のバンディング抑制に関連する応用のための方法及び装置
US20120059263A1 (en) Providing a color doppler mode image in an ultrasound system
JP6415852B2 (ja) 超音波診断装置、医用画像処理装置及び医用画像処理方法
US20190216437A1 (en) Ultrasonic Diagnostic Apparatus and Image Processing Method
JP6300728B2 (ja) 医用画像診断装置
US11457896B2 (en) Ultrasound imaging system and method for generating an enhanced image to enhance a shadow region
JP2019216880A (ja) 超音波診断装置、超音波診断方法及びプログラム
US9008403B1 (en) Method of compensating ultrasound image
CN112263274B (zh) 基于多角度超声发射自适应成像方法、设备及存储介质
KR102295378B1 (ko) 초음파 프로브의 초음파 신호 형성 방법 및 초음파 시스템
CN115886872A (zh) 血流显影方法、装置、数字扫描变换器和超声成像系统

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180002826.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11837968

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11837968

Country of ref document: EP

Kind code of ref document: A1