WO2013002351A1 - 超音波診断装置、および医用画像処理装置 - Google Patents

超音波診断装置、および医用画像処理装置 Download PDF

Info

Publication number
WO2013002351A1
WO2013002351A1 PCT/JP2012/066615 JP2012066615W WO2013002351A1 WO 2013002351 A1 WO2013002351 A1 WO 2013002351A1 JP 2012066615 W JP2012066615 W JP 2012066615W WO 2013002351 A1 WO2013002351 A1 WO 2013002351A1
Authority
WO
WIPO (PCT)
Prior art keywords
dimensional
mode data
gain adjustment
value
unit
Prior art date
Application number
PCT/JP2012/066615
Other languages
English (en)
French (fr)
Inventor
栄一 志岐
仁人 阿部
Original Assignee
株式会社 東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社 東芝
Priority to CN201280000866.1A priority Critical patent/CN102958446B/zh
Priority to US13/604,324 priority patent/US8724880B2/en
Publication of WO2013002351A1 publication Critical patent/WO2013002351A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52033Gain control of receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52077Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging with means for elimination of unwanted signals, e.g. noise or interference
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Definitions

  • Embodiments described herein relate generally to an ultrasonic diagnostic apparatus and a medical image processing apparatus that display a lumen of a subject.
  • an ultrasonic diagnostic apparatus that collects echo signals from a subject by three-dimensionally scanning the subject has been put into practical use. According to this ultrasonic diagnostic apparatus, it is possible to generate and display a three-dimensional image (for example, a rendered image) by generating three-dimensional B-mode data based on the echo signal.
  • a three-dimensional image for example, a rendered image
  • an imaging method in which a lumen (for example, a blood vessel, a bile duct, etc.) in a scanned region is three-dimensionally displayed with high brightness using the ultrasonic diagnostic apparatus.
  • An image generated by the cavity imaging method is hereinafter referred to as a cavity image.
  • the cavity image is generated by generating a three-dimensional image (for example, a rendering image) after inverting the gradation in the three-dimensional B-mode data.
  • the cavity imaging method inverts gradations at a plurality of signal values or a plurality of pixel values in 3D B-mode data. Due to the inversion of the gradation, the gradation of the substantial data regarding the non-lumen (for example, the substantial organ in the subject) of the high gradation (high luminance) becomes a low gradation (low luminance). Further, the gradation of the lumen data relating to the low gradation (low luminance) or transparent lumen is high gradation (high luminance). Thereby, the lumen is displayed. However, since the actual data having a lower gradation than the high gradation lumen exists as it is, the non-lumen surrounds the lumen as shown in FIG. 17A, for example.
  • FIG. 17A is an image obtained by inverting black and white for the sake of printing. The same applies to FIG. 17B, FIG. 17C, FIG. 18A, and FIG. 18B described below.
  • the echo signal is mainly reduced by the contact of the ultrasonic probe with the surface of the subject being insufficient or the intensity of the ultrasonic wave being reduced in the deep part of the scanned region.
  • the gray level of the substantial data at the side and deep portions of the scanned region is low. Therefore, in the cavity image in which the gradation is inverted, the substantial data in the side part and the deep part has a high gradation like the lumen.
  • FIG. 17B there arises a problem that the substantial data cannot be removed by the threshold processing.
  • the substantial data that is not removed by the threshold processing becomes an artifact in the cavity image. This artifact reduces the ability of the operator to detect and diagnose the lumen.
  • the threshold value is increased to eliminate the artifact, the lumen disappears simultaneously as shown in FIG. Therefore, there is a problem that it is difficult to avoid the influence of artifacts by threshold processing.
  • the method for reducing the artifact is a method using a volume removal function.
  • a volume removal function In this method, first, an area input by an operator via a trackball is set on the displayed cavity image. Next, the volume image related to the set area is removed in response to a switch operation on the panel of the input unit. The above procedure is repeated several to ten times while rotating the cavity image. The above procedure removes artifacts.
  • an area to be removed is set by an operator's input, artifacts remain unerased. Therefore, there is a problem that the detection ability of the lumen is lowered and the diagnosis ability is lowered.
  • this method since it takes time and effort to set the area, there is a problem that this method is difficult to implement at the inspection site and is not practical.
  • the initial value of the threshold value is set in advance to a value that seems to be appropriate, in general, the optimum threshold value varies depending on the subject and the diagnosis site. Therefore, since it is difficult to always set the threshold value to an optimal value in the initial state, generally, as shown in FIG. Inappropriate images with many disappeared are displayed in the initial state. At this time, the threshold value needs to be changed to an appropriate value through the operation of the knob or slider on the panel by the operator. Further, when the gain value is changed using the B-mode gain knob in order to adjust the luminance in the B-mode image, the gradation value in the volume image is also changed as shown in FIG. This creates a need for resetting the threshold. That is, every time the diagnostic part and the gain value related to the B-mode image are changed, it is necessary to change the setting of the threshold value.
  • An object is to provide an ultrasonic diagnostic apparatus capable of generating a cavity image with reduced artifacts without bothering an operator.
  • the ultrasonic diagnostic apparatus supplies an ultrasonic probe having a plurality of ultrasonic transducers, and a drive signal to each of the ultrasonic transducers, and each reception echo generated by each ultrasonic transducer.
  • a transmission / reception unit that generates a reception signal corresponding to the scanned region based on the signal
  • a B-mode data generation unit that generates three-dimensional B-mode data based on the received signal, and each scan in the scanned region
  • a gain adjustment unit that performs gain adjustment on the three-dimensional B-mode data using a gain adjustment value determined for each of a depth on a line, an azimuth direction in the scanned region, and an elevation direction in the scanned region;
  • a threshold value for determining a threshold value used for dividing a lumen and a non-lumen in the scanned region using the three-dimensional B-mode data on which the gain adjustment has been performed.
  • a determination unit a threshold processing unit that executes threshold processing for distinguishing data related to the non-lumen from the three-dimensional B-mode data on which the gain adjustment has been performed using the determined threshold; and the threshold processing And an image generation unit that generates an ultrasonic image related to the lumen based on the three-dimensional B-mode data on which is executed.
  • FIG. 1 is a configuration diagram showing the configuration of the ultrasonic diagnostic apparatus according to the present embodiment.
  • FIG. 2 is a diagram illustrating an example of the ROI in the scanned region according to the present embodiment.
  • FIG. 3 is a diagram illustrating an example of a predetermined reference value calculated based on the three-dimensional B-mode data according to the present embodiment.
  • FIG. 4 is a diagram illustrating an example of the gain adjustment value in the azimuth direction according to the present embodiment.
  • FIG. 5 is a diagram illustrating an example of the gain adjustment value in the elevation direction according to the present embodiment.
  • FIG. 6 is a diagram illustrating an example of the gain adjustment value in the depth direction according to the present embodiment.
  • FIG. 7 is a diagram illustrating an example of a perspective projection method in rendering processing according to the present embodiment.
  • FIG. 8 is a diagram illustrating an example of a line of sight and a visual volume related to the perspective projection method in the rendering process according to the present embodiment.
  • FIG. 9 is a diagram illustrating an example of a cavity image obtained by the present embodiment.
  • FIG. 10 is a flowchart illustrating a flow of processing for generating an ultrasound image related to a lumen according to the present embodiment.
  • FIG. 11 is a diagram illustrating an example of a histogram related to a plurality of signal values included in the three-dimensional B-mode data before gain adjustment according to the present embodiment.
  • FIG. 12 is a diagram illustrating an example of a histogram related to a plurality of signal values included in the three-dimensional B-mode data after gain adjustment according to the present embodiment.
  • FIG. 13 is a diagram illustrating an example of a graph regarding gradation inversion according to the present embodiment.
  • FIG. 14 is a diagram illustrating a histogram of a plurality of signal values included in the three-dimensional B-mode data subjected to gain adjustment and gradation inversion together with the determined threshold according to the present embodiment.
  • FIG. 15 is a diagram illustrating a histogram related to a plurality of signal values included in the three-dimensional B-mode data after gain adjustment, together with a threshold value, when a histogram signal related to a real organ is removed before gradation inversion according to the present embodiment. It is.
  • FIG. 16 is a flowchart illustrating a flow of processing for determining a gain adjustment value in connection with step Sa3 of FIG. 10 of the present embodiment.
  • FIG. 17 is a diagram illustrating an example of a conventional cavity image.
  • FIG. 18 is a diagram illustrating an example of a conventional cavity image.
  • FIG. 1 is a block diagram of an ultrasonic diagnostic apparatus 1 according to this embodiment.
  • the ultrasonic diagnostic apparatus 1 is connected to the ultrasonic probe 11, the apparatus main body 12, the display unit 13, and the apparatus main body 12 to capture various instructions / commands / information from the operator into the apparatus main body 12.
  • Input unit 14 the ultrasonic diagnostic apparatus 1 may be connected to an unillustrated biological signal measurement unit and network represented by an electrocardiograph, a heart sound meter, a pulse wave meter, and a respiration sensor via an interface unit 43. Good.
  • the present embodiment is not limited to a single sweep. That is, the present invention can be applied to a case where scanning is performed in real time, and a case where a freeze operation is performed via the input unit 14 described later during scanning in real time.
  • the ultrasonic probe 11 has a piezoelectric vibrator as an acoustic / electric reversible conversion element such as piezoelectric ceramics.
  • the plurality of piezoelectric vibrators are arranged in parallel and are provided at the tip of the ultrasonic probe 11. In the following description, it is assumed that one piezoelectric vibrator constitutes one channel.
  • the piezoelectric vibrator generates an ultrasonic wave in response to a drive signal supplied from a transmission / reception unit 23 described later.
  • the piezoelectric vibrator generates a reception echo signal in response to reception of an ultrasonic wave (hereinafter referred to as an echo signal) reflected by the living tissue of the subject.
  • an echo signal an ultrasonic wave
  • the ultrasonic probe 11 will be described as a mechanical four-dimensional probe that performs three-dimensional scanning by swinging a one-dimensional array in a direction orthogonal to the arrangement direction of a plurality of transducers.
  • the ultrasonic probe 11 is not limited to a mechanical four-dimensional probe, and may be a two-dimensional array probe.
  • the apparatus main body 12 includes a transmission / reception unit 23, a B-mode data generation unit 25, a gain adjustment unit 27, a gradation inversion unit 29, an interpolation unit 31, a threshold determination unit 33, a threshold processing unit 35, an image generation unit 37, a storage unit 39, It has a control processor (central processing unit: Central Processing Unit: hereinafter referred to as CPU) 41 and an interface unit 43.
  • the apparatus main body 12 may have a color or Doppler processing unit (not shown) that generates a color or Doppler signal.
  • the transmission / reception unit 23 includes a trigger generation circuit, a transmission delay circuit, a pulsar circuit, a preamplifier circuit, an analog-to-digital (hereinafter referred to as A / D) converter, a reception delay circuit, an adder, and the like which are not shown.
  • the trigger generation circuit repeatedly generates rate pulses for forming transmission ultrasonic waves at a predetermined rate frequency.
  • the trigger generation circuit repeatedly generates rate pulses at a rate frequency of 5 kHz, for example. This rate pulse is distributed to the number of channels and sent to the transmission delay circuit.
  • the transmission delay circuit provides each rate pulse with a delay time necessary for converging the ultrasonic wave into a beam and determining the transmission directivity for each channel.
  • the pulser circuit applies a voltage pulse (drive signal) to each transducer of the ultrasonic probe 11 at a timing based on this rate pulse. Thereby, an ultrasonic beam is transmitted to the subject.
  • the echo signal reflected by the biological tissue of the subject is taken in for each channel as a reception echo signal via the ultrasonic probe 11.
  • the preamplifier circuit amplifies the reception echo signal from the subject taken in via the ultrasonic probe 11 for each channel.
  • the A / D converter converts the amplified received echo signal into a digital signal.
  • the reception delay circuit gives a delay time necessary for determining the reception directivity to the reception echo signal converted into the digital signal.
  • the adder adds a plurality of received echo signals given delay times.
  • the transmission / reception unit 23 generates a reception signal in which the reflection component from the direction corresponding to the reception directivity is emphasized.
  • the transmission directivity and the reception directivity determine the overall directivity of ultrasonic transmission / reception (the so-called “ultrasonic scanning line” is determined by this directivity).
  • the transmission / reception unit 23 outputs a reception signal for each depth in each scanning line in the scanned region to the B-mode data generation unit 25 described later.
  • the transmission / reception unit 23 may have a parallel reception function for simultaneously receiving echo signals generated on a plurality of scanning lines by one ultrasonic transmission.
  • the B-mode data generator 25 has an envelope detector, a logarithmic converter, etc., not shown.
  • the envelope detector performs envelope detection on the reception signal output from the transmission / reception unit 23.
  • the envelope detector outputs the envelope-detected signal to a logarithmic converter described later.
  • the logarithmic converter relatively emphasizes a weak signal by logarithmically converting the envelope-detected signal.
  • the B mode data generation unit 25 generates a signal value (B mode data) for each depth in each scanning line based on the signal emphasized by the logarithmic converter.
  • the B-mode data generation unit 25 includes an azimuth direction (a direction in which transducers are arranged), an elevation direction (an oscillation direction of the scanning surface), and a depth direction (hereinafter referred to as a range) in the scanned region. ) (Referred to as “direction”), and low data (RAW Data), which is B-mode data in which a plurality of signal values are arranged, is generated.
  • azimuth direction a direction in which transducers are arranged
  • an elevation direction an oscillation direction of the scanning surface
  • a depth direction hereinafter referred to as a range
  • RAW Data low data
  • raw data, volume data generated by the interpolation unit 31 described later, line-of-sight data, and the like are collectively referred to as three-dimensional B-mode data.
  • the raw data may be data in which a plurality of pixel values, a plurality of luminance values, and the like are arranged in association with the azimuth direction, the elevation direction, and the range direction along the scanning line.
  • the three-dimensional B-mode data may be data related to a region of interest (hereinafter referred to as ROI) set in advance in the scanned region.
  • ROI region of interest
  • the B mode data generation unit 25 outputs the three-dimensional B mode data to the gain adjustment unit 27 described later.
  • the B mode data generation unit 25 may store the three-dimensional B mode data in a memory not shown. Further, the B-mode data generation unit 25 may execute the above arrangement in association with the azimuth direction, the elevation direction, and the range direction when storing the three-dimensional B-mode data in a memory (not shown).
  • FIG. 2 is a diagram showing an example of the ROI in the scanned region.
  • a region surrounded by a solid line in FIG. 2 indicates an ROI.
  • a first angle ( ⁇ ) in FIG. 2 indicates an angle that defines a scanning range in the azimuth direction.
  • a second angle ( ⁇ ) in FIG. 2 indicates an angle that defines a scanning range in the elevation direction.
  • the first and second angles may be angles that define the ROI.
  • the centers of the swing angles in the azimuth direction and the elevation direction are coincident, but it is not always necessary to coincide.
  • the one-dimensional array is a so-called convex type having a curvature, but is not limited to this and may be a so-called linear type having an infinite curvature radius.
  • the scanning lines in the azimuth direction are parallel, and the scanning range in the azimuth direction cannot be defined by the first angle.
  • the first angle is associated with the position in the array of the one-dimensional array transducer. Will be used.
  • the ultrasonic transducer when the ultrasonic transducer is a two-dimensional array, there may be a linear array in the elevation direction. In this case, the second is associated with the position in the transducer array in the elevation direction. Use an angle. In the case of performing sector scanning using a two-dimensional array, FIG. 2 is applicable except that the center of the swing angle is placed on the transducer and the scanning line is scanned in a fan shape. As described above, FIG. 2 is not limited by the probe type or scanning method, and is generally applied by appropriate interpretation.
  • the gain adjustment unit 27 determines the depth in the range direction (hereinafter referred to as the range depth), the first angle, and the second angle in each scanning line in the scanned region based on the three-dimensional B-mode data. Determine the gain adjustment value.
  • the gain adjustment unit 27 performs gain adjustment on each of a plurality of signal values included in the three-dimensional B-mode data using the determined gain adjustment value.
  • the gain adjustment unit 27 may perform gain adjustment for each of a plurality of pixel values included in the three-dimensional B-mode data using the determined gain adjustment value.
  • the gain adjusting unit 27 can use not only raw data but also volume data or line-of-sight data generated by an interpolation unit 31 described later as three-dimensional B-mode data.
  • the gain adjustment unit 27 outputs the gain-adjusted three-dimensional B-mode data to a gradation inversion unit 29 described later.
  • the gain adjustment unit 27 calculates a predetermined reference value for the entire three-dimensional B-mode data based on a plurality of signal values included in the three-dimensional B-mode data.
  • the predetermined reference value is, for example, an average value of a plurality of signal values included in the three-dimensional B mode data.
  • the predetermined reference value may be a representative value (for example, a mode value, a median value, etc.) other than the average value of a plurality of signal values and a preset constant value.
  • the gain adjustment unit 27 calculates, for each first angle, a first representative value that represents the plurality of signal values that have the same first angle and are included in the three-dimensional B-mode data.
  • the gain adjusting unit 27 calculates, for each second angle, a second representative value that represents the plurality of signal values that have the same second angle and are included in the three-dimensional B-mode data.
  • the gain adjusting unit 27 calculates, for each depth, a third representative value that represents the plurality of signal values that have the same range depth and are included in the three-dimensional B-mode data.
  • the first representative value is, for example, an average value of a plurality of signal values having the same first angle and included in the three-dimensional B-mode data.
  • the second representative value is, for example, an average value of a plurality of signal values having the same second angle and included in the three-dimensional B-mode data.
  • the third representative value is, for example, an average value of a plurality of signal values that have the same depth and are included in the three-dimensional B-mode data.
  • the first to third representative values may be a mode value, a median value, or the like.
  • the gain adjustment unit 27 can also use a pixel value or a luminance value instead of the signal value. Further, the gain adjusting unit 27 may use three-dimensional B-mode data that has been tone-reversed by a tone reversing unit 29 described later.
  • the gain adjustment unit 27 calculates a first gain adjustment value obtained by subtracting a predetermined reference value from the first representative value for each first angle.
  • the gain adjustment unit 27 calculates a second gain adjustment value obtained by subtracting a predetermined reference value from the second representative value for each second angle.
  • the gain adjustment unit 27 calculates a third gain adjustment value obtained by subtracting a predetermined reference value from the third representative value for each depth.
  • the first to third gain adjustment values are collectively referred to as gain adjustment values.
  • the gain adjustment unit 27 performs gain adjustment for each of a plurality of signal values defined by the first and second angles and the depth using the gain adjustment value.
  • FIG. 3 is a diagram showing three-dimensional B-mode data using an orthogonal coordinate system in which the range direction, the azimuth direction, and the elevation direction are orthogonal to each other.
  • each of a plurality of sample points respectively corresponding to a plurality of signal values included in the three-dimensional B-mode data is referred to as a voxel.
  • voxel used here is used in the present embodiment in a broader sense than voxels in low voxel conversion described later, and generally refers to sample points in a three-dimensional target region.
  • the rectangular parallelepiped indicating the three-dimensional B-mode data does not indicate the shape of the three-dimensional scanned region (hereinafter referred to as a scanning shape) unlike FIG.
  • a scanning shape opens in a fan shape in the azimuth direction and the elevation direction as it becomes deeper in the range direction as shown in FIG. It becomes a shape.
  • each of the plurality of signal values is described as a value in a voxel (hereinafter referred to as a voxel value a ijk ).
  • the subscript i in the voxel value indicates the i-th position (corresponding to the depth) along the range direction from the origin (a 111 in FIG. 3).
  • the subscript j in the voxel value indicates the jth position (corresponding to the first angle) along the azimuth direction from the origin.
  • the subscript k in the voxel value indicates the kth position (corresponding to the second angle) along the elevation direction from the origin.
  • a ijk in FIG. 3 corresponds to a 162 .
  • the ranges of subscripts i, j, and k are 1 ⁇ i ⁇ l, 1 ⁇ j ⁇ m, and 1 ⁇ k ⁇ n. That is, the total number of voxels included in the rectangular parallelepiped in FIG. 3 is l ⁇ m ⁇ n.
  • the volume data generated by the interpolation unit 31 described later is applied instead of the raw data as the three-dimensional B-mode data
  • the range direction, the azimuth direction, and the elevation direction in FIG. Corresponds to the orthogonal three-axis direction.
  • the line-of-sight data generated by the interpolation unit 31 described later is applied as the three-dimensional B-mode data
  • the gain adjustment unit 27 calculates the average value M of the voxel values of the entire ROI by dividing the sum of the voxel values in the rectangular parallelepiped by the total number of voxels as a predetermined reference value. Specifically, the average value M is calculated by the following mathematical formula.
  • FIG. 4 is a diagram illustrating an example of the gain adjustment value in the azimuth direction according to the present embodiment.
  • the gain adjustment unit 27 calculates a first representative value (an average value of voxel values of the same azimuth) for each first angle (azimuth direction).
  • the first representative value A j is calculated by the following mathematical formula.
  • the gain adjustment unit 27 subtracts the average value M from the first representative value A j corresponding to each first angle, thereby obtaining the first gain adjustment value (A j corresponding to each first angle). -M) is calculated.
  • FIG. 5 is a diagram illustrating an example of the gain adjustment value in the elevation direction according to the present embodiment.
  • the gain adjustment unit 27 calculates a second representative value (average value of voxel values of the same elevation) for each second angle (elevation direction).
  • the second representative value E k is calculated by the following mathematical formula.
  • the gain adjustment unit 27 subtracts the average value M from the second representative value E k corresponding to each of the second angles to thereby obtain a second gain adjustment value (E k corresponding to each of the second angles). -M) is calculated.
  • FIG. 6 is a diagram illustrating an example of the gain adjustment value in the range direction according to the present embodiment.
  • the gain adjusting unit 27 calculates a third representative value (average value of voxel values in the same range) for each depth (range direction). Specifically, the third representative value R i is calculated by the following mathematical formula.
  • the gain adjustment unit 27 subtracts the average value M from the third representative value R i corresponding to each depth to obtain the third gain adjustment value (R i ⁇ M) corresponding to each depth. calculate.
  • the gain adjusting unit 27 performs three-dimensional gain adjustment for each of a plurality of signal values defined by the first and second angles and depths using the first to third gain adjustment values. Specifically, the gain adjustment is executed by the following equation.
  • b ijk is a signal value after gain adjustment.
  • the gain adjustment unit 27 determines a gain adjustment value based on the input three-dimensional B-mode data, performs gain adjustment on the three-dimensional B-mode data that is the basis for determining the gain adjustment value, You may perform gain adjustment with respect to each of several signal values contained in the three-dimensional B-mode data input by subsequent scanning.
  • the gain adjustment unit 27 can determine a gain adjustment value based on the input three-dimensional B-mode data for each input three-dimensional B-mode data, and execute the gain adjustment.
  • the gradation inversion unit 29 inverts the gradation related to the gain-adjusted three-dimensional B-mode data. As a result, the gradation related to the real organ is inverted from the high gradation to the low gradation. The gradation regarding the lumen is inverted from a low gradation or a transparent state to a high gradation.
  • the gradation inversion unit 29 outputs the three-dimensional B-mode data whose gradation has been inverted to the interpolation unit 31 described later. Note that the gradation inversion unit 29 may invert the gradation related to the signal value of data output from the threshold processing unit 35 described later.
  • the interpolation unit 31 performs data interpolation in order to arrange data on a line of sight set in advance for rendering processing to be described later, using the gradation-reversed 3D B-mode data.
  • the interpolation unit 31 generates line-of-sight data in which data is arranged on the line of sight described later in FIG. 8 by data interpolation. Note that the interpolation unit 31 may generate line-of-sight data using the gain-adjusted three-dimensional B-mode data.
  • the interpolation unit 31 outputs the line-of-sight data to a threshold value determination unit 33 and a threshold value processing unit 35 described later.
  • the interpolating unit 31 converts the raw data generated by the B-mode data generating unit 25 into data voxels by performing data interpolation, and divides volume data (usually a rectangular parallelepiped, which is a volume) by unit length. Voxels may be arranged on the grid), or line-of-sight data may be generated from raw data or volume data.
  • the threshold value determination unit 33 performs statistical processing using the line-of-sight data. Note that the threshold value determination unit 33 may execute statistical processing using volume data generated by low voxel conversion, or may execute statistical processing using raw data. In general, the precondition for executing the statistical process is that the gain adjustment has been completed, and the gradation inversion process may or may not be completed. Specifically, the threshold determination unit 33 calculates an average value and a standard deviation based on the magnitude and frequency of the signal value in the line-of-sight data. Next, the threshold value determination unit 33 calculates the threshold value using the average value, the predetermined constant, and the standard deviation as follows, for example.
  • Threshold average value + predetermined constant ⁇ standard deviation Note that pixel values, luminance values, gradation values, and the like may be used instead of the signal values. It is also possible to use other distributions (dispersion, average deviation, etc.) instead of the standard deviation. A mode value, a median value, or the like may be used instead of the average value.
  • the threshold value determination unit 33 generally calculates a threshold value as follows using a value representative of line-of-sight data (hereinafter referred to as a fourth representative value), the degree of dispersion, and a predetermined constant.
  • the fourth representative value is a generic name such as the average value, the mode value, and the median value.
  • Threshold fourth representative value + predetermined constant ⁇ dispersion degree
  • the predetermined constant in the above two formulas is set in advance so that the threshold value is between a signal value related to a lumen (for example, a blood vessel, a bile duct, etc.) and a signal value related to a non-lumen (for example, a substantial organ in a subject) Is set.
  • a signal value related to a lumen for example, a blood vessel, a bile duct, etc.
  • a signal value related to a non-lumen for example, a substantial organ in a subject
  • the predetermined constant is determined using data of various subjects and diagnostic sites, for example, and can be set in advance.
  • One set value may be set, or for example, may be set for each diagnosis site.
  • the predetermined constant is stored in advance in a memory (not shown).
  • the threshold value determination unit 33 reads a predetermined constant from a memory (not shown) and executes threshold value calculation.
  • the predetermined constant can be appropriately adjusted by the operator via the input unit 14 described later.
  • the threshold value determination unit 33 can also determine the threshold value based on a line-of-sight data set including line-of-sight data generated each time the scanned region is scanned.
  • the threshold processing unit 35 executes threshold processing on the line-of-sight data using the threshold determined by the threshold determination unit 33.
  • the threshold processing unit 35 extracts a signal value related to the lumen from a plurality of signal values included in the line-of-sight data by threshold processing. Specifically, the threshold value processing unit 35 assigns zero to a plurality of signal values smaller than the threshold value when the line-of-sight data is after gradation reversal.
  • the threshold determination unit 35 may clip a plurality of signal values larger than the threshold from a plurality of signal values included in the line-of-sight data.
  • the threshold processing unit 35 may remove a plurality of signal values smaller than the threshold from the plurality of signal values included in the line-of-sight data.
  • the threshold processing unit 35 outputs the line-of-sight data subjected to the threshold processing to an image generation unit 37 described later.
  • the threshold processing unit 35 uses a threshold described later determined by the threshold determination unit 33, and the threshold processing unit 35 uses a plurality of signals larger than the threshold determined by the threshold determination unit 33.
  • the maximum value (for example, 255 here) is assigned to the value.
  • the threshold processing unit 35 can extract a signal value related to the non-lumen by reversing the magnitude relationship in the threshold processing.
  • the threshold processing unit 35 may be incorporated in an image generation unit 37 described later.
  • the image generation unit 37 executes a rendering process using the line-of-sight data output from the threshold processing unit 35.
  • the interpolation processing is performed by the interpolation unit 31 and converted into line-of-sight data, and then rendering processing is executed.
  • the gradation inversion unit 29 performs gradation inversion processing and then executes rendering processing.
  • the image generation unit 37 generates a two-dimensional ultrasonic image related to the lumen by rendering processing.
  • volume rendering as rendering processing will be described with reference to FIG.
  • the rendering process is not limited to volume rendering, and may be, for example, a maximum value projection method (Maximum Intensity Projection: hereinafter referred to as MIP).
  • the image generation unit 37 performs line-of-sight data projection in order to display a three-dimensional object on a two-dimensional monitor in the display unit 13 to be described later by rendering processing. That is, the image generation unit 37 generates an image on a two-dimensional plane by projecting a three-dimensional object onto a projection plane.
  • the projection method includes a perspective projection method and a parallel projection method.
  • FIG. 7 is a diagram illustrating an example of a perspective projection method in rendering processing.
  • the perspective projection method is a projection method in which the viewpoint (projection center) is a finite length from the object. Thereby, the longer the distance from the viewpoint to the object (the farther from the viewpoint), the smaller the object is projected onto the projection plane.
  • the parallel projection method is a projection method in which the viewpoint is located at infinity from the object. Note that any projection method may be used for volume rendering.
  • FIG. 8 is a diagram showing an example of a line of sight and a visual volume related to a perspective projection method in volume rendering.
  • the view volume is an area where an object can be seen from a viewpoint.
  • the object corresponds to ROI or a part of ROI in ultrasonic three-dimensional scanning.
  • a plurality of signal values included in the three-dimensional B-mode data obtained by ultrasonic three-dimensional scanning are arranged on the line of sight within the visual volume by interpolation processing in the interpolation unit 31 after gradation inversion.
  • the line of sight means a straight line extending in each direction from the viewpoint through the visual volume.
  • the term line of sight used here follows the above definition and is different from the definition of line of sight in general three-dimensional computer graphics.
  • the image generation unit 37 projects a plurality of signal values in the viewing volume arranged on one line of sight onto the projection plane by the volume rendering method. Thereby, the image generation unit 37 generates image data of one pixel of the ultrasonic image.
  • the image generation unit 37 generates an ultrasonic image by executing the above processing for each of a plurality of lines of sight. At this time, the image generation unit 37 converts the signal sequence in the generated ultrasonic image into a signal sequence in a general video format represented by a television or the like, and generates an ultrasonic image as a display image.
  • the image generation unit 37 may generate a color or Doppler image based on a color or Doppler signal output from a color or Doppler processing unit (not shown).
  • the image generation unit 37 may generate a multi-section reconstruction (MultiPlanar Reconstruction: hereinafter referred to as MPR) image related to ROI based on the three-dimensional B-mode data.
  • MPR MultiPlanar Reconstruction
  • the image generation unit 37 generates an MPR image as a two-dimensional ultrasonic image related to the lumen by using the three-dimensional B-mode data subjected to the gain adjustment, threshold processing, and gradation inversion processing. To do.
  • the image generation unit 37 generates an MPR image with uniform sensitivity by using the three-dimensional B-mode data subjected to the gain adjustment.
  • the storage unit 39 is generated by a plurality of reception delay patterns having different focus depths, various data groups such as a control program of the ultrasonic diagnostic apparatus 1, a diagnostic protocol, transmission / reception conditions, three-dimensional B-mode data, and the image generation unit 37.
  • the storage unit 39 stores an ultrasound image, line-of-sight data, and the like immediately before the freeze operation operated via the input unit 14 described later.
  • the CPU 41 reads out the transmission / reception conditions and the device control program stored in the storage unit 39 based on the mode selection input from the input unit 14 by the operator, selection of the reception delay pattern list, and transmission start / end, and the device control program is read accordingly.
  • the main body 12 is controlled.
  • the CPU 41 controls the gain adjustment unit 27, the gradation inversion unit 29, the interpolation unit 31, the threshold determination unit 33, and the threshold processing unit 35 in accordance with the control program read from the storage unit 39.
  • the interface unit 43 is an interface related to the input unit 14, the network, an external storage device (not shown), and a biological signal measurement unit. Data such as an ultrasonic image and analysis results obtained by the apparatus main body 12 can be transferred to another apparatus via the interface unit 43 and the network.
  • the display unit 13 displays an ultrasonic image and an MPR image based on the output from the image generation unit 37.
  • the display unit 13 displays the lumen (for example, blood vessel, bile duct, etc.) in the scanned region (or ROI) with high luminance by the above processing.
  • FIG. 9 is a diagram illustrating an example of an image (cavity image) displayed with high luminance on the display unit 13.
  • the display unit 13 may perform adjustments such as brightness, contrast, dynamic range, and ⁇ correction, and color map assignment for the ultrasonic image and MPR image generated by the image generation unit 37.
  • the input unit 14 is connected to the interface unit 43 and takes various instructions, commands, information, selections, and settings from the operator into the apparatus main body 12.
  • the input unit 14 includes input devices such as a trackball, a switch button, a mouse, and a keyboard (not shown).
  • the input device detects the coordinates of the cursor displayed on the display screen, and outputs the detected coordinates to the CPU 41.
  • the input device may be a touch panel provided to cover the display screen. In this case, the input unit 14 detects coordinates instructed by a touch reading principle such as an electromagnetic induction type, an electromagnetic distortion type, and a pressure sensitive type, and outputs the detected coordinates to the CPU 41.
  • the input unit 14 may input a predetermined reference value to the apparatus main body 12 in accordance with an instruction from the operator. Further, the input unit 14 may input a predetermined constant used by the threshold value determination unit 33.
  • the cavity image generation function performs gain adjustment based on 3D B-mode data, determines a threshold based on gain-adjusted 3D B-mode data, and executes threshold processing based on the determined threshold
  • This is a function for generating an ultrasound image (hereinafter referred to as a cavity image) regarding the lumen.
  • processing relating to the cavity image generation function hereinafter referred to as cavity image generation processing
  • FIG. 10 is a flowchart illustrating a process flow for generating a cavity image.
  • FIG. 11 is a histogram relating to a plurality of signal values included in the three-dimensional B-mode data before gain adjustment.
  • the signal value related to the real organ is characterized by being larger than the signal value related to the lumen.
  • a gain adjustment value is determined for each range depth and first and second angles (step Sa3).
  • a three-dimensional gain adjustment is performed on each of a plurality of signal values included in the three-dimensional B-mode data (step Sa4).
  • the histogram relating to the artifact is taken into the histogram relating to the real organ. Thereby, the histogram regarding the lumen and the histogram regarding the real organ are distinguished.
  • the parenchymal organ is distributed over a wide area in the space in the scanned area as compared with the lumen.
  • the volume occupied by the lumen in the scanned region (l ⁇ m ⁇ n) is smaller than that of the real organ.
  • the predetermined reference value and the first to third representative values are values reflecting the real organs.
  • the artifact is caused by the echo signal of the real organ, like the real organ, the artifact is distributed over a wider area than the lumen in the space in the scanned region.
  • the predetermined reference value and the first to third representative values are values reflecting the real organs and artifacts.
  • FIG. 12 is a diagram illustrating an example of a histogram regarding the magnitudes of a plurality of signal values included in the three-dimensional B-mode data after gain adjustment.
  • Statistical processing is performed using a plurality of signal values whose gradations are inverted (step Sa5). By the statistical processing in step Sa5, for example, an average value and a standard deviation of signal values in the entire histogram are calculated. In the scanned region and the ROI, the volume of the parenchymal organ is larger than the volume of the lumen.
  • FIG. 14 is a diagram illustrating a histogram of a plurality of signal values included in the three-dimensional B-mode data subjected to gain adjustment and gradation inversion, together with the determined threshold value.
  • the threshold value in FIG. 14 is, for example, a value obtained by adding an average value to a standard deviation of a predetermined constant multiple.
  • the threshold processing removes histograms related to real organs and artifacts. Based on the threshold-processed three-dimensional B-mode data, an ultrasound image relating to the lumen is generated (step Sa8).
  • the gain adjustment, gradation inversion, and threshold processing may be executed for any of the raw data, volume data, and line-of-sight data.
  • gain adjustment, gradation inversion, and threshold processing some processes are performed on raw data, some processes are performed on volume data, and some processes are performed on line-of-sight data. May be.
  • the gain adjustment and the gradation inversion can change the processing order. Furthermore, the order of the gradation inversion and threshold processing can be switched.
  • Threshold average value ⁇ predetermined constant ⁇ standard deviation
  • Threshold fourth representative value ⁇ predetermined constant ⁇ dispersion degree It becomes. Since the histogram related to the lumen exists below the threshold and the histogram related to the parenchymal organ exists above the threshold, the histogram above the threshold is removed. That is, a maximum gradation (for example, 255) is assigned to each of a plurality of signal values belonging to a histogram equal to or higher than a threshold value.
  • FIG. 15 is a diagram illustrating a histogram related to a plurality of signal values included in the three-dimensional B-mode data after gain adjustment, together with a threshold value, in the case where the histogram related to the real organ is removed before gradation inversion.
  • the gain adjustment value determination function is based on the three-dimensional B-mode data, the first angle that defines the scanning range in each scanning line in the scanning area and the azimuth direction, and the scanning in the elevation direction in the scanning area. This is a function for determining a gain adjustment value for each second angle defining the range.
  • gain adjustment value determination processing processing relating to the gain adjustment value determination function (hereinafter referred to as gain adjustment value determination processing) will be described.
  • FIG. 16 is a flowchart showing the flow of processing for determining a gain adjustment value in connection with step Sa3 in FIG.
  • a value (hereinafter referred to as a reference value) obtained by averaging a plurality of signal values included in the three-dimensional B-mode data is calculated (step Sb1).
  • a value (hereinafter referred to as a first average value) obtained by averaging a plurality of signal values having the same first angle is calculated (step Sb2).
  • a first difference (first gain adjustment value) obtained by subtracting the reference value from the first average value is calculated for each of the first angles (step Sb3).
  • a value obtained by averaging a plurality of signal values having the same second angle (hereinafter referred to as a second average value) is calculated (step Sb4).
  • a second difference (second gain adjustment value) obtained by subtracting the reference value from the second average value is calculated for each of the second angles (step Sb5).
  • a value (hereinafter referred to as a third average value) obtained by averaging a plurality of signal values having the same depth is calculated (step Sb6).
  • a third difference (third gain adjustment value) obtained by subtracting the reference value from the third average value is calculated for each depth (step Sb7).
  • the first to third differences are determined as first to third gain adjustment values respectively associated with the first and second angles and depths of the plurality of signal values (step Sb8).
  • the signal value, pixel value, or gradation relating to the real organ approaches uniformly.
  • the ultrasonic diagnostic apparatus 1 three-dimensional gain adjustment values determined based on three-dimensional B-mode data are used for each of a plurality of signal values included in the three-dimensional B-mode data. Gain adjustment can be performed. By executing statistical processing using a plurality of signal values included in the gain-adjusted three-dimensional B-mode data or volume data, it is possible to determine a threshold value used for dividing a lumen and a non-lumen. By executing threshold processing using the determined threshold, an image (cavity image) regarding the lumen can be generated. From these facts, it is possible to generate an ultrasound image related to a lumen in which artifacts are greatly reduced, and diagnostic performance is improved. In addition, since the operability for obtaining the cavity image is improved, the inspection efficiency is improved.
  • the algorithm for determining the gain adjustment value uses a simple average without using a complex algorithm that distinguishes and processes a real organ and a lumen. Real-time performance can be improved. Thereby, the gain adjustment value can be updated every time the three-dimensional B-mode data is generated, and the optimum gain adjustment can be executed. In addition, since the gain adjustment value is determined for each of the plurality of signal values included in the three-dimensional B-mode data, accurate gain adjustment can be performed. For these reasons, the examination efficiency is improved by improving the real-time property and the detection ability of the lumen.
  • gain adjustment and threshold processing can be performed on three-dimensional B-mode data obtained by a single scan on the scanned region, as in a single sweep.
  • the present invention is not limited to a single soup, and gain adjustment and threshold processing can be executed even when scanning in real time or when generating an ultrasonic image by freezing during scanning in real time. .
  • the ultrasonic diagnostic apparatus 1 for example, even when STC (Sensitivity Time Control) gain adjustment and B-mode gain adjustment are performed in order to adjust the brightness of the B-mode image, the optimum threshold is maintained. The operability is greatly improved. This is due to the following reason.
  • the B-mode gain adjustment the distribution state of the histogram does not change and only the signal value or gradation of the entire distribution is shifted, so there is no need to reset a predetermined constant.
  • STC gain adjustment the signal value or gradation at a certain depth changes.
  • the gain adjustment value is determined so that the signal value related to the real organ approaches uniformly. Therefore, there is no need to reset the predetermined constant.
  • the ultrasonic diagnostic apparatus 1 since the three-dimensional gain adjustment can be executed, the accuracy of the lumen in, for example, fly-through is improved. This improves the diagnostic efficiency.
  • the ultrasonic diagnostic apparatus 1 when the technical idea of the ultrasonic diagnostic apparatus 1 is realized by a medical image processing apparatus, for example, it has constituent elements within a solid line in the configuration diagram of FIG. At this time, the processing related to the generation of the cavity image corresponds to the processing from step Sa3 to step Sa8. These processes are the same as in the embodiment.
  • the three-dimensional B-mode data in step Sa3 is stored in the storage unit 39 in advance.
  • the medical image processing apparatus it is also possible to read the DICOM file (for example, three-dimensional B-mode data) output from the ultrasonic diagnostic apparatus and execute the above processing.
  • each function according to the embodiment can also be realized by installing a program for executing the processing in a computer such as a workstation and developing the program on a memory.
  • a program capable of causing the computer to execute the technique is stored in a storage medium such as a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), or a semiconductor memory. It can also be distributed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

 超音波プローブと、被走査領域に対応する受信信号を発生する送受信部と、受信信号に基づいて3次元Bモードデータを発生するBモードデータ発生部と、被走査領域内の各走査線上における深さ、被走査領域におけるアジマス方向、被走査領域におけるエレベーション方向ごとに決定されたゲイン調整値を用いて、3次元Bモードデータに対するゲイン調整を実行するゲイン調整部と、ゲイン調整が実行された3次元Bモードデータを用いて、被走査領域における管腔と非管腔との分割に用いられる閾値を決定する閾値決定部と、決定された閾値を用いて、ゲイン調整が実行された3次元Bモードデータから非管腔に関するデータを区別するための閾値処理を実行する閾値処理部と、閾値処理が実行された3次元Bモードデータに基づいて、管腔に関する超音波画像を発生する画像発生部と、を具備することを特徴とする。

Description

超音波診断装置、および医用画像処理装置
 本発明の実施形態は、被検体の管腔を表示させる超音波診断装置、および医用画像処理装置に関する。
 近年、被検体を3次元的に走査することにより、被検体からのエコー信号を収集する超音波診断装置が実用化されている。この超音波診断装置によれば、エコー信号に基づいて3次元Bモードデータを生成することにより、3次元画像(例えばレンダリング画像など)を生成表示することが出来る。
 上記超音波診断装置を用いて、被走査領域における管腔(例えば、血管、胆管など)を高輝度で3次元表示する映像法(以下キャビティ(Cavity)映像法と呼ぶ。)がある。キャビティ映像法により発生される画像を、以下キャビティ(Cavity)画像と呼ぶ。キャビティ画像は、3次元Bモードデータにおける階調を反転した後に3次元画像(例えばレンダリング画像)を生成することにより発生される。
 階調反転について説明する。例えば、Bモードデータの階調値が0乃至255の範囲の値を有する場合であって、Bモードデータの階調値が10である場合、階調を反転することとは、Bモードデータの階調値を255-10=245とすることである。階調値は、輝度値に対応するため、Bモードデータの階調値が10のような低階調ならば低輝度に対応し、Bモードデータの階調値が245のような高階調ならば高輝度に対応する。
 キャビティ映像法は、3次元Bモードデータにおける複数の信号値または複数の画素値における階調を反転する。階調の反転により、高階調(高輝度)の非管腔(例えば、被検体内の実質臓器など)に関する実質データの階調は、低階調(低輝度)となる。また、低階調(低輝度)または透明状態の管腔に関する管腔データの階調は、高階調(高輝度)となる。これにより、管腔が表示される。ただし、このままでは管腔の階調に比べて低階調な実質データが高階調の管腔以外に存在するため、例えば図17の(a)のように、非管腔が管腔を取り囲んで表示される場合がある。この場合、管腔の認識は困難なものとなる。このとき、閾値を設定し、閾値以下の低階調の実質データを除去することにより、高階調の管腔のみを表示することができる。なお、図17の(a)は、印刷の都合上、白黒を反転した画像である。以下で説明する図17の(b)、図17の(c)、図18の(a)、図18の(b)についても同様である。
 しかしながら、実際には、被検体体表面への超音波プローブの接触が不十分であることまたは被走査領域の深部において超音波の強度が減弱することなどによりエコー信号は低減することにより、主に被走査領域の側部および深部における実質データの階調は低階調となる。従って、階調反転されたキャビティ画像において、側部および深部における実質データは管腔と同様に高階調となる。このため、図17の(b)のように、閾値処理により、実質データを除去できない問題が発生する。閾値処理により除去されない実質データは、キャビティ画像においてアーチファクトとなる。このアーチファクトは、操作者による管腔の検出能および診断能を低下させる。このとき、アーチファクトを消すために閾値を上げると、図17の(c)に示すように管腔も同時に消えてしまう。従って、閾値処理によりアーチファクトの影響を回避することは困難となる問題がある。
 上記アーチファクトを低減させる方法は、ボリュームの除去機能を用いる方法である。この方法では、まず、トラックボールを介して操作者により入力された領域が、表示されたキャビティ画像上に設定される。次いで、入力部のパネル上のスイッチ操作を契機として、設定された領域に関するボリューム画像が除去される。キャビティ画像を回転させながら、上記手順を数回から十数回繰り返す。上記手順により、アーチファクトは除去される。この方法は、操作者の入力により除去される領域が設定されるため、アーチファクトの消し残しが発生する。そのため、管腔の検出能が低くなり、診断能が低下する問題がある。加えて、上記領域の設定に手間と時間を要するため、この方法は、検査の場で実施することが難しく実用的ではない問題がある。
 また、閾値の初期値は適切と思われる値に予め設定されているが、一般的には、最適な閾値は被検体および診断部位によって異なる。従って、初期状態で常に閾値を最適な値に設定することは難しいため、図18の(a)に示すように、一般的には実質臓器などの非管腔が多く残存する画像もしくは、管腔が多く消失した不適切な画像が、初期状態で表示される。この時、閾値は、操作者によるパネル上のつまみまたはスライダーの操作を介して、適切な値に変更される必要がある。さらに、Bモード画像における輝度を調整するために、Bモードゲインつまみを使ってゲイン値が変更されると、図18の(b)に示すように、ボリューム画像における階調値も変更される。これにより、閾値の再設定の必要性が生じる。すなわち、Bモード画像に関する診断部位およびゲイン値が変更されるたびに閾値の設定変更が必要となり、操作性が低いため検査効率が低い問題がある。
特開平6-114060号公報 特開2010-68987号公報
 目的は、操作者の手を煩わすことなくアーチファクトを低減させたキャビティ画像を発生することが出来る超音波診断装置を提供することにある。
 本実施形態に係る超音波診断装置は、複数の超音波振動子を有する超音波プローブと、前記超音波振動子各々に駆動信号を供給し、前記各超音波振動子によって発生された各受信エコー信号に基づいて、被走査領域に対応する受信信号を発生する送受信部と、前記受信信号に基づいて、3次元Bモードデータを発生するBモードデータ発生部と、前記被走査領域内の各走査線上における深さ、前記被走査領域におけるアジマス方向、前記被走査領域におけるエレベーション方向ごとに決定されたゲイン調整値を用いて、前記3次元Bモードデータに対するゲイン調整を実行するゲイン調整部と、前記ゲイン調整が実行された前記3次元Bモードデータを用いて、前記被走査領域における管腔と非管腔との分割に用いられる閾値を決定する閾値決定部と、前記決定された閾値を用いて、前記ゲイン調整が実行された3次元Bモードデータから前記非管腔に関するデータを区別するための閾値処理を実行する閾値処理部と、前記閾値処理が実行された3次元Bモードデータに基づいて、前記管腔に関する超音波画像を発生する画像発生部と、を具備することを特徴とする。
 本実施形態によれば、操作者の手を煩わすことなくアーチファクトを低減させたキャビティ画像を発生することが出来る。
図1は、本実施形態に係る超音波診断装置の構成を示す構成図である。 図2は、本実施形態に係り、被走査領域におけるROIの一例を示す図である。 図3は、本実施形態に係り、3次元Bモードデータに基づいて計算される所定の基準値の一例を示した図である。 図4は、本実施形態に係り、アジマス方向についてのゲイン調整値の一例を示す図である。 図5は、本実施形態に係り、エレベーション方向についてのゲイン調整値の一例を示す図である。 図6は、本実施形態に係り、深さ方向についてのゲイン調整値の一例を示す図である。 図7は、本実施形態に係り、レンダリング処理における透視投影法の一例を示す図である。 図8は、本実施形態に係り、レンダリング処理における透視投影法に関する視線と視体積との一例を示す図である。 図9は、本実施形態により得られるキャビティ画像の一例を示す図である。 図10は、本実施形態に係り、管腔に関する超音波画像を発生させる処理の流れを示すフローチャートを示す図である。 図11は、本実施形態に係り、ゲイン調整前の3次元Bモードデータに含まれる複数の信号値に関するヒストグラムの一例を示す図である。 図12は、本実施形態に係り、ゲイン調整後の3次元Bモードデータに含まれる複数の信号値に関するヒストグラムの一例を示す図である。 図13は、本実施形態に係り、階調反転に関するグラフの一例を示す図である。 図14は、本実施形態に係り、ゲイン調整および階調反転された3次元Bモードデータに含まれる複数の信号値のヒストグラムを、決定された閾値とともに示す図である。 図15は、本実施形態に係り、階調反転前に実質臓器に関するヒストグラム信号を除去する場合において、ゲイン調整後の3次元Bモードデータに含まれる複数の信号値に関するヒストグラムを、閾値とともに示す図である。 図16は、本実施形態の図10のステップSa3に係り、ゲイン調整値を決定する処理の流れを示すフローチャートを示す図である。 図17は、従来のキャビティ画像の一例を示す図である。 図18は、従来のキャビティ画像の一例を示す図である。
 以下、図面を参照しながら本実施形態に係わる超音波診断装置を説明する。なお、以下の説明において、略同一の構成を有する構成要素については、同一符号を付し、重複説明は必要な場合にのみ行う。
 図1は、本実施形態に係る超音波診断装置1のブロック構成図を示している。同図に示すように、超音波診断装置1は、超音波プローブ11、装置本体12、表示部13、装置本体12に接続され操作者からの各種指示・命令・情報を装置本体12に取り込むための入力部14を有する。加えて本超音波診断装置1には、心電計、心音計、脈波計、呼吸センサに代表される図示していない生体信号計測部およびネットワークが、インターフェース部43を介して接続されてもよい。以下、被走査領域として1ボリュームを走査後、走査を停止し、上記走査に関する1ボリュームにおける画像を表示する場合(シングルスイープ)について説明するが、本実施形態はシングルスイープに限定されない。すなわち、リアルタイムで走査している場合、およびリアルタイムで走査中に後述する入力部14を介してフリーズ操作された場合などにも適用可能である。
 超音波プローブ11は、圧電セラミックス等の音響/電気可逆的変換素子としての圧電振動子を有する。複数の圧電振動子は並列され、超音波プローブ11の先端に装備される。なお、一つの圧電振動子が一チャンネルを構成するものとして説明する。圧電振動子は、後述する送受信部23から供給される駆動信号に応答して超音波を発生する。圧電振動子は、被検体の生体組織で反射された超音波(以下、エコー信号と呼ぶ)の受信に応答して、受信エコー信号を発生する。以下、超音波プローブ11は、1次元アレイを複数の振動子の配列方向と直交する方向に揺動させて3次元走査を実行するメカニカル4次元プローブとして説明する。なお、超音波プローブ11は、メカニカル4次元プローブに限定されず、2次元アレイプローブであってもよい。
 装置本体12は、送受信部23、Bモードデータ発生部25、ゲイン調整部27、階調反転部29、補間部31、閾値決定部33、閾値処理部35、画像発生部37、記憶部39、制御プロセッサ(中央演算処理装置:Central Processing Unit:以下CPUと呼ぶ)41、インターフェース部43を有する。なお、装置本体12は、カラー乃至ドプラ信号を発生するカラー乃至ドプラ処理部(図示していない)を有していてもよい。
 送受信部23は、図示していないトリガ発生回路、送信遅延回路、パルサ回路、プリアンプ回路、アナログディジタル(Analog to Digital:以下A/Dと呼ぶ)変換器、受信遅延回路、加算器等を有する。トリガ発生回路は、所定のレート周波数で送信超音波を形成するためのレートパルスを繰り返し発生する。トリガ発生回路は、例えば5kHzのレート周波数でレートパルスを繰り返し発生する。このレートパルスは、チャンネル数に分配され、送信遅延回路に送られる。送信遅延回路は、チャンネル毎に超音波をビーム状に収束し且つ送信指向性を決定するのに必要な遅延時間を、各レートパルスに与える。パルサ回路は、このレートパルスに基づくタイミングで、超音波プローブ11の振動子ごとに電圧パルス(駆動信号)を印加する。これにより、超音波ビームが被検体に送信される。
 被検体の生体組織で反射されたエコー信号は、超音波プローブ11を介して受信エコー信号としてチャンネル毎に取り込まれる。プリアンプ回路は、超音波プローブ11を介して取り込まれた被検体からの受信エコー信号をチャンネル毎に増幅する。A/D変換器は、増幅された受信エコー信号をディジタル信号に変換する。受信遅延回路は、ディジタル信号に変換された受信エコー信号に、受信指向性を決定するために必要な遅延時間を与える。加算器は、遅延時間が与えられた複数の受信エコー信号を加算する。この加算により、送受信部23は、受信指向性に応じた方向からの反射成分を強調した受信信号を発生する。この送信指向性と受信指向性とにより超音波送受信の総合的な指向性が決定される(この指向性により、いわゆる「超音波走査線」が決まる)。送受信部23は、被走査領域内の各走査線における深さごとの受信信号を、後述するBモードデータ発生部25に出力する。なお、送受信部23は、1回の超音波送信で複数の走査線上に生じたエコー信号を同時に受信する並列受信機能を有していてもよい。
 Bモードデータ発生部25は、図示していない包絡線検波器、対数変換器などを有する。包絡線検波器は、送受信部23から出力された受信信号に対して包絡線検波を実行する。包絡線検波器は、包絡線検波された信号を、後述する対数変換器に出力する。対数変換器は、包絡線検波された信号に対して対数変換して弱い信号を相対的に強調する。Bモードデータ発生部25は、対数変換器により強調された信号に基づいて、各走査線における深さごとの信号値(Bモードデータ)を発生する。
 Bモードデータ発生部25は、被走査領域におけるアジマス(Azimuth)方向(振動子が配列された方向)とエレベーション(Elevation)方向(走査面の揺動方向)と深さ方向(以下レンジ(Range)方向と呼ぶ)とに対応付けて複数の信号値を配列させたBモードデータであるローデータ(RAW Data)を発生する。なお、本実施形態においては、ローデータ、後述する補間部31で発生されるボリュームデータおよび視線データ等を総称して3次元Bモードデータと記載する。以降、説明を簡単にするため、一般性を失うこと無く、3次元Bモードデータという用語はこれらの総称として、乃至はローデータを念頭に置いて扱うものとする。なお、ローデータは、複数の画素値または複数の輝度値などを、走査線に沿って、アジマス方向、エレベーション方向、レンジ方向にそれぞれ対応付けて配列させたデータであってもよい。また、3次元Bモードデータは、被走査領域において予め設定された関心領域(Region Of Interest:以下ROIと呼ぶ)に関するデータであってもよい。以下、説明を簡便にするために、3次元Bモードデータは、ROIに関するデータであるとする。Bモードデータ発生部25は、3次元Bモードデータを、後述するゲイン調整部27に出力する。
 なお、Bモードデータ発生部25は、3次元Bモードデータを図示していないメモリに記憶してもよい。また、Bモードデータ発生部25は、図示していないメモリに3次元Bモードデータを記憶させるときに、アジマス方向、エレベーション方向、レンジ方向にそれぞれ対応付けて上記配列を実行してもよい。
 図2は、被走査領域におけるROIの一例を示す図である。図2における実線で囲まれた領域は、ROIを示している。図2における第1の角度(φ)は、アジマス方向の走査範囲を規定する角度を示している。図2における第2の角度(ψ)は、エレベーション方向の走査範囲を規定する角度を示している。なお、第1、第2の角度は、ROIを規定する角度であってもよい。また、図2ではアジマス方向とエレベーション方向の振り角の中心が一致しているが必ずしも一致する必要は無い。また、図2では1次元アレイが曲率を持った所謂コンベックス型になっているが、これに限定されず曲率半径無限大の所謂リニア型でもよい。この場合、アジマス方向の走査線は平行となり、第1の角度でアジマス方向の走査範囲を規定することはできないが、以下、1次元アレイ振動子の配列における位置に対応付けて、第1の角度を用いることとする。
 また、超音波振動子が2次元アレイの場合はエレベーション方向にもリニア型の配列になることがあるが、この場合もエレベーション方向の振動子の配列における位置に対応付けて、第2の角度を用いる。また、2次元アレイを用いてセクタ走査を行う場合は、振り角の中心が振動子上に置かれて扇状に走査線を走査することになる他は図2が適用可能である。この様に、図2は、プローブの型や走査方法によって限定されず、適切な解釈を行うことにより一般的に適用される。
 ゲイン調整部27は、被走査領域内の各走査線におけるレンジ方向の深さ(以下レンジ深さと呼ぶ)、第1の角度、第2の角度ごとに、前記3次元Bモードデータに基づいて、ゲイン調整値を決定する。ゲイン調整部27は、決定されたゲイン調整値を用いて、3次元Bモードデータに含まれる複数の信号値各々に対するゲイン調整を実行する。なお、ゲイン調整部27は、決定されたゲイン調整値を用いて、3次元Bモードデータに含まれる複数の画素値各々に対するゲイン調整を実行してもよい。また、ゲイン調整部27は、3次元Bモードデータとしてローデータだけでなく後述する補間部31により発生されたボリュームデータ乃至視線データを用いることも可能である。ゲイン調整部27は、ゲイン調整された3次元Bモードデータを、後述する階調反転部29に出力する。
 具体的には、ゲイン調整部27は、3次元Bモードデータに含まれる複数の信号値に基づいて、3次元Bモードデータ全体に関する所定の基準値を計算する。所定の基準値とは例えば、3次元Bモードデータに含まれる複数の信号値の平均値である。なお、所定の基準値は、複数の信号値の平均値以外の代表値(例えば、最頻値、中央値など)および予め設定された一定値であってもよい。ゲイン調整部27は、第1の角度が同一であって3次元Bモードデータに含まれる複数の信号値を代表する第1の代表値を、第1の角度各々について計算する。ゲイン調整部27は、第2の角度が同一であって3次元Bモードデータに含まれる複数の信号値を代表する第2の代表値を、第2の角度各々について計算する。ゲイン調整部27は、レンジ深さが同一であって3次元Bモードデータに含まれる複数の信号値を代表する第3の代表値を、深さ各々について計算する。
 第1の代表値とは例えば、第1の角度が同一であって3次元Bモードデータに含まれる複数の信号値の平均値である。第2の代表値とは例えば、第2の角度が同一であって3次元Bモードデータに含まれる複数の信号値の平均値である。第3の代表値とは例えば、深さが同一であって3次元Bモードデータに含まれる複数の信号値の平均値である。なお、第1乃至第3の代表値は、最頻値、中央値などであってもよい。また、ゲイン調整部27は、信号値の替わりに、画素値または輝度値を用いることも可能である。また、ゲイン調整部27は、後述する階調反転部29により階調反転された3次元Bモードデータを用いてもよい。
 ゲイン調整部27は、第1の代表値から所定の基準値を差分した第1のゲイン調整値を、第1の角度各々について計算する。ゲイン調整部27は、第2の代表値から所定の基準値を差分した第2のゲイン調整値を、第2の角度各々について計算する。ゲイン調整部27は、第3の代表値から所定の基準値を差分した第3のゲイン調整値を、深さ各々について計算する。以下、第1乃至第3のゲイン調整値をまとめてゲイン調整値と呼ぶ。ゲイン調整部27は、ゲイン調整値を用いて、第1、第2角度、深さにより規定される複数の信号値各々に対するゲイン調整を実行する。
 以下、図3乃至図6を参照して、ゲイン調整値の決定についてより詳細に説明する。
 図3は、レンジ方向、アジマス方向、エレベーション方向各々が直交する直交座標系を用いて、3次元Bモードデータを示した図である。図3において、3次元Bモードデータに含まれる複数の信号値にそれぞれ対応する複数のサンプル点各々をボクセル(voxel)と呼ぶ。なお、ここで用いるボクセルという用語は、本実施形態において、後述するローボクセル変換におけるボクセルよりも広い意味で用いられており、一般的に3次元対象領域のサンプル点を指している。なお、図3において、3次元Bモードデータを示す直方体は、図2と異なり3次元の被走査領域の形状(以下、走査形状と呼ぶ)を示したものではない。走査形状は、例えば、1次元アレイが所定の曲率で配列されているコンベックス型のメカニカル4次元プローブでは、図2のようにレンジ方向に深くなるにつれて、アジマス方向およびエレベーション方向に扇状に開いた形状となる。
 以下、説明を簡便にするために、複数の信号値各々は、ボクセルにおける値(以下ボクセル値aijkと呼ぶ)として説明する。ボクセル値における下付きの添え字iは、原点(図3におけるa111)からレンジ方向に沿ったi番目の位置(深さに対応)を示す。ボクセル値における下付きの添え字jは、原点からアジマス方向に沿ったj番目の位置(第1の角度に対応)を示す。ボクセル値における下付きの添え字kは、原点からエレベーション方向に沿ったk番目の位置(第2の角度に対応)を示す。例えば、図3におけるaijkは、a162に対応する。以下、説明を簡単にするため、添え字i、j、kの範囲を、1≦i≦l、1≦j≦m、1≦k≦n、であるとする。すなわち、図3における直方体に含まれるボクセルの総数は、l×m×nとなる。なお、3次元Bモードデータとしてローデータの替わりに、後述する補間部31により発生されたボリュームデータを適用すると、図3におけるレンジ方向、アジマス方向、エレベーション方向各々は、実空間の直交座標系における直交3軸方向に対応する。また、3次元Bモードデータとして後述する補間部31により発生された視線データを適用すると、図3におけるレンジ方向、アジマス方向、エレベーション方向各々は、例えば図8における視線のレンジ(深さ)方向と近平面の相異なる2辺の方向に対応する。
 ゲイン調整部27は、所定の基準値として、直方体におけるボクセル値の和をボクセルの総数で除算することにより、ROI全体のボクセル値の平均値Mを計算する。具体的には、平均値Mは、以下の数式で計算される。
Figure JPOXMLDOC01-appb-M000001
 図4は、本実施形態に係り、アジマス方向についてのゲイン調整値の一例を示す図である。ゲイン調整部27は、第1の代表値(同一アジマスのボクセル値の平均値)を、第1の角度(アジマス方向)各々について計算する。具体的には、第1の代表値Aは、以下の数式で計算される。
Figure JPOXMLDOC01-appb-M000002
次いで、ゲイン調整部27は、第1の角度各々に対応する第1の代表値Aから平均値Mを減算することにより、第1の角度各々に対応する第1のゲイン調整値(A-M)を計算する。
 図5は、本実施形態に係り、エレベーション方向についてのゲイン調整値の一例を示す図である。ゲイン調整部27は、第2の代表値(同一エレベーションのボクセル値の平均値)を、第2の角度(エレベーション方向)各々について計算する。具体的には、第2の代表値Eは、以下の数式で計算される。
Figure JPOXMLDOC01-appb-M000003
次いで、ゲイン調整部27は、第2の角度各々に対応する第2の代表値Eから平均値Mを減算することにより、第2の角度各々に対応する第2のゲイン調整値(E-M)を計算する。
 図6は、本実施形態に係り、レンジ方向についてのゲイン調整値の一例を示す図である。ゲイン調整部27は、第3の代表値(同一レンジのボクセル値の平均値)を、深さ(レンジ方向)各々について計算する。具体的には、第3の代表値Rは、以下の数式で計算される。
Figure JPOXMLDOC01-appb-M000004
次いで、ゲイン調整部27は、深さ各々に対応する第3の代表値Rから平均値Mを減算することにより、深さ各々に対応する第3のゲイン調整値(R-M)を計算する。
 ゲイン調整部27は、第1乃至第3のゲイン調整値を用いて、第1、第2角度、深さにより規定される複数の信号値各々に対する3次元的なゲイン調整を実行する。ゲイン調整は、具体的には、以下の式で実行される。
Figure JPOXMLDOC01-appb-M000005
ここで、bijkはゲイン調整後の信号値である。
 なお、ゲイン調整部27は、入力された3次元Bモードデータに基づいてゲイン調整値を決定し、ゲイン調整値の決定の基になった3次元Bモードデータに対してゲイン調整を実行し、後続の走査で入力された3次元Bモードデータに含まれる複数の信号値各々に対してゲイン調整を実行してもよい。また、ゲイン調整部27は、入力される3次元Bモードデータごとに、入力された3次元Bモードデータに基づいてゲイン調整値を決定し、ゲイン調整を実行することも可能である。
 階調反転部29は、ゲイン調整された3次元Bモードデータに関する階調を反転する。これにより、実質臓器に関する階調は、高階調から低階調に反転される。管腔に関する階調は、低階調または透明状態から高階調に反転される。階調反転部29は、階調反転された3次元Bモードデータを、後述する補間部31に出力する。なお、階調反転部29は、後述する閾値処理部35から出力されたデータの信号値に関する階調を反転してもよい。
 補間部31は、階調反転された3次元Bモードデータを用いて、後述するレンダリング処理のために予め設定された視線上にデータを配列させるために、データの補間を実行する。補間部31は、データの補間により、図8で後述する視線上にデータを配置した視線データを発生する。なお、補間部31は、ゲイン調整された3次元Bモードデータを用いて、視線データを発生してもよい。補間部31は、視線データを後述する閾値決定部33と閾値処理部35とへ出力する。なお、補間部31は、Bモードデータ発生部25で発生されたローデータを、データ補間することによりローボクセル(RAW Voxel)変換して、ボリュームデータ(通常はボリュームである直方体を単位長さで区切った格子上にボクセルが配置される)を発生してもよいし、ローデータ乃至ボリュームデータから視線データを発生させてもよい。
 閾値決定部33は、視線データを用いて、統計処理を実行する。なお、閾値決定部33は、ローボクセル変換により発生されたボリュームデータを用いて、統計処理を実行してもよいし、ローデータを用いて統計処理を実行してもよい。一般に、統計処理を実行する前提条件はゲイン調整が終了していることで、階調反転処理は終了していても終了していなくてもよい。具体的には、閾値決定部33は、視線データにおける信号値の大きさと頻度とに基づいて、平均値と標準偏差とを計算する。次いで閾値決定部33は、例えば以下のようにして、平均値と所定の定数と標準偏差とを用いて、閾値を計算する。
 閾値=平均値+所定の定数×標準偏差 
 なお、信号値の大きさの替わりに、画素値、輝度値、階調値の大きさなどを用いてもよい。また、標準偏差の替わりに他の散布度(分散、平均偏差など)を用いることも可能である。なお、平均値の替わりに最頻値、中央値などでもよい。
 閾値決定部33は、一般的には、視線データを代表する値(以下、第4の代表値と呼ぶ)と散布度と所定の定数とを用いて、以下のように閾値を計算する。第4の代表値とは、例えば、上記平均値、最頻値、中央値などの総称である。
 閾値=第4の代表値+所定の定数×散布度 
 上記2式における所定の定数は、閾値が管腔(例えば、血管、胆管など)に関する信号値と非管腔(例えば、被検体内の実質臓器など)に関する信号値との間になるように予め設定される。非管腔に関する信号値の分布において、被検体および診断部位等によるばらつきは、経験的に少ない。このため、所定の定数は、例えば、様々な被検体や診断部位のデータを用いて決定され、予め設定されることも可能である。設定値は1つにしてもよいし、例えば診断部位毎に設定してもよい。このとき、所定の定数は、図示していないメモリに予め記憶される。閾値決定部33は、図示していないメモリから所定の定数を読み出して、閾値の計算を実行する。なお、上記所定の定数は、後述する入力部14を介して適宜操作者により調整可能である。なお、閾値決定部33は、被走査領域の走査毎に発生される視線データからなる視線データセットに基づいて、閾値を決定することも可能である。
 閾値処理部35は、閾値決定部33で決定された閾値を用いて、視線データに対する閾値処理を実行する。閾値処理部35は、閾値処理により管腔に関する信号値を、視線データに含まれる複数の信号値から取り出す。具体的には、閾値処理部35は、視線データが階調反転後の場合、閾値より小さい複数の信号値に対して、ゼロを割り当てる。なお、閾値決定部35は、閾値より大きい複数の信号値を、視線データに含まれる複数の信号値からクリッピングしてもよい。また、閾値処理部35は、閾値より小さい複数の信号値を、視線データに含まれる複数の信号値から除去してもよい。閾値処理部35は、閾値処理した視線データを、後述する画像発生部37に出力する。
 なお、階調反転前に上記閾値処理を実行する場合、閾値決定部33で決定される後述する閾値を用いて、閾値処理部35は、閾値決定部33で決定された閾値より大きい複数の信号値に対して、最大値(例えばここでは255)を割り当てる。
 また、閾値処理部35は上記閾値処理における大小関係を逆にすることにより、非管腔に関する信号値を取り出すことも可能である。なお、閾値処理部35は、後述する画像発生部37に組み込まれてもよい。
 画像発生部37は、閾値処理部35から出力された視線データを用いてレンダリング処理を実行する。なお、閾値処理を終了したデータがローデータ乃至ボリュームデータであった場合は、補間部31で補間処理を行い視線データに変換した後レンダリング処理を実行する。また、閾値処理を終了したデータが階調反転前のデータであった場合は、階調反転部29で階調反転処理を行った後にレンダリング処理を実行する。画像発生部37は、レンダリング処理により、管腔に関する2次元超音波画像を発生する。以下、レンダリング処理としてボリュームレンダリングについて、図7を用いて説明する。なお、レンダリング処理はボリュームレンダリングに限定されず、例えば、最大値投影法(Maximum Intensity Projection:以下、MIPと呼ぶ)などであってもよい。
 画像発生部37は、レンダリング処理により、後述する表示部13における2次元のモニタに3次元の物体を表示するために、視線データの投影を実行する。すなわち、画像発生部37は、3次元物体を投影面に投影することにより、2次元平面上の画像を発生する。投影法には透視投影法と平行投影法とがある。図7は、レンダリング処理における透視投影法の一例を示す図である。透視投影法は、視点(投影中心)が物体から有限長にある投影法である。これにより、視点から物体までの距離が長いほど(視点から遠方なほど)、物体は、小さく投影面に投影される。一方、平行投影法は、図示していないが、視点が物体から無限遠に位置する投影法である。なお、ボリュームレンダリングに当たっては、いずれの投影法を用いてもよい。
 図8は、ボリュームレンダリングにおける透視投影法に関する視線と視体積との一例を示す図である。視体積とは、視点から物体が見える領域である。ここで、物体とは、超音波3次元走査におけるROIまたはROIの一部に対応する。超音波の3次元走査により得られた3次元Bモードデータに含まれる複数の信号値は、階調反転後に、補間部31における補間処理により、視体積内の視線上に配置される。視線とは、視点から視体積内を貫く各方向に伸ばした直線のことをいう。なお、ここで用いた視線という用語は、上記定義に従うものとし、一般的な3次元コンピュータグラフィックスにおける視線の定義とは異なる。
 画像発生部37は、1つの視線上に配列された視体積内の複数の信号値を、ボリュームレンダリング法により投影面に投影する。これにより、画像発生部37は、超音波画像1画素の画像データを発生させる。画像発生部37は、以上の処理を複数の視線各々について実行することにより、超音波画像を発生する。この時、画像発生部37は、発生された超音波画像における信号列を、テレビなどに代表される一般的なビデオフォーマットの信号列に変換し、表示画像としての超音波画像を発生する。なお、画像発生部37は、図示していないカラー乃至ドプラ処理部から出力されたカラー乃至ドプラ信号に基づいて、カラー乃至ドプラ画像を発生してもよい。画像発生部37は、3次元Bモードデータに基づいて、ROIに関する多断面再構成(MultiPlanar Reconstruction:以下MPRと呼ぶ)画像を発生してもよい。画像発生部37は、MPR画像に関しては、前記ゲイン調整、閾値処理、及び階調反転処理を行った3次元Bモードデータを用いることにより、管腔に関する2次元超音波画像としてのMPR画像を発生する。また、画像発生部37は、前記ゲイン調整を行った3次元Bモードデータを用いることにより、感度が均質化されたMPR画像を発生する。
 記憶部39は、フォーカス深度の異なる複数の受信遅延パターン、本超音波診断装置1の制御プログラム、診断プロトコル、送受信条件等の各種データ群、3次元Bモードデータ、画像発生部37で発生された超音波画像およびMPR画像、ゲイン調整部27で用いられる所定の基準値、閾値決定部33で用いられる所定の定数、ゲイン調整値を決定するアルゴリズムに関するプログラム、閾値を決定するアルゴリズムに関するプログラムなどを記憶する。記憶部39は、後述する入力部14を介して操作されたフリーズ操作直前の超音波画像および視線データなどを記憶する。
 CPU41は、操作者により入力部14から入力されたモード選択、受信遅延パターンリストの選択、送信開始・終了に基づいて、記憶部39に記憶された送受信条件と装置制御プログラムを読み出し、これらに従って装置本体12を制御する。例えば、CPU41は、記憶部39から読み出した制御プログラムに従って、ゲイン調整部27と階調反転部29と補間部31と閾値決定部33と閾値処理部35とを制御する。
 インターフェース部43は、入力部14、ネットワーク、図示していない外部記憶装置および生体信号計測部に関するインターフェースである。装置本体12によって得られた超音波画像等のデータおよび解析結果等は、インターフェース部43とネットワークとを介して他の装置に転送可能である。
 表示部13は、画像発生部37からの出力に基づいて、超音波画像およびMPR画像を表示する。表示部13は、上記処理により被走査領域(またはROI)における管腔(例えば、血管、胆管など)を高輝度で表示する。図9は、表示部13において高輝度で表示された画像(キャビティ画像)の一例を示す図である。なお、表示部13は、画像発生部37で発生された超音波画像およびMPR画像に対して、ブライトネス、コントラスト、ダイナミックレンジ、γ補正などの調整および、カラーマップの割り当てを実行してもよい。
 入力部14は、インターフェース部43に接続され操作者からの各種指示・命令・情報・選択・設定を装置本体12に取り込む。入力部14は、図示していないトラックボール、スイッチボタン、マウス、キーボード等の入力デバイスを有する。入力デバイスは、表示画面上に表示されるカーソルの座標を検出し、検出した座標をCPU41に出力する。なお、入力デバイスは、表示画面を覆うように設けられたタッチパネルでもよい。この場合、入力部14は、電磁誘導式、電磁歪式、感圧式等の座標読み取り原理でタッチ指示された座標を検出し、検出した座標をCPU41に出力する。また、操作者が入力部14の終了ボタンまたはフリーズボタンを操作すると、超音波の送受信は終了し、装置本体12は一時停止状態となる。なお、入力部14は、操作者の指示に従って、装置本体12に所定の基準値を入力してもよい。また、入力部14は、閾値決定部33で用いられる所定の定数を入力してもよい。
  (キャビティ画像発生機能) 
 キャビティ画像発生機能とは、3次元Bモードデータに基づいてゲイン調整を実行し、ゲイン調整された3次元Bモードデータに基づいて閾値を決定し、決定された閾値に基づいて閾値処理を実行することにより、管腔に関する超音波画像(以下、キャビティ画像と呼ぶ)を発生する機能である。以下、キャビティ画像発生機能に関する処理(以下、キャビティ画像発生処理と呼ぶ)を説明する。
 図10は、キャビティ画像を発生させる処理の流れを示すフローチャートを示す図である。
 被検体に対する超音波送受信に先立って、入力部14を介した操作者の指示により、患者情報の入力、送受信条件、種々の超音波データ収集条件、ROIの設定および更新などが実行される。これらの設定および更新は、記憶部39に記憶される。これらの入力/選択/設定/決定が終了したならば、操作者は超音波プローブ11を被検体体表面の所定の位置に当接する。次いで送受信部23が、超音波を被検体に向けて送信する。送信された超音波に対応するエコー信号の受信(すなわち超音波スキャン)に基づいて、受信信号が発生される(ステップSa1)。
 発生された受信信号に基づいて、3次元Bモードデータが発生される(ステップSa2)。図11は、ゲイン調整前の3次元Bモードデータに含まれる複数の信号値に関するヒストグラムである。実質臓器に関する信号値は、管腔に関する信号値に比べて大きいことが特徴である。管腔に関する信号値のヒストグラムに重なるように、アーチファクトに関する信号値のヒストグラムが存在する。
 3次元Bモードデータに基づいて、レンジ深さ、第1、第2角度ごとにゲイン調整値が決定される(ステップSa3)。決定されたゲイン調整値を用いて、3次元Bモードデータに含まれる複数の信号値各々に対して、3次元的なゲイン調整が実行される(ステップSa4)。ゲイン調整により、アーチファクトに関するヒストグラムは、実質臓器に関するヒストグラムに取り込まれる。これにより、管腔に関するヒストグラムと実質臓器に関するヒストグラムとが区別される。
 以下、3次的なゲイン調整により、管腔に関するヒストグラムとアーチファクトに関するヒストグラムとが分離される論理について説明する。実質臓器は、被走査領域における空間において、管腔に比べて広い領域に亘って分布している。一方、管腔は実質臓器に比べて細く局所的であるため、被走査領域(l×m×n)中において管腔が占める体積は、実質臓器にくらべて小さい。加えて、アジマス方向に対応する面積(l×n)、エレベーション方向に対応する面積(l×m)、レンジ方向に対応する面積(m×n)各々において、管腔が占める面積は、実質臓器が占める面積にくらべて小さい。従って、所定の基準値および第1乃至第3の代表値は、実質臓器を反映した値となる。他方、アーチファクトは実質臓器のエコー信号に起因しているため、実質臓器同様、被走査領域における空間において、管腔に比べて広い領域に亘って分布している。これらのことから、所定の基準値および第1乃至第3の代表値は、実質臓器およびアーチファクトを反映した値となる。
 これらのことから、実質臓器およびアーチファクトに関する信号値に対するゲイン調整の影響は、管腔に関する信号値に対するゲイン調整の影響よりも大きくなる。すなわち、管腔に関するヒストグラムとアーチファクトに関するヒストグラムとがオーバーラップしている信号値近傍においては、アーチファクトに関するヒストグラムに関してのみゲイン調整がより強く実行されることになる。ここで、管腔とアーチファクトについては、ヒストグラム上はオーバーラップしていても空間的には分離しているので、この様なゲイン調整が可能となる。このゲイン調整により、管腔に関するヒストグラムは、アーチファクトに関するヒストグラムと区分される。図12は、ゲイン調整後の3次元Bモードデータに含まれる複数の信号値の大きさに関するヒストグラムの一例を示す図である。
 ゲイン調整が実行された複数の信号値は、階調反転部29により、階調が反転される。図13は、階調反転に関するグラフの一例を示す図である。このグラフによれば、例えば、入力された信号値が10であって、信号値の最大値が255である場合、出力される信号値は255-10=245であることを示している。階調反転された複数の信号値を用いて、統計処理が実行される(ステップSa5)。ステップSa5における統計処理により、例えば、ヒストグラム全体における信号値の平均値と標準偏差とが計算される。被走査領域およびROIにおいて、管腔の体積に比べて実質臓器の体積は、大きい。このため、ヒストグラム全体における信号値の平均値と標準偏差は、実質臓器のヒストグラムにおける信号値の平均値と標準偏差に近いものとなる。統計処理により計算された平均値と標準偏差とを用いて閾値が決定される(ステップSa6)。決定された閾値を用いて、ゲイン調整が実行された3次元Bモードデータに対して閾値処理が実行される(ステップSa7)。図14は、ゲイン調整および階調反転された3次元Bモードデータに含まれる複数の信号値のヒストグラムを、決定された閾値とともに示す図である。図14における閾値は、例えば所定の定数倍の標準偏差に平均値を加えた値としている。閾値処理により、実質臓器およびアーチファクトに関するヒストグラムが除去される。閾値処理された3次元Bモードデータに基づいて、管腔に関する超音波画像が発生される(ステップSa8)
 なお、ゲイン調整、階調反転、閾値処理は、ローデータ、ボリュームデータ、視線データの何れに対してもそれぞれ実行されてよい。また、ゲイン調整、階調反転、閾値処理は、一部の処理をローデータに対して実行し、一部の処理をボリュームデータに対して実行し、一部の処理を視線データに対して実行してもよい。また、ゲイン調整と階調反転とは、処理の順序を入れ替えることも可能である。さらに、階調反転と閾値処理とは、処理の順序を入れ替えることも可能である。階調反転より閾値処理を先に実行する場合、閾値を決定する計算は、以下のようになる。
 閾値=平均値-所定の定数×標準偏差 
一般的には、 
 閾値=第4の代表値-所定の定数×散布度 
となる。管腔に関するヒストグラムは閾値未満に存在し、実質臓器に関するヒストグラムは閾値以上に存在するため、閾値以上のヒストグラムを除去する。即ち、閾値以上のヒストグラムに属する複数の信号値各々に対して、最大階調(例えば255)が割り当てられる。図15は、階調反転前に実質臓器に関するヒストグラムを除去する場合において、ゲイン調整後の3次元Bモードデータに含まれる複数の信号値に関するヒストグラムを、閾値とともに示す図である。
  (ゲイン調整値決定機能) 
 ゲイン調整値決定機能とは、3次元Bモードデータに基づいて、被走査領域内の各走査線における深さとアジマス方向の走査範囲を規定する第1の角度、被走査領域におけるエレベーション方向の走査範囲を規定する第2の角度ごとにゲイン調整値を決定する機能である。以下、ゲイン調整値決定機能に関する処理(以下、ゲイン調整値決定処理と呼ぶ)を説明する。
 図16は、図10のステップSa3に係り、ゲイン調整値を決定する処理の流れを示すフローチャートである。3次元Bモードデータに含まれる複数の信号値を平均した値(以下、基準値と呼ぶ)が計算される(ステップSb1)。複数の第1の角度各々について、第1の角度が同一である複数の信号値を平均した値(以下、第1平均値と呼ぶ)が計算される(ステップSb2)。第1平均値から基準値を差分した第1の差(第1のゲイン調整値)が、第1の角度各々ついて計算される(ステップSb3)。複数の第2の角度各々について、第2の角度が同一である複数の信号値を平均した値(以下、第2平均値と呼ぶ)が計算される(ステップSb4)。第2平均値から基準値を差分した第2の差(第2のゲイン調整値)が、第2の角度各々ついて計算される(ステップSb5)。被走査領域における複数の深さ各々について、深さが同一である複数の信号値を平均した値(以下第3平均値と呼ぶ)が計算される(ステップSb6)。第3平均値から基準値を差分した第3の差(第3のゲイン調整値)が、深さ各々ついて計算される(ステップSb7)。なお、第1乃至第3のゲイン調整値が計算される順序は、それぞれ適宜入れ替え可能である。第1乃至第3の差が、複数の信号値各々における第1、第2の角度および深さにそれぞれ対応付けられた第1乃至第3のゲイン調整値として決定される(ステップSb8)。このようなゲイン調整により、実質臓器に関する信号値、画素値または階調は、一様に近づくことになる。
 以上に述べた構成によれば、以下の効果を得ることができる。 
 本超音波診断装置1によれば、3次元Bモードデータに基づいて決定された3次元的なゲイン調整値を用いて、3次元Bモードデータに含まれる複数の信号値各々について、3次元的なゲイン調整を実行することが出来る。ゲイン調整された3次元Bモードデータまたはボリュームデータに含まれる複数の信号値を用いて統計処理を実行することにより、管腔と非管腔との分割に用いられる閾値を決定することが出来る。決定された閾値を用いて閾値処理を実行することにより、管腔に関する画像(キャビティ画像)を発生することができる。これらのことから、アーチファクトが大幅に低減された管腔に関する超音波画像を発生することができ、診断能が向上する。加えて、キャビティ画像を得るための操作性が向上するため、検査効率が向上する。
 また、本超音波診断装置1によれば、ゲイン調整値を決定するアルゴリズムは、実質臓器と管腔とを区別して処理するような複雑なアルゴリズムを用いずに、単なる平均を用いているため、リアルタイム性を向上させることが出来る。これにより、3次元Bモードデータの発生ごとにゲイン調整値を更新することができ、最適なゲイン調整を実行することができる。加えて、3次元Bモードデータに含まれる複数の信号値各々に対してゲイン調整値を決定しているため、精度の良いゲイン調整を実行することが出来る。これらのことから、リアルタイム性の向上と管腔の検出能が向上することにより、検査効率が向上する。
 加えて、本超音波診断装置1によれば、シングルスイープのように、被走査領域に対する1回の走査で得られる3次元Bモードデータに対しても、ゲイン調整および閾値処理が可能である。また、シングルスープに限定されず、リアルタイムで走査している場合およびリアルタイムで走査中にフリーズして超音波画像を発生させる場合になどに対しても、ゲイン調整および閾値処理を実行することが出来る。
 また、本超音波診断装置1によれば、例えば、Bモード画像の輝度を調整するために、STC(Sensitivity Time Conrol)ゲイン調整およびBモードゲイン調整を行ったとしても、最適な閾値が維持され、操作性が大幅に向上する。これは以下の理由による。Bモードゲイン調整においては、ヒストグラムの分布状態は変わらず、分布全体の信号値または階調などがシフトするだけであるため、所定の定数を再設定する必要はない。また、STCゲイン調整においては、ある深さの信号値または階調が変化するが、本実施形態におけるゲイン調整値決定機能では、実質臓器に関する信号値が一様に近づくようにゲイン調整値が決定されるため、所定の定数を再設定する必要はない。
 加えて、本超音波診断装置1によれば、3次元的なゲイン調整が実行できることにより、例えば、フライスルーなどにおける管腔の精度が向上する。これにより診断効率が向上する。
 また、上記実施形態の変形例として、本超音波診断装置1の技術的思想を医用画像処理装置で実現する場合には、例えば図1の構成図における実線内の構成要素を有するものとなる。この時、キャビティ画像発生に関する処理は、ステップSa3からステップSa8の処理に対応する。これらの処理につては、実施形態と同様である。なお、ステップSa3における3次元Bモードデータは、予め記憶部39に記憶される。また、医用画像処理装置において、超音波診断装置から出力されたDICOMファイル(例えば、3次元Bモードデータなど)を読み込んで、上記処理を実行することも可能である。加えて、実施形態に係る各機能は、当該処理を実行するプログラムをワークステーション等のコンピュータにインストールし、これらをメモリ上で展開することによっても実現することができる。このとき、コンピュータに当該手法を実行させることのできるプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクなど)、光ディスク(CD-ROM、DVDなど)、半導体メモリなどの記憶媒体に格納して頒布することも可能である。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
 1…超音波診断装置、11…超音波プローブ、12…装置本体、13…表示部、14…入力部、23…送受信部、25…Bモードデータ発生部、27…ゲイン調整部、29…階調反転部、31…補間部、33…閾値決定部、35…閾値処理部、37…画像発生部、39…記憶部、41…制御プロセッサ(CPU)、43…インターフェース部

Claims (11)

  1.  複数の超音波振動子を有する超音波プローブと、
     前記超音波振動子各々に駆動信号を供給し、前記各超音波振動子によって発生された各受信エコー信号に基づいて、被走査領域に対応する受信信号を発生する送受信部と、
     前記受信信号に基づいて、3次元Bモードデータを発生するBモードデータ発生部と、
     前記被走査領域内の各走査線上における深さ、前記被走査領域におけるアジマス方向、前記被走査領域におけるエレベーション方向ごとに決定されたゲイン調整値を用いて、前記3次元Bモードデータに対するゲイン調整を実行するゲイン調整部と、
     前記ゲイン調整が実行された前記3次元Bモードデータを用いて、前記被走査領域における管腔と非管腔との分割に用いられる閾値を決定する閾値決定部と、
     前記決定された閾値を用いて、前記ゲイン調整が実行された3次元Bモードデータから前記非管腔に関するデータを区別するための閾値処理を実行する閾値処理部と、
     前記閾値処理が実行された3次元Bモードデータに基づいて、前記管腔に関する超音波画像を発生する画像発生部と、
     を具備することを特徴とする超音波診断装置。
  2.  前記ゲイン調整部は、
     前記アジマス方向の角度が同一である前記3次元Bモードデータを代表する第1の代表値と所定の基準値との第1の差と、
     前記エレベーション方向の角度が同一である前記3次元Bモードデータを代表する第2の代表値と前記基準値との第2の差と、
     前記深さが同一である前記3次元Bモードデータを代表する第3の代表値と前記基準値との第3の差とを、前記ゲイン調整値として決定すること、
     を特徴とする請求項1に記載の超音波診断装置。
  3.  前記ゲイン調整部は、前記ゲイン調整値の決定に用いられた前記3次元Bモードデータとは発生された時刻が異なる3次元Bモードデータに対するゲイン調整を実行すること、
     を特徴とする請求項1に記載の超音波診断装置。
  4.  前記超音波画像を表示する表示部と、
     前記表示された超音波画像をフリーズする操作を入力する入力部とをさらに具備し、
     前記ゲイン調整部は、前記入力部を介して入力されたフリーズ操作を契機として、フリーズされた超音波画像に関する3次元Bモードデータに基づいて決定された前記ゲイン調整値を用いて、前記フリーズされた超音波画像に関する3次元Bモードデータに対するゲイン調整を実行すること、
     を特徴とする請求項1に記載の超音波診断装置。
  5.  前記閾値決定部は、
     前記ゲイン調整が実行された前記3次元Bモードデータのヒストグラムにおける代表値に、前記ヒストグラムにおける散布度の定数倍の値を加算した値を、前記閾値として決定すること、
     を特徴とする請求項1に記載の超音波診断装置。
  6.  前記閾値決定部は、
     前記ゲイン調整が実行された前記3次元Bモードデータのヒストグラムにおける代表値に、前記ヒストグラムにおける散布度の定数倍の値を減算した値を、前記閾値として決定すること、
     を特徴とする請求項1に記載の超音波診断装置。
  7.  前記定数倍を示す数値を入力する入力部をさらに具備する請求項5と請求項6とのうちいずれか一項に記載の超音波診断装置。
  8.  前記画像発生部は、
     前記管腔に関する超音波画像として、レンダリング画像と多断面再構成画像とのうち少なくとも一つを発生すること、
     を特徴とする請求項1に記載の超音波診断装置。
  9.  複数の超音波振動子を有する超音波プローブと、
     前記超音波振動子各々に駆動信号を供給し、前記各超音波振動子によって発生された各受信エコー信号に基づいて、被走査領域に対応する受信信号を発生する送受信部と、
     前記受信信号に基づいて、3次元Bモードデータを発生するBモードデータ発生部と、
     前記被走査領域内の各走査線における深さ、前記被走査領域におけるアジマス方向、前記被走査領域におけるエレベーション方向ごとに決定されたゲイン調整値を用いて、前記3次元Bモードデータに対するゲイン調整を実行するゲイン調整部とを具備し、
     前記ゲイン調整部は、
     前記アジマス方向の角度が同一である前記3次元Bモードデータを代表する第1の代表値と所定の基準値との第1の差と、
     前記エレベーション方向の角度が同一である前記3次元Bモードデータを代表する第2の代表値と前記基準値との第2の差と、
     前記深さが同一である前記3次元Bモードデータを代表する第3の代表値と前記基準値との第3の差とを、前記ゲイン調整値として決定すること、
     を特徴とする超音波診断装置。
  10.  超音波画像を発生する画像発生部を更に具備し、
     前記画像発生部は、
     前記ゲイン調整が実行された3次元Bモードデータに基づいて、多断面再構成画像を発生すること、
     を特徴とする請求項9に記載の超音波診断装置。
  11.  3次元Bモードデータを記憶する記憶部と、
     前記3次元Bモードデータに基づいて、被走査領域内の各走査線における深さ、前記被走査領域におけるアジマス方向、前記被走査領域におけるエレベーション方向ごとに決定されたゲイン調整値を用いて、前記3次元Bモードデータに対するゲイン調整を実行するゲイン調整部と、
     前記ゲイン調整が実行された前記3次元Bモードデータを用いて、前記被走査領域における管腔と非管腔との分割に用いられる閾値を決定する閾値決定部と、
     前記決定された閾値を用いて、前記ゲイン調整が実行された3次元Bモードデータから前記非管腔に関するデータを区別する閾値処理を実行する閾値処理部と、
     前記閾値処理が実行された3次元Bモードデータに基づいて、前記管腔に関する超音波画像を発生する画像発生部と、
     を具備することを特徴とする医用画像処理装置。
PCT/JP2012/066615 2011-06-29 2012-06-28 超音波診断装置、および医用画像処理装置 WO2013002351A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201280000866.1A CN102958446B (zh) 2011-06-29 2012-06-28 超声波诊断装置以及医用图像处理装置
US13/604,324 US8724880B2 (en) 2011-06-29 2012-09-05 Ultrasonic diagnostic apparatus and medical image processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011144602A JP5823184B2 (ja) 2011-06-29 2011-06-29 超音波診断装置、医用画像処理装置および医用画像処理プログラム
JP2011-144602 2011-06-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/604,324 Continuation US8724880B2 (en) 2011-06-29 2012-09-05 Ultrasonic diagnostic apparatus and medical image processing apparatus

Publications (1)

Publication Number Publication Date
WO2013002351A1 true WO2013002351A1 (ja) 2013-01-03

Family

ID=47424237

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/066615 WO2013002351A1 (ja) 2011-06-29 2012-06-28 超音波診断装置、および医用画像処理装置

Country Status (3)

Country Link
JP (1) JP5823184B2 (ja)
CN (1) CN102958446B (ja)
WO (1) WO2013002351A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015050050A1 (ja) * 2013-10-01 2015-04-09 オリンパスメディカルシステムズ株式会社 超音波内視鏡システム及びその通信方法
JP7252206B2 (ja) * 2017-08-17 2023-04-04 コーニンクレッカ フィリップス エヌ ヴェ 画像アーチファクト特定及び除去のための深層学習ネットワークを有する超音波システム
JP7161544B2 (ja) * 2018-10-16 2022-10-26 オリンパス株式会社 超音波観測システム、超音波観測システムの作動方法、及び超音波観測システムの作動プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002209888A (ja) * 2001-01-15 2002-07-30 Fuji Photo Film Co Ltd 超音波診断装置
JP2002209889A (ja) * 2001-01-15 2002-07-30 Fuji Photo Film Co Ltd 超音波診断装置
JP2003339705A (ja) * 2002-05-28 2003-12-02 Aloka Co Ltd 超音波画像処理装置
JP2005103129A (ja) * 2003-10-01 2005-04-21 Ssb:Kk 生体組織多次元可視装置
JP2009066420A (ja) * 2007-09-17 2009-04-02 Siemens Medical Solutions Usa Inc 医療診断超音波イメージングの体積画像のゲイン最適化
JP2009225917A (ja) * 2008-03-21 2009-10-08 Toshiba Corp 画像処理装置及び画像処理方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060058674A1 (en) * 2004-08-31 2006-03-16 General Electric Company Optimizing ultrasound acquisition based on ultrasound-located landmarks
EP2007285B1 (en) * 2006-03-31 2014-02-26 Hitachi Aloka Medical, Ltd. Method and apparatus for automatic gain compensation in ultrasound imaging

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002209888A (ja) * 2001-01-15 2002-07-30 Fuji Photo Film Co Ltd 超音波診断装置
JP2002209889A (ja) * 2001-01-15 2002-07-30 Fuji Photo Film Co Ltd 超音波診断装置
JP2003339705A (ja) * 2002-05-28 2003-12-02 Aloka Co Ltd 超音波画像処理装置
JP2005103129A (ja) * 2003-10-01 2005-04-21 Ssb:Kk 生体組織多次元可視装置
JP2009066420A (ja) * 2007-09-17 2009-04-02 Siemens Medical Solutions Usa Inc 医療診断超音波イメージングの体積画像のゲイン最適化
JP2009225917A (ja) * 2008-03-21 2009-10-08 Toshiba Corp 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
CN102958446B (zh) 2016-06-15
JP5823184B2 (ja) 2015-11-25
JP2013009832A (ja) 2013-01-17
CN102958446A (zh) 2013-03-06

Similar Documents

Publication Publication Date Title
US10278670B2 (en) Ultrasound diagnostic apparatus and method of controlling ultrasound diagnostic apparatus
JP6462340B2 (ja) 超音波診断装置、画像処理装置及び画像処理方法
US8926512B2 (en) Ultrasonic imaging apparatus and ultrasonic velocity optimization method
JP7230255B2 (ja) 解析装置及び解析プログラム
JP5925438B2 (ja) 超音波診断装置
JP6288996B2 (ja) 超音波診断装置及び超音波イメージングプログラム
CN106963419B (zh) 解析装置
KR102011545B1 (ko) 초음파 진단 장치, 화상 처리 장치 및 화상 처리 방법
WO2015040710A1 (ja) 超音波診断装置、医用画像処理装置および医用画像処理方法
JP6415937B2 (ja) 医用画像処理装置、超音波診断装置、医用画像処理方法および医用画像処理プログラム
US8724880B2 (en) Ultrasonic diagnostic apparatus and medical image processing apparatus
JP2023126415A (ja) 超音波診断装置
JP6109498B2 (ja) 超音波診断装置及び超音波診断装置制御プログラム
US20240122577A1 (en) Ultrasonic diagnostic apparatus
JP2018020107A (ja) 解析装置及び解析プログラム
JP2023160986A (ja) 超音波診断装置及び解析装置
JP5823184B2 (ja) 超音波診断装置、医用画像処理装置および医用画像処理プログラム
JP7343342B2 (ja) 超音波診断装置、及び画像処理装置
JP7469877B2 (ja) 超音波診断装置、医用画像処理装置、および医用画像処理プログラム
JP7490387B2 (ja) 超音波診断装置
JP7066487B2 (ja) 超音波診断装置、医用画像処理装置及び医用画像処理プログラム
JP5449738B2 (ja) 超音波画像診断装置、画像処理装置及び超音波画像診断支援プログラム
JP2023104734A (ja) 超音波診断装置、及び画像処理装置
JP6207940B2 (ja) 超音波診断装置、医用画像処理装置および医用画像処理プログラム
JP2020138017A (ja) 超音波診断装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201280000866.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12804775

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12804775

Country of ref document: EP

Kind code of ref document: A1