WO2004100795A1 - 超音波画像生成方法 - Google Patents

超音波画像生成方法 Download PDF

Info

Publication number
WO2004100795A1
WO2004100795A1 PCT/JP2004/007123 JP2004007123W WO2004100795A1 WO 2004100795 A1 WO2004100795 A1 WO 2004100795A1 JP 2004007123 W JP2004007123 W JP 2004007123W WO 2004100795 A1 WO2004100795 A1 WO 2004100795A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
ultrasonic
body cavity
reference position
dimensional tomographic
Prior art date
Application number
PCT/JP2004/007123
Other languages
English (en)
French (fr)
Inventor
Junichi Ichikawa
Masahiro Takeda
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Priority to EP04733985.8A priority Critical patent/EP1625829B8/en
Publication of WO2004100795A1 publication Critical patent/WO2004100795A1/ja
Priority to US11/280,751 priority patent/US8162835B2/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • A61B8/5276Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts due to motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Definitions

  • the present invention relates to an ultrasonic image generating method for generating an ultrasonic image based on an ultrasonic echo obtained by transmitting and receiving ultrasonic waves to and from a subject.
  • ultrasonic diagnostic apparatuses are widely used in the medical field and the industrial field.
  • An ultrasonic diagnostic apparatus performs non-invasive diagnosis inside a subject by transmitting and receiving ultrasound to and from the subject.
  • the conventional ultrasonic diagnostic apparatus described above uses a radial image (a cross section perpendicular to the scanning axis of the ultrasonic transducer) or a linear image based on ultrasonic echo data obtained by transmitting and receiving ultrasonic waves to and from a subject. It has a method for generating a three-dimensional (three-dimensional) ultrasonic image constructed from two-dimensional tomographic images such as (horizontal section with respect to the scanning axis of the ultrasonic transducer).
  • Such a conventional ultrasonic image generation method for example, as described in Japanese Patent Application Laid-Open No. 2000-2504123, in order to make it easy to grasp the ultrasonic image stereoscopically, A device that generates a three-dimensional image from the surface of a body cavity has been proposed.
  • the problem is the “pulsation” of the human body.
  • an ultrasonic diagnostic apparatus performs radial scanning (vertical scanning with respect to the scanning axis of the ultrasonic transducer) and linear scanning (horizontal scanning with respect to the scanning axis of the ultrasonic transducer).
  • the helicopter force scan is performed to obtain the radial image and the linear image.
  • a two-dimensional tomographic image has been obtained.
  • the above-mentioned helical scan requires a time of about 2 to 4 seconds, for example.
  • the position of the region of interest is constant at the start and end of the scan due to the pulsation generated during about 2 to 4 seconds during the helical scan. It is common not to do it.
  • This “displacement” mainly causes a problem in the linear image. If the degree is too large, there is a possibility that a clear image will not be obtained even when the linear image is constructed.
  • the ultrasonic image generation method described in the above-mentioned Japanese Patent Application Laid-Open No. 2000-2504123 discloses that, when an image of an organ near a blood vessel is made three-dimensional, the organ moves under the influence of the pulsation. However, there is a problem that the image is distorted.
  • the ultrasonic image generation method described in the above-mentioned Japanese Patent Application Laid-Open No. 2000-316686 has obtained a certain effect regarding pulsation removal, pulsation removal is not yet sufficient. . Because of this, ultrasonic As an image generation method, a more effective method is required.
  • the conventional ultrasonic image generation method seeks to stabilize the ultrasonic image by finding the center of gravity of the body cavity as described in, for example, Japanese Patent No. 331626. What has been proposed.
  • the ultrasonic image generation method described in the above-mentioned Japanese Patent No. 3316628 has only an effect of stabilizing a two-dimensional tomographic image on a monitor, and is intended to eliminate the influence of pulsation. It has no effect if applied directly to an ultrasound image that has a three-dimensional spread (that is, a three-dimensional image).
  • the present invention has been made in view of the above circumstances, and an object of the present invention is to provide an ultrasonic image generation method capable of removing an influence of pulsation and obtaining an ultrasonic image with good image quality. Disclosure of the invention
  • An ultrasonic image generating method for generating an ultrasonic image based on ultrasonic echo data obtained by transmitting and receiving ultrasonic waves to and from a subject comprises: A reference position setting step for obtaining the upper reference position, and a regular continuous two-dimensional tomographic image in which the irregularity of the reference position of each of the two-dimensional tomographic images obtained in the base position setting step is corrected. And an ultrasonic image generating step of generating an ultrasonic image based on the regular continuous two-dimensional tomographic image corrected in the correcting step.
  • FIG. 1 is an overall configuration diagram of an ultrasonic diagnostic system according to a first embodiment of the present invention.
  • FIG. 2 is a diagram showing a specific example of a two-dimensional tomographic image (radial image) Gr.
  • FIG. 3 is a schematic diagram showing an ultrasonic image (three-dimensional image) G s.
  • FIG. 4 is a flowchart showing an ultrasonic image generation method in the ultrasonic diagnostic system of the first embodiment.
  • FIG. 5 is a diagram showing an image when surface coordinates are extracted to determine a surface extraction point.
  • FIG. 6 is a diagram showing an image when a polygon connecting the surface extraction points is generated to determine the center of gravity. '
  • FIG. 7 is a diagram showing an image when the position of the body cavity surface is shifted even if two radial images depict the same body cavity.
  • FIG. 8 is a diagram illustrating an image when the positions of the two radial images are adjusted to match the centers of gravity.
  • FIG. 9 is a diagram showing an image when the body cavity surface becomes smooth as a result of the smoothing.
  • FIG. 10 is a view showing an image when the surface positions of the body cavity surface do not match before and after smoothing.
  • FIG. 11 is a diagram showing a specific example of an ultrasound image (three-dimensional image) Gs.
  • FIG. 12 is a diagram showing that the radial image Gr is formed by several hundred pieces of line data.
  • FIG. 13 is an overall configuration diagram of an ultrasonic diagnostic system according to the second embodiment of the present invention.
  • FIG. 14 is a schematic diagram showing a sound ray when scanning the surface position of the body cavity.
  • FIG. 15 is a histogram showing the frequency with respect to luminance created by sampling a predetermined number of all sound rays.
  • FIG. 16 is a first schematic diagram when a target is determined to be a living tissue with respect to a scan line of a sound ray.
  • FIG. 17 is a second schematic diagram when a target is determined to be a living tissue with respect to a scan line of a sound ray.
  • FIG. 18 is a schematic diagram for explaining the correction processing of the erroneous extraction.
  • FIG. 19 is a first explanatory diagram showing a specific example of obtaining a body cavity center (X, Y) as a reference position.
  • FIG. 20 is a second explanatory diagram showing a specific example of obtaining the body cavity center (X, Y) as the reference position.
  • FIG. 21 is a schematic diagram for explaining a process of smoothing the position of the surface of the body cavity using the images before and after.
  • FIG. 9 is a schematic diagram when performing a distance correction process so as to coincide with FIG.
  • FIG. 23 is a flowchart illustrating an ultrasonic image generation method in the ultrasonic diagnostic system according to the second embodiment.
  • FIG. 24 is a flowchart showing a subroutine for determining the surface extraction points in FIG.
  • FIG. 25 is an example of a first ultrasonic image obtained conventionally.
  • FIG. 26 is a first example of an ultrasonic image processed by the flowchart of FIG. .
  • FIG. 27 is an example of a second ultrasound image obtained conventionally.
  • FIG. 28 is an example of a second ultrasonic image processed by the flowchart of FIG. BEST MODE FOR CARRYING OUT THE INVENTION
  • an ultrasonic diagnostic system 1 includes an ultrasonic probe 2 having an ultrasonic vibrator 2a described later and an ultrasonic echo signal received by the ultrasonic probe 2.
  • the main unit (ultrasonic image processing device) 3 that generates ultrasonic images by signal processing, and the monitor 4 that inputs the output image signal output from the main unit 3 and displays real-time ultrasonic images Unit is configured.
  • the ultrasonic probe 2 includes an elongated and flexible insertion portion 11 that can be inserted into a body cavity, and a drive portion 12 that has a proximal end side of the insertion portion 11 that is detachably connected to the insertion portion 11. Is done.
  • the input unit 11 has a built-in ultrasonic vibrator 2a for transmitting and receiving ultrasonic waves at the distal end 11a.
  • the ultrasonic vibrator 2 a is attached to the tip of the flexible shaft 21.
  • the ultrasonic probe 2 has an end 1 la covered with an acoustic cap that transmits ultrasonic waves.
  • the area around the ultrasonic transducer 2a is filled with an ultrasonic propagation medium (not shown) for transmitting (propagating) ultrasonic waves.
  • the ultrasonic transducer 2a has a signal line (not shown) extending therefrom. The signal line is connected to an ultrasonic observation unit 31 described later in the apparatus body 3 via the drive unit 12. I have.
  • the ultrasonic probe 2 drives a first motor (not shown) incorporated in the drive unit 12 so that the ultrasonic transducer 2a is driven to rotate to perform radial scanning. Further, the ultrasonic probe 2 drives a second motor (not shown) built in the driving unit 12 so that the flexible shaft 21 can be moved in the axial direction of the insertion unit 11 (for example, Z in the longitudinal direction). By moving back and forth in the axial direction), the ultrasonic transducer 2a moves back and forth and can perform linear scanning.
  • the ultrasonic probe 2 synchronizes the first mode and the second mode of the driving unit 12 with the second mode, and simultaneously rotates the first mode and the second mode.
  • the device main body 3 can obtain a large number of two-dimensional tomographic images having slightly different coordinate positions in the Z-axis direction, and can construct an ultrasonic image (three-dimensional image) from these two-dimensional tomographic images. It is like that.
  • the drive unit 12 is connected to the apparatus main body 3 by the cable 12 a.
  • the apparatus main body 3 transmits and receives an ultrasonic signal to and from the ultrasonic transducer 2a, and obtains an ultrasonic echo image in a three-dimensional area.
  • a position detection unit 32 that obtains the position data of the insertion part 11a of the ultrasonic probe 2 in the body cavity (for example, in the stomach 20), a position detection unit 32, and an ultrasonic observation unit Ultrasound image data is obtained based on the data of 31.
  • the position data from the position detection unit 32 is associated with the two-dimensional tomographic image to identify the position of the radial scan plane, and the An image processing unit 33 having a CPU for generating an ultrasonic image (three-dimensional image) based on a sound image generating method and an ultrasonic image generating program is provided.
  • the image processing unit 33 is provided with a mouse 34 which is a screen operation means capable of interactively operating images as shown in FIGS. It is connected.
  • the mouse 34 has a function for performing a screen operation on an image displayed on the display screen of the monitor 4 using a mouse.
  • the image processing unit 33 has a function of a control means for relatively moving the selected operation target with the movement of the mouse 34 based on the selection of the operation target of the screen operation by the mouse 34. are doing.
  • the image processing section 33 may be connected to a large-capacity external storage device (not shown) for recording image data and the like via an interface (not shown).
  • the image processing unit 33 performs helical scanning of the ultrasonic transducer 2 a at a predetermined pitch unit, performs coordinate conversion on the ultrasonic echo obtained by the ultrasonic observation unit 31, and inserts the insertion unit 1.
  • a plurality of two-dimensional tomographic images (hereinafter referred to as radial images) G r as shown in Fig. 2 with a cross section almost perpendicular to the axial direction of 1 (that is, the Z-axis direction) are generated.
  • These generated radial images Gr correspond to, for example, the ultrasonic tomographic plane 2OA in the stomach 20 shown in FIG.
  • the image processing unit 33 converts the plurality of radial images Gr continuously obtained in a predetermined pitch unit into the position of the leading end 11 a of the ultrasonic probe 2 detected by the position detection unit 32.
  • Figure 3 in relation to the data A pseudo ultrasound image (three-dimensional image) Gs is generated as shown in Fig. 2.
  • the organ moves due to the pulsation, and the ultrasound image (3D image) G s is distorted.
  • the influence of the pulsation is removed by the ultrasonic image generation method and the ultrasonic image generation program described below.
  • the ultrasonic image generating method and the ultrasonic image generating program will be described with reference to FIGS. 5 to 11 based on the flowchart shown in FIG.
  • the ultrasonic probe 2 is configured to rotate the first motor and the second motor of the drive unit 12 at the same time by rotating them synchronously so that the ultrasonic vibrator 2 a has a predetermined bite. Perform helical scanning in units.
  • the apparatus main body 3 inputs the 'ultrasonic echo signal in the three-dimensional region received by the ultrasonic transducer 2a to the ultrasonic observation unit 31.
  • the ultrasonic observation unit 31 receives a single ultrasonic echo signal in the three-dimensional region from the ultrasonic transducer 2a, converts the ultrasonic echo signals into coordinates, and generates a plurality of continuous radial images Gr. I do.
  • the image processing unit 33 sequentially obtains a plurality of radial images Gr by sequentially inputting the image data of the radial images Gr from the ultrasonic observation unit 31 (step ⁇ ). Step S1).
  • the position detector 32 acquires the position data of the distal end portion 11a of the ultrasonic probe 2 in the body cavity, and sequentially outputs the acquired position data to the image processor 33.
  • the image processing unit 33 identifies the position of the radial scan plane by associating the position data from the position detection unit 32 with the continuous radial images Gr from the ultrasonic observation unit 31. I do.
  • the image processing unit 33 performs a reference position setting step of obtaining a reference position on each image for a plurality of continuous radial images Gr.
  • the following steps S2 and S3 are performed.
  • the image processing unit 33 extracts the surface coordinates of each image from a plurality of continuous radial images Gr, and determines a surface extraction point (step S2).
  • the image processing unit 33 generates a search line 40a from the center of the image, extracts a portion having a large luminance change as surface coordinates, and extracts the surface coordinates. Determine the extraction point 4 1.
  • the image processing unit 33 obtains the center of gravity as a reference position on each of the continuous radial images G (step S3).
  • the image processing unit 33 generates, for example, a polygon 42 connecting the surface extraction points 41 as shown in FIG. 6, and obtains a center of gravity 43.
  • the center of gravity 43 of the polygon is obtained using the physical center of gravity.
  • a geometric center of gravity may be used as the center of gravity 43.
  • the image processing unit 33 approximates a circle (not shown) in which the polygon 42 is almost inscribed, finds a center point of the circle, and sets it as a center of gravity. You may do it.
  • the image processing unit 33 corrects the irregularity of the center of gravity 43 with respect to each of the radial images Gr obtained in the reference position setting step (S 2, S 3), and obtains a continuous radial image G r.
  • the following steps S4 to S7 are performed as correction steps for obtaining r.
  • a plurality of continuous radial images Gr are displaced in the images as shown in FIG. 7, for example, due to the influence of the pulsation or the mechanical shake of the probe itself.
  • the positions of the body cavity surfaces 51 B and 52 B are shifted between the radial image Gr 51 and the radial image Gr 52 even though the same body cavity is depicted.
  • the image processing unit 33 includes a plurality of radial The position of these images is adjusted by moving the image Gr, and processing such as matching the center of gravity on each image determined in S3 (aligning the center of gravity) is performed (step S4).
  • the image processing unit 33 adjusts the position of the image by moving the radial image Gr 51 and the radial image Gr 52 in the vertical and horizontal directions, for example, as shown in FIG. Match 5 2 A.
  • the image processing unit 33 may move the image position of the radial image Gr 52 in the vertical and horizontal directions while fixing the image position of the radial image Gr 51 specified in advance by the user. And vice versa. As a result, the image processing unit 33 can reduce large mechanical “blurring”.
  • the image processing unit 33 smoothes the surface extraction points of the predetermined radial image Gr sandwiched between these images using the preceding and succeeding images. Performs a process of smoothing the position of the surface of the body cavity (step S5).
  • the image processing unit 33 obtains the number of images to be referred to for smoothing by the following formula (1).
  • the pitch is a distance between each two-dimensional tomographic image (radial image G r).
  • the number of images to be referred to for smoothing is 16 at 0.25 millipitch, and 4 at 1 millipitch.
  • the image to be referred to is determined by the following formula (2).
  • n is a numerical value starting from 0 and ending with 1 for the number of reference images.
  • the image processing unit 33 smoothes the surface extraction points 41 of a predetermined radial image sandwiched between these images by using the preceding and following images, and smoothes the position of the body cavity surface.
  • an image 55 formed by the radial image Gr 51 and the radial image Gr 52 becomes a body cavity.
  • Surface 5 5 B becomes smooth.
  • Reference numeral 55 A is the center of gravity of the image 55.
  • the radial image Gr is, for example, the surface position of the body cavity surface 61 before the smoothing (the position of the extracted body cavity surface) and the smoothed body cavity surface 62 May not match the surface position.
  • Reference numeral 63 denotes a difference between the surface position of the body cavity surface 61 before smoothing (the position of the extracted body cavity surface) and the surface position of the smoothed body cavity surface 62.
  • the side section 71 cannot be generated from each radial image Gr in accordance with the smoothed body cavity surface.
  • the image position shown in FIG. 10 is adjusted so that the surface position of the body cavity surface 61 before smoothing (the position of the extracted body cavity surface) and the surface position of the smoothed body cavity surface 62 match each other. 0 needs to be transformed.
  • the image processing unit 33 calculates the difference between the surface position of the body cavity surface before smoothing (the extracted body cavity surface) and the surface position of the smoothed body cavity surface.
  • a process for expanding or contracting a predetermined radial image Gr is performed based on this (steps S6 and S7).
  • the image processing unit 33 calculates the position of the body cavity surface 6 1 before smoothing (the position of the extracted body cavity surface) and the position of the smoothed body cavity surface 6. Calculate the difference 6 3 from the position of 2, The image is expanded or contracted based on the calculated difference 63.
  • the image processing unit 33 can generate a radial image Gr that can be matched with the smoothed body cavity surface. Then, the image processing unit 33 obtains the continuous radial images Gr corrected in the correction steps (S4 to S7), and the position detecting unit 32 detects the continuous radial images Gr based on these continuous radial images Gr.
  • An ultrasonic image generation step (step S8) for generating an ultrasonic image (three-dimensional image) Gs in association with the position data is performed.
  • the image processing section 33 can generate an ultrasonic image (three-dimensional image) G s having a smooth body cavity surface 72 as shown in FIG.
  • the radial image Gr is formed as a raw image of the ultrasonic echo data, for example, as shown in an image 80 shown in FIG. It is represented by the echo intensity of the sound ray data 81.
  • the image processing unit 33 converts the sound ray data into a digital coordinate data from a coordinate scan system DSC (a polar coordinate system generated by a radial scan) into an image data in a rectangular coordinate system.
  • a coordinate scan system DSC a polar coordinate system generated by a radial scan
  • the position of the extracted body cavity surface is aligned with the polygon surface (the position of the smoothed body cavity surface), so that each sound ray data Perform a flexible expansion and contraction.
  • the image processing unit 33 applies the effect of smoothing to the sound ray distance obtained from the coordinate conversion table of the sound ray data (that is, the difference of the surface position in S6 described above).
  • the expansion / contraction processing is performed taking into account the difference between the distances before and after the smoothing corresponding to 63).
  • the ultrasonic image generation method and the ultrasonic image generation program according to the first embodiment are used not only during the examination, but also when reproducing the data stored after the ultrasonic examination (for image treatment for future treatment policy, etc.). It can also be used for you and volume measurement.
  • the ultrasonic image generating method and the ultrasonic image generating program in the first embodiment are configured such that the position detecting section 32 obtains the position data of the insertion section distal end 11 a of the ultrasonic probe 2.
  • the present invention is not limited to this.
  • the ultrasonic echo data of a three-dimensional area is manually acquired in a pseudo manner, and is displayed as a 3D image (an oblique surface construction for displaying a body cavity surface) as an ultrasonic image.
  • applying the ultrasonic image generating method and the ultrasonic image generating program of the present invention is effective in improving the image quality.
  • the ultrasonic image generation method and the ultrasonic image generation program according to the first embodiment provide a high-quality two-dimensional tomographic image having no image distortion that is not affected by pulsation or mechanical vibration of the probe itself. Images and ultrasound images (three-dimensional images) can be acquired.
  • the first embodiment is configured to generate a polygon 42 connecting the surface extraction points 41 as a reference position on each image for a plurality of continuous radial images Gr, and obtain a center of gravity 43.
  • the surface of the body cavity is converted from polar coordinates to rectangular coordinates as a reference position on each image, and placed at 3, 6, 9, 12 o'clock on the rectangular coordinates. It is configured to find the body cavity center based on the four extracted points.
  • the rest of the configuration is the same as in the first embodiment, and a description thereof will be omitted.
  • the same components will be described with the same reference numerals. That is, as shown in FIG.
  • the ultrasonic diagnostic system 1B of the second embodiment includes an ultrasonic probe 2B having an ultrasonic vibrator 2a built therein and an ultrasonic probe 2B received by the ultrasonic probe 2B.
  • a main unit (ultrasonic image processing device) 3B that processes the echo signal to generate an ultrasonic image, and displays an ultrasonic image in real time by inputting the output image signal output from the main unit 3B.
  • the main part is composed of the monitor 4 that operates.
  • the ultrasonic probe 2B comprises an elongated and flexible insertion portion 11 that can be inserted into a body cavity, and a drive portion 12 that has a proximal end side of the insertion portion 11 that is detachably connected. Is done.
  • the insertion section 11 has a built-in ultrasonic vibrator 2a for transmitting and receiving ultrasonic waves at the distal end 11a.
  • the ultrasonic transducer 2a is attached to the tip of the flexible shaft 21.
  • the ultrasonic probe 2B has a tip 11a covered with an acoustic cap that transmits ultrasonic waves.
  • the area around the ultrasonic transducer 2a is filled with an ultrasonic wave propagation medium (not shown) for transmitting (propagating) ultrasonic waves.
  • a signal line (not shown) extends, and this signal line is connected to the ultrasonic observation unit 31 in the apparatus main body 3B via the drive unit 12.
  • the ultrasonic probe 2B drives the first motor (not shown) built in the drive unit 12 so that the ultrasonic transducer 2a is driven to rotate and performs radial scanning. . Further, the ultrasonic probe 2B drives the second motor (not shown) built in the driving section 12 so that the flexible shaft 21 can be moved in the axial direction (longitudinal direction) of the insertion section 11. (For example, the Z-axis direction), the ultrasonic transducer 2a can move forward and backward to perform linear scanning.
  • the ultrasonic probe 2B synchronously drives the first motor and the second motor of the drive unit 12 to rotate simultaneously, whereby the ultrasonic transducer 2a transmits and receives ultrasonic waves in a spiral manner.
  • This allows helical scanning of a three-dimensional area in the subject.
  • the apparatus main body 3B can obtain a large number of two-dimensional sectional images whose coordinate positions in the Z-axis direction are slightly different from each other, and can construct an ultrasonic image (three-dimensional image) from these two-dimensional tomographic images. And so on.
  • a drive section 12 is connected to the apparatus main body 3B by a cable 12a.
  • the apparatus main body 3B transmits and receives an ultrasonic signal to and from the ultrasonic transducer 2a, and obtains ultrasonic echo data in a three-dimensional area by an ultrasonic observation section 31 and an ultrasonic observation section 31.
  • CPU that generates ultrasonic image data based on the obtained ultrasonic echo data and generates an ultrasonic image (three-dimensional image) based on an ultrasonic image generating method and an ultrasonic image generating program described later.
  • an image processing section 33 B having the following.
  • the image processing unit 33 B has an interface not shown by the mouse 34, which is a screen operation means capable of interactively operating images as shown in FIGS. 25 and 26 described below. Connected through. This mouse
  • Reference numeral 34 has a function for performing a screen operation on the image information displayed on the display screen of the monitor 4 using a mouse cursor.
  • the image processing unit 33B has a function of a control unit that relatively moves the selected operation target with the movement of the mouse 34 based on the selection of the operation target of the screen operation using the mouse 34. are doing. It should be noted that a large-capacity external storage device (not shown) for recording image data and the like may be connected to the image processing section 33B via an interface (not shown).
  • the image processing unit 33B performs helical scanning of the ultrasonic transducer 2a in predetermined pitch units, and performs coordinate transformation of the ultrasonic echo data obtained by the ultrasonic observation unit 31.
  • These generated radial images Gr correspond to, for example, the ultrasonic tomographic plane 2OA in the stomach 20 shown in FIG.
  • the image processing unit 33 B converts a plurality of radial images Gr continuously obtained in a predetermined pitch unit into, for example, a pseudo ultrasonic image (three-dimensional image) as shown in the upper right diagram of FIG. Image) G s is generated.
  • the images displayed on the upper side of the radial image Gr and on the lower side of the ultrasonic image (three-dimensional image) Gs are input sections 11 generated based on the radial image Gr. This is a linear image of a cross section that is almost horizontal in the axial direction (that is, the Z-axis direction).
  • the ultrasound image (three-dimensional image) Gs is distorted as shown in Fig. 25.
  • the influence of the pulsation is removed by the ultrasonic image generation method and the ultrasonic image generation program described below.
  • the surface extraction process is a process for discriminating water such as an ultrasonic transmission medium or a body fluid from a living tissue.
  • the radial image Gr is composed of, for example, hundreds of sound rays called sound rays, and is represented by the eco-luminance of these sound rays.
  • each sound ray is searched from the probe center (ultrasonic transducer) in the peripheral direction, and the part that changes from water to living tissue is searched. The following processing is used to improve the accuracy of this search.
  • the original gradation 0 (low reflection) to 255 (strong reflection) is divided into 0 (low reflection) to 15 (strong reflection) for smoothing.
  • the peak is determined from the differential value (slope) and the absolute value (height) of each point on the graph. Normally, the peaks on the histogram have the following two patterns.
  • the threshold value is an intermediate value between these two peaks.
  • the threshold value exceeds 80 (the threshold value in the smoothed gradations 0 to 15 is approximately 5) in the original gradations 0 to 255, good judgment between water and living tissue cannot be made in many cases. . Therefore, the upper limit of the threshold is set to 80 If it exceeds that, it rounds to 80.
  • the most common method for removing the noise is frame correlation, but in order to avoid smoothing the image itself as much as possible, the present embodiment measures and judges the thickness of the object. .
  • the noise that is actually erroneously recognized has a thickness of the object of 0.2 mm or less.
  • a certain thickness is set, and if the target object is equal to or larger than the set value, it is determined to be a living tissue. If the set value is small, erroneous extraction increases, and if it is too large, the layer structure of the living tissue is determined to be noise.
  • the target when the thickness of the target is about 0.5 mm as shown in FIG. 16, the target is determined to be a living tissue.
  • the above method is effective for very small noise. However, it is ineffective for noise in a broad sense, that is, noise that actually has a certain thickness, such as suspended matter in a body cavity.
  • a luminance average of a certain thickness of the object is obtained, and if the obtained luminance average is equal to or larger than the ⁇ value, it is determined to be a living tissue.
  • the thickness of the object for which the average brightness is to be determined is about 2 mm, and when the average brightness of the thickness of about 2 mm is equal to or greater than the threshold, the tissue is determined to be a living tissue.
  • the target extraction point is set at the probe center (super The distance from the sound wave transducer) is compared with the distance between the sound rays before and after it, and correction processing for erroneous extraction is performed.
  • the distance difference is calculated for the four points before and after, and the legitimacy of the target point is evaluated from the tendency.
  • Lt be the actual extraction point of the ray N.
  • the sound ray N determines the body cavity surface before the actual body cavity surface due to erroneous extraction.
  • the expected extraction point Lx of the sound ray N is calculated.
  • Ll length of sound ray N_2
  • L2 length of sound ray N—1
  • L3 length of ray N + 1
  • L4 length of ray N + 2
  • the average of the above D12 and D34 indicates a tendency to increase or decrease the distance from the probe center (ultrasonic transducer) to the surface of the body cavity.
  • the value obtained by adding this tendency to the average surface distance is the expected extraction point of the target point.
  • the mis-extraction point is either before or after the body cavity surface position. Then, the expected extraction point Lx is compared with the actual extraction point Lt, and if the actual extraction point Lt is more than 3 mm away from the above calculated expected extraction point LX, the actual extraction point Lt is calculated as above. By replacing it with the extraction point Lx, erroneous extraction is corrected. Note that, although not shown, the correction processing of the erroneous extraction is performed at six sound rays N-3, N-2, N-1, Based on the N + 1 5 N + 2 5 N + 3, may be calculated expected extraction point L x sound ray N.
  • the extracted body cavity surface is converted from polar coordinates (sound ray number and distance) to rectangular coordinates, and is placed clockwise on the rectangular coordinates at positions 3, 6, 9, 12 o'clock. From the surface distance of the sound ray (the distance from the probe center (ultrasonic transducer) to the extraction point), determine the body cavity center. Specifically, the center of the body cavity (X, Y) is
  • the center of the body cavity (X, ⁇ ) is the position of the X mark which is the center of the substantially circle.
  • the center of the body cavity (X, ⁇ ) is the position of the X mark which is the center of the substantially rhombus.
  • the calculated body cavity center (X, ⁇ ) may exist outside the living tissue.
  • the positions of these radial images Gr are adjusted by moving each of the plurality of radial images Gr in the same manner as described in the first embodiment.
  • the center of the body cavity ( ⁇ , ⁇ ) is matched (the center of the body cavity is aligned).
  • the number of radial images Gr (data) to be referred to for smoothing is 8 mm in a plane (0.25 mm pitch) between 2 mm in the Z-axis direction (longitudinal direction).
  • the surface position of the surface of the body cavity is smoothed by averaging 4 surfaces in the case of 0.5 mm millipitch.
  • the surface position of the body cavity surface before smoothing (the position of the extracted body cavity surface) and the surface position of the smoothed body cavity surface are the same as described in the first embodiment.
  • the difference between the surface position of the body cavity surface before smoothing (extracted body cavity surface) and the surface position of the smoothed body cavity surface is calculated, and a predetermined value is determined based on the calculated difference. Perform processing to expand and contract the radial image G ⁇ .
  • sound ray data is converted into a radial image, and the surface position of the body cavity surface before smoothing (surface coordinates before smoothing) is changed to the smoothed body cavity surface.
  • the distance correction processing is performed so as to match the surface position of (surface coordinates after smoothing).
  • the distance correction processing is performed according to the procedure described below.
  • the distance difference between the surface position of the smoothed body cavity surface (surface coordinates after smoothing) and the surface position of the body cavity surface before smoothing (surface coordinates before smoothing) is calculated.
  • the distance D between the surface position of the body cavity surface before smoothing (surface coordinates before smoothing) and the surface position of the smoothed body cavity 'surface (surface coordinates after smoothing) is calculated.
  • This distance D is determined by the intersection R between the n-th sound ray and the surface position of the body cavity surface before smoothing (surface coordinates before smoothing), and the surface position of the n-th sound ray and the smoothed body cavity surface (smooth surface position). From the intersection Q with the surface coordinates after
  • the origin of the probe center (ultrasonic transducer) is set to 0, and the line segment of the smoothed surface position (surface coordinates after smoothing) including the intersection point Q with the straight line 0 Pn is P 1 P Assuming 2, the intersection Q (x, y) can be obtained from the following equation.
  • a difference D between the intersections QP can be calculated from the intersections Q and the intersections R.
  • the sound ray data that determines an arbitrary point P (x, y) on the radial image—the point in the evening is obtained by the following formula.
  • L the distance from the origin 0 to the body cavity surface
  • D the surface position of the smoothed body cavity surface
  • D the surface position of the smoothed body cavity surface (surface coordinates after smoothing) is adjusted to match the surface position of the body cavity surface before smoothing (surface coordinates before smoothing). ) be able to. That is, processing for expanding and contracting a predetermined radial image Gr can be performed.
  • the ultrasonic probe 2 B synchronizes the first motor and the second motor of the drive unit 12 and simultaneously rotates and drives the ultrasonic probe 2 B, so that the ultrasonic transducer 2 a Scans the helical force in specified pitch units.
  • the ultrasonic echo signal in the three-dimensional region received by the ultrasonic transducer 2a is input to the ultrasonic observation unit 31.
  • the ultrasonic observation unit 31 receives the ultrasonic echo signals in the three-dimensional region from the ultrasonic transducer 2a, converts the ultrasonic echo signals into coordinates, and generates a plurality of continuous radial images Gr. I do.
  • the image processing unit 33B sequentially obtains the image data of the radial image Gr from the ultrasonic observation unit 31 to acquire a plurality of continuous radial images G ⁇ (step S 1 1).
  • the image processing unit 33B discriminates water such as an ultrasonic transmission medium or a body fluid from living tissue by the surface extraction processing described with reference to FIGS. 15 to 17, and obtains the radial image Gr. Is generated.
  • the image processing unit 33B performs the following steps S12 and S13 as a reference position setting step for obtaining a reference position on each image for a plurality of continuous radial images Gr. .
  • the image processing unit 33B extracts surface coordinates of each image from a plurality of continuous radial images Gr, and determines a surface extraction point. Step S1 2).
  • the image processing unit 33B determines the surface extraction points by the erroneous extraction correction processing described in FIG. 18 based on the flow chart shown in FIG.
  • step S21 two (N-2, N-1, N + 1, N + 2) before and after the target sound ray N are specified (step S21).
  • the difference D12 between the sound ray N-2 and the sound ray N-1 and the difference D2t between the sound ray N-1 and the sound ray N are calculated, and the sound ray N + 1 and the sound ray N + 2 are calculated.
  • the difference D34 between the sound ray N and the sound ray N + 1 is calculated (step S22), and the length (expected extraction point) Lx of the target sound ray N is calculated (step S22). Step S23).
  • the surface extraction point is determined by substituting the length of the sound ray N (step S24).
  • the image processing unit 33B can extract the surface coordinates of each of the plurality of continuous radial images Gr.
  • the image processing unit 33B calculates the center of the body cavity as a reference position on each image from the body cavity surface coordinates obtained by the above-described erroneous extraction correction process for a plurality of continuous radial images Gr (step S13).
  • the image processing unit 33B determines the reference position by the body cavity center calculation process described with reference to FIG. 19 and FIG.
  • the image processing unit 33 B is arranged clockwise at positions 3, 6, 9, and 12 o'clock when the polar coordinates (sound ray number and distance) are converted into rectangular coordinates as described above.
  • the center of the body cavity is calculated from the surface distance of the sound ray (the distance from the probe center (ultrasonic transducer) to the extraction point). Therefore, the above body cavity center calculation processing is performed at four points: 3, 6, 9, and 12 o'clock. Since the center of the body cavity is calculated only at the position of, the calculation process is much more complicated than generating the polygon connecting the surface extraction points and finding the center of gravity as the reference position as in the first embodiment.
  • the calculation time is short and the reference position can be calculated quickly.
  • the reference position can be calculated faster than in the first embodiment, and speed-up can be achieved.
  • the image processing unit 33B moves the plurality of radial images G ⁇ ⁇ and adjusts the positions of these images in the same manner as described in the first embodiment. Then, for each image, the center of body cavity (X, Y) obtained by the above processing is matched (the center of body cavity is aligned).
  • the image processing unit 33 B performs smoothing in the Z-axis direction (longitudinal direction) on the surface extraction point of a predetermined radial image Gr sandwiched between these images using the preceding and following images. Then, a process for smoothing the position of the body cavity surface is performed (step S15).
  • the image processing unit 33B After the smoothing, the image processing unit 33B performs the smoothing on the surface position of the body cavity surface before the smoothing (the position of the extracted body cavity surface) in the same manner as described in the first embodiment.
  • the difference between the surface position of the body cavity surface before smoothing (extracted body cavity surface) and the surface position of the smoothed body cavity surface is calculated so that the surface position of the body cavity surface matches, and the calculated difference is calculated.
  • a process of expanding and contracting a predetermined radial image Gr based on is performed.
  • the image processing unit 33 B converts the surface position of the body cavity surface before smoothing (the surface coordinate before smoothing) into the surface position of the smoothed body cavity surface according to the procedure described in FIG. (Surface coordinates after smoothing)
  • the surface position of the smoothed body cavity surface is corrected by distance correction processing so that it matches the surface position of the body cavity surface before smoothing (smoothed surface coordinates). Match (match) to the previous surface coordinates.
  • the radial image Gr subjected to the distance correction processing is used. This makes it possible to construct a linear image with reduced pulsation.
  • the radial image Gr and the linear image shown in FIGS. 26 and 28 are different from the radial image Gr and the linear image shown in FIGS. (Jagged portion of the body cavity surface) disappears, and the body cavity surface becomes clear.
  • the image processing unit 33B obtains the continuous radial images Gr corrected in the correction steps (S14 to S17), and based on the continuous radial images Gr, the ultrasonic image (3 An ultrasonic image generation step (step S18) for generating Gs is performed.
  • the image processing unit 33 B generates an ultrasonic image (three-dimensional image) G s shown in FIGS. 26 and 28, and an ultrasonic image (three-dimensional image) G s shown in FIGS. 25 and 27. It is possible to generate an ultrasound image (3D image) G s whose body cavity surface is smoother than that of Gs.
  • FIGS. 25 and 27 are examples of conventionally obtained ultrasonic images
  • FIGS. 26 and 28 are examples of ultrasonic images processed by the flowchart of FIG.
  • FIGS. 27 and 28 are images obtained by removing the multiple echo portions from FIGS. 25 and 26.
  • the ultrasonic image generation method and the ultrasonic image generation program in the second embodiment are used not only during the inspection but also when reproducing the data stored after the ultrasonic inspection as in the first embodiment (to be described later). Needless to say, it can also be used for image reviews for treatment policies and for volume measurement.
  • the ultrasonic image generating method and the ultrasonic image generating program according to the second embodiment are more sensitive to the influence of pulsation than the first embodiment, and have high image quality and no image distortion.
  • a tomographic image and an ultrasonic image (three-dimensional image) can be acquired.
  • the present invention is not limited to only the above-described embodiments, and various modifications can be made without departing from the spirit of the invention.
  • it is configured by partially combining the above-described embodiments.
  • Embodiments also belong to the present invention.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

本発明の、被検体に対して超音波を送受信して得られた超音波エコーデータに基づき超音波画像を生成する超音波画像生成方法は、連続する複数の2次元断層像に対して各画像上の基準位置を求める基準位置設定ステップと、前記基準位置設定ステップで求めたそれぞれの2次元断層像の前記基準位置の不規則性を補正して規則性のある連続的な2次元断層像を得る補正ステップと、および前記補正ステップで補正した前記規則性のある連続的な2次元断層像に基づいて超音波画像を生成する超音波画像生成ステップを含む。

Description

明 細 書 超音波画像生成方法 技術分野
本発明は、 被検体に対して超音波を送受信して得られた超音波 エコーデ一夕に基づき、 超音波画像を生成する超音波画像生成方 法に関する。 背景技術 .
近年、超音波診断装置は、医療用分野及び工業用分野において、 広く用いられる。 超音波診断装置は、 超音波を被検体に対して送 受信することによ り、被検体内を非侵襲的に診断するものである。 上記従来の超音波診断装置は、 被検体に対して超音波を送受信 して得られた超音波エコーデータに基づき、 ラジアル画像 (超音 波振動子の走査軸に対して垂直断面) やリニア画像 (超音波振動 子の走査軸に対して水平断面) 等の 2次元断層像から構築される 3次元 (立体) の超音波画像を生成する释音波画像生成方法を備 えている。
このような従来の超音波画像生成方法は、 例えば、 特開 2 0 0 0 - 2 5 4 1 2 3号公報に記載されているように超音波画像を立 体的に把握し易くするため、 体腔表面を抽出した 3次元画像を生 成するものが提案されている。
一般に、 超音波断層画像において、 問題になるのが人体の 「拍 動」 である。
通常、 超音波診断装置は、 超音波振動子をラジアル走査 (超音 波振動子の走査軸に対して垂直走査)すると共に、 リニァ走査(超 音波振動子の走査軸に対して水平走査) することによ り、 ヘリ力 ルスキヤンを行って上記ラジアル画像及び上記リニァ画像等の 2 次元断層像を得ている。 ここで、 上記へリカルスキャンは、 例え ば、 2 ~ 4秒程度の時間を必要としている。
しかしながら、 上記従来の超音波画像生成方法では、 上記ヘリ カルスキャンを行っている 2〜 4秒程度の間に発生する拍動によ り、 スキャン開始時と終了時とで関心領域の位置が一定しないの が普通である。 この 「ズレ」 は主に上記リニア画像において問題 となり、 その程度があま り に大きいと、 上記リニア画像を構築し ても明瞭な画像とならなくなって しまう虞れが生じる。
尚、 リニア画像のズレの原因には、 上記拍動以外にも以下の表 1 に示す要素が考えられる。
【表 1 】
原因 特徵
拍動 1分間に 7 0回前後。周期的で小さく激しい動き。 .
蠕動 数秒に 1回程度。周期的で大き〈ゆつくリした動き。 ; プローブの揺らぎ 不規則だがゆつく1 Jした動き。
呼吸性移動 不規則だがゆつくリした動き。 \
上記特開 2 0 0 0 - 2 5 4 1 2 3号公報に記載の超音波画像生 成方法は、 血管が近く にある臓器の画像を 3次元化すると、 上記 拍動の影響で臓器が動き、 画像が歪むという問題がある。
一方、 これに対して、 従来の超音波画像生成方法は、 例えば、 特開 2 0 0 0— 3 1 6 8 6 4号公報に記載されているように拍動 除去を試みたものが提案されている。
しかしながら、 上記特開 2 0 0 0— 3 1 6 8 6 4号公報に記載 の超音波画像生成方法は、 拍動除去に関してある程度の効果が得 られているが、 拍動除去がまだ十分ではない。 このため、 超音波 画像生成方法としては、 よ り効果の高い方法が求められている。 一方、 これに対して、 従来の超音波画像生成方法は、 例えば、 特許第 3 3 1 6 2 6号公報に記載されているように体腔の重心を 求めて、超音波画像を安定させよう と したものが提案されている。
しかしながら、 上記特許第 3 3 1 6 2 6 8号公報に記載の超音 波画像生成方法は、 モニタ上の 2次元断層画像を安定させるとい う効果しかなく、 拍動の影響を除去するために 3次元的な広がり を持つ超音波画像 (即ち、 3次元画像) にそのまま適用しても効 果が無い。
本発明は、 上記事情に鑑みてなされたもので、 拍動の影響を取 り除き、 画質の良い超音波画像を得るこ とができる超音波画像生 成方法を提供することを目的とする。 発明の開示
本発明の、 被検体に対して超音波を送受信して得られた超音波 エコーデータに基づき超音波画像を生成する超音波画像生成方法 は、 連続する複数の 2次元断層像に対して各画像上の基準位置を 求める基準位置設定ステップと、 前記基 位置設定ステップで求 めたそれぞれの 2次元断層像の前記基準位置の不規則性を補正し て規則性のある連続的な 2次元断層像を得る補正ステップと、 お よび前記補正ステップで補正した前記規則性のある連続的な 2次 元断層像に基づいて超音波画像を生成する超音波画像生成ステツ プを含む。 図面の簡単な説明
図 1は、 本発明の第 1実施形態の超音波診断システムの全体構成 図である。
図 2は、 2次元断層画像 (ラジアル画像) G rの具体例を示す図 である。 図 3は、 超音波画像 ( 3次元画像) G s を示す概略図である。 図 4は、 第 1実施形態の超音波診断システムにおける超音波画像 生成方法を示すフローチヤ一 トである。
図 5は、 表面座標を抽出して表面抽出点を決定する際の画像を示 す図である。
図 6は、 表面抽出点を結んだ多角形を生成して重心を求める際の 画像を示す図である。 '
図 7は、 2つのラジアル画像が同じ体腔を描出していても体腔表 面の位置にずれが生じている際の画像を示す図である。
図 8は、 2つのラジアル画像の位置を調整して重心を一致させた 際の画像を示す図である。
図 9は、 平滑化した結果、 体腔表面が滑らかになった際の画像を 示す図である。
図 1 0は、 平滑化前後で体腔表面の表面位置が一致しない際の画 像を示す図である。
図 1 1 は、 超音波画像 ( 3次元画像) G sの具体例を示す図であ る。
図 1 2は、 ラジアル画像 G rが数百本の育線データで形成されて いることを示す図である。
図 1 3は、 本発明の第 2実施形態の超音波診断システムの全体構 成図である。
図 1 4は、 体腔の表面位置を走査している際の音線を表す模式図 である。
図 1 5は、 全音線に対して所定の本数をサンプリ ングして作成し た輝度に対する頻度を表すヒス トグラムである。
図 1 6は、 音線のスキャンライ ンに対して対象物を生体組織と判 定する際の第 1の模式図である。
図 1 7は、 音線のスキャンライ ンに対して対象物を生体組織と判 定する際の第 2の模式図である。 図 1 8は、 誤抽出の補正処理を説明するための模式図である。 図 1 9は、 基準位置と して体腔中心 (X , Y ) を求める具体例を 示す第 1 の説明図である。
図 2 0は、 基準位置として体腔中心 (X , Y ) を求める具体例を 示す第 2の説明図である。
図 2 1は、 前後の画像を用いて体腔表面の位置を平滑化する処理 を説明するための模式図である。
図 2 2は、 音線データをラジアル画像に変換し、 平滑化前の体腔 表面の表面位置 (平滑化前の表面座標) が、 平滑化した体腔表面 の表面位置 (平滑化後の表面座標) に一致するように距離補正処 理を行う際の模式図である。
図 2 3は、 第 2実施形態の超音波診断システムにおける超音波画 像生成方法を示すフローチャー トである。
図 2 4は、 図 2 3の表面抽出点を決定するためのサブルーチンを 示すフロ一チヤ一 トである。
図 2 5は、 従来得られる第 1の超音波画像例である。
図 2 6は、 図 2 3のフローチャー トによ り処理された第 1の超音 波画像例である。 ,
図 2 7は、 従来得られる第 2の超音波画像例である。
図 2 8は、 図 2 3のフローチャー トによ り処理された第 2の超音 波画像例である。 発明を実施するための最良の形態
図 1 に示すように第 1実施形態の超音波診断システム 1 は、 後 述の超音波振動子 2 aを内蔵した超音波プローブ 2 と、 この超音 波プローブ 2で受信した超音波エコー信号を信号処理して超音波 画像を生成する装置本体 (超音波画像処理装置) 3 と、 この装置 本体 3から出力される出力画像信号を入力してリアルタイムの超 音波画像を表示するモニタ 4 とで主要部が構成される。 超音波プローブ 2は、 体腔内に挿入可能な細長で可撓性を有す る挿入部 1 1 と、 この揷入部 1 1の基端側が着脱自在に連設され る駆動部 1 2 とから構成される。 揷入部 1 1は、 この先端部 1 1 aに超音波を送受信する超音波振動子 2 aが内蔵されている。 超音波振動子 2 aは、 フレキシブルシャフ ト 2 1の先端に取り 付けられている。 尚、 超音波プローブ 2は、 超音波を透過する音 響キャ ップで先端部 1 l aが覆われている。 そして、 超音波振動 子 2 aの周囲は、 超音波を伝達 (伝播) する図示しない超音波伝 播媒体で満たされている。 また、 超音波振動子 2 aは、 図示しな い信号線が延出しており、 この信号線が駆動部 1 2経由で装置本 体 3内の後述する超音波観測部 3 1 に接続されている。
そして、 超音波プローブ 2は、 駆動部 1 2 に内蔵した図示しな い第 1モータを駆動することで、 超音波振動子 2 aが回動駆動さ れてラジアル走査するようになっている。 更に、 超音波プローブ 2は、 駆動部 1 2 に内蔵した図示しない第 2モ一夕を駆動するこ とで、 フ レキシブルシャフ ト 2 1 が揷入部 1 1 の軸方向 (長手方 向で例えば Z軸方向とする) に進退動されることで超音波振動子 2 aが進退動して リニァ走査することが きる。
即ち、 超音波プローブ 2は、 駆動部 1 2 の第 1モー夕 と第 2モ —夕とを同期させて同時に回動駆動させることで、 超音波振動子
2 aがスパイラル状に超音波を送受信して被検体内の 3次元領域 をヘリカル走査することができるようになつている。 そして、 装 置本体 3は、 Z軸方向の座標位置が少しづつ異なる 2次元断層像 を多数得ることができ、これらの 2次元断層像から超音波画像( 3 次元画像) を構築することができるようになつている。 . また、 超音波プローブ 2は、 ケーブル 1 2 aにより駆動部 1 2 が装置本体 3 に接続されている。
装置本体 3は、 超音波振動子 2 aに対して超音波信号を送受信 し、 3次元領域の超音波エコーデ一夕を得る超音波観測部 3 1 と、 体腔内.(例えば、 胃 2 0内) での超音波プローブ 2の揷入部先端 部 1 1 aの位置デ一夕を得る位置検出部 3 2 と、 この位置検出部 3 2及び超音波観測部 3 1のデ一夕をも とに超音波画像データを 得るもので、 位置検出部 3 2からの位置デ一夕を 2次元断層像に 関連付けてラジアルスキャン面の位置を特定し、 後述する超音波 画像生成方法及び超音波画像生成プログラムに基づき超音波画像 ( 3次元画像) を生成する C P Uを有する画像処理部 3 3 とを備 えて構成されている。
尚、 画像処理部 3 3 には、 後述の図 2や図 3 に示すような画像 を対話的に操作可能な画面操作手段であるマウス 3 4が図示しな ぃィ ン夕一フェースを介して接続されている。このマウス 3 4は、 モニタ 4の表示画面に表示される画像倩報に対してマウス力一ソ ルを用いて画面操作を行うための機能を有するものである。
また、 画像処理部 3 3は、 マウス 3 4 による画面操作の操作対 象の選択に基づき、 該選択された操作対象をマウス 3 4の移動に 伴い、 相対的に移動させる制御手段の機能を有している。 尚、 画 像処理部 3 3 には、 図示しないイ ン夕一フエースを介して画像デ 一夕等を記録する大容量の外部記憶装置,(不図示) が接続されて も良い。
そして、 画像処理部 3 3は、 超音波振動子 2 aを所定のピッチ 単位でヘリカル走査して超音波観測部 3 1で得た超音波ェコ一デ —夕を座標変換し、 挿入部 1 1の軸方向 (つま り Z軸方向) にほ ぼ垂直な断面の図 2 に示すような 2次元断層画像 (以下、 ラジア ル画像と記す) G rを複数生成するよう になっている。 これら生 成されたラジアル画像 G rは、 例えば、 図 1で示した胃 2 0内の 超音波断層面 2 O Aに相当する。
そして、 画像処理部 3 3は、 所定のピッチ単位で連続して得た 複数のラジアル画像 G rを、 位置検出部 3 2で検出した超音波プ ローブ 2の揷入部先端部 1 1 aの位置データ と関連付けて、 図 3 に示すような擬似的な超音波画像 ( 3次元画像) G sを生成する ようになっている。
こ こで、 拍動の影響で臓器が動き、 超音波画像 ( 3次元画像) G sは、 歪んでしまう。
そこで、 本実施形態では、 以下に記載する超音波画像生成方法 及び超音波画像生成プログラムによ り拍動の影響を除去する。 次に、 この超音波画像生成方法及び超音波画像生成プログラム を図 4に示すフ ローチャー ト に基づき、 図 5 ないし図 1 1 を参照 して説明する。
先ず、 図 1で説明したように超音波プローブ 2は、 駆動部 1 2 の第 1モータ と第 2モータとを同期させて同時に回動駆動させる ことで、 超音波振動子 2 aが所定のビツチ単位でへリカル走査す る。
すると、 装置本体 3は、 超音波振動子 2 aで受信した 3次元領 域の'超音波ェコ一信号が超音波観測部 3 1へ入力される。 超音波 観測部 3 1は、 超音波振動子 2 aからの 3次元領域の超音波ェコ 一信号を受信してこれら超音波エコー信号を座標変換して連続し たラジアル画像 G rを複数生成する。そレて、画像処理部 3 3 は、 超音波観測部 3 1 からラジアル画像 G rの画像デ一夕を順次入力 されることで、 連続した複数のラジアル画像 G rを取得する (ス テ ヅプ S 1 ) 。
同時に、 位置検出部 3 2は、 体腔内での超音波プローブ 2の揷 入部先端部 1 1 aの位置データを取得し、 この取得した位置デー 夕を画像処理部 3 3へ順次出力する。
そして、 画像処理部 3 3は、 位置検出部 3 2からの位置デ一夕 を超音波観測部 3 1からの連続した複数のラジアル画像 G rのそ れそれに関連付けてラジアルスキャン面の位置を特定する。
そして、 画像処理部 3 3は、 連続した複数のラジアル画像 G r に対して各画像上の基準位置を求める基準位置設定ステップとし て以下のステップ S 2及ぴ S 3の処理を行う。
先ず、 画像処理部 3 3は、 連続した複数のラジアル画像 G rに 対して各画像の表面座標を抽出し、 表面抽出点を決定する (ステ ヅ プ S 2 ) 。
ここで、 画像処理部 3 3は、 例えば、 図 5 に示す画像 4 0にお いて、 画像中心から探索線 4 0 aを出して輝度変化の大きいとこ ろを表面座標と して抽出し、 表面抽出点 4 1 を決定する。
次に、 画像処理部 3 3は、 連続した複数のラジアル画像 G に 対して各画像上の基準位置として重心を求める(ステ ッ プ S 3 )。
ここで、 画像処理部 3 3は、 例えば、 図 6 に示すように表面抽 出点 4 1 を結んだ多角形 4 2 を生成し、 重心 4 3 を求める。
一般に、 多角形 4 2 の重心には、 物理的重心と幾何的重心との 二つがある。
本実施形態では、 物理的重心を用いて多角形の重心 4 3 を求め ている。 尚、 重心 4 3 と しては、 幾何的重心を用いても良い。
また、 画像処理部 3 3は、 多角形 4 2を生成した後、 この多角 形 4 2がほぼ内接するような円 (不図示) に近似し、 この円の中 心点を求めて重心とするようにしても良い。
次に、 画像処理部 3 3は、 基準位置設定ステップ ( S 2 , S 3 ) で求めたそれぞれのラジアル画像 G rに対して重心 4 3の不規則 性を補正して連続的なラジアル画像 G rを得る補正ステップとし て以下のステップ S 4〜 S 7の処理を行う。
こ こで、 連続した複数のラジアル画像 G rは、 拍動の影響や、 プローブ自体の機械的なぶれで、 例えば、 図 7に示すように画像 にずれが生じる。
図 7に示すようにラジアル画像 G r 5 1 とラジアル画像 G r 5 2 とは、 同じ体腔を描出していても体腔表面 5 1 B , 5 2 Bの位 置にずれが生じている。
そこで、 本実施形態では、 画像処理部 3 3は、 複数のラジアル 画像 G rをそれそれ移動させてこれら画像の位置を調整し、 S 3 で求めた各画像上の重心を一致させる (重心を揃える) ような処 理を行う (ステップ S 4 ) 。
画像処理部 3 3は、 例えば、 図 8に示すようにラジアル画像 G r 5 1 とラジアル画像 G r 5 2 とを上下左右方向に移動させて画 像の位置を調整し、 重心 5 1 A, 5 2 Aを一致させる。
このとき、 画像処理部 3 3は、 ユーザが予め指定したラジアル 画像 G r 5 1の画像位置を固定したまま、 ラジアル画像 G r 5 2 の画像位置を上下左右方向に移動させても良く、 また、 その逆で も良い。 このことによ り、 画像処理部 3 3は、 機械的な大きな「ぶ れ」 を軽減できる。
しかしながら、 この図 8に示す画像では、 まだ細かいぶれ 5 4 が残っている。
そこで、 次に、 画像処理部 3 3は、 前後の画像を用いてこれら 画像に挟まれる所定のラジアル画像 G rの表面抽出点を平滑化し. 体腔表面の位置を平滑化する処理を行う (ステップ S 5 ) 。
ここで、 画像処理部 3 3は、 平滑化するのに参照するデ一夕の 枚数を次の計算式 ( 1 ) で求めている。 ,
枚数 = 1 /ビヅチ X 4… ( 1 )
尚、 ここで、 ピッチとは、 各 2次元断層像 (ラジアル画像 G r ) 間の距離である。
例えば、 平滑化するのに参照するデ一夕の枚数は、 0. 2 5 ミ リ ピッチの場合、 1 6枚であ り、 1 ミ リ ピヅチの場合 4枚となる。 また、 参照する画像は、 次の計算式 ( 2 ) で決定される。
参照される画像番号: =対象とする画像番号 + ( n—参照画像枚 数 / 2 ) … ( 2 )
但し、 nは、 0から始ま り、 参照画像枚数一 1で終わる数値で ある。
ここで、 例えば、 総画像枚数が 1 0枚 (N o . 0 ~ N 0. 9 ) で、 1 m mピッチ (=平滑化に 4枚参照する) とする。 このとき、 N o . 5について平滑化を実施すると、 参照される画像は N o . 3 , 4 , 5 , 6 となる。
そして、 上述のように画像処理部 3 3は、 前後の画像を用いて これら画像に挾まれる所定のラジアル画像 の表面抽出点 4 1 を平滑化し、 体腔表面の位置を平滑化する。
そして、 上述のように画像処理部 3 3で平滑化した結果、 例え ば、 図 9に示すようにラジアル画像 G r 5 1 とラジアル画像 G r 5 2 とで形成される画像 5 5 は、体腔表面 5 5 Bが滑らかになる。 尚、 符号 5 5 Aは、 画像 5 5 の重心である。
ここで、 ラジアル画像 G rは、 例えば、 図 1 0 に示す画像 6 0 のように平滑前の体腔表面 6 1の表面位置 (抽出された体腔表面 の位置) と、 平滑化した体腔表面 6 2 の表面位置とがー致しない 場合がある。 尚、 符号 6 3は、 平滑前の体腔表面 6 1の表面位置 (抽出された体腔表面の位置) と、 平滑化した体腔表面 6 2の表 面位置との差分である。
このとき、 例えば、 図 1 1 に示す超音波画像 ( 3次元画像) G s 7 0において、 側断面 7 1 は、 平滑化した体腔表面に合わせて 各ラジアル画像 G rから生成することができない。
このため、 平滑前の体腔表面 6 1の表面位置 (抽出された体腔 表面の位置) と、 平滑化した体腔表面 6 2の表面位置とがー致す るように、 図 1 0で示した画像 6 0を変形する必要がある。
そこで、 次に、 画像処理部 3 3は、 平滑前の体腔表面の表面位 置 (抽出された体腔表面) と、 平滑化した体腔表面の表面位置と の差分を算出し、 この算出した差分に基づいて所定のラジアル画 像 G rを伸縮する処理を行う (ステヅプ S 6 , S 7 ) 。
ここで、 画像処理部 3 3は、 図 1 0に示すラジアル画像 G rに おいて、 平滑前の体腔表面 6 1 の位置 (抽出された体腔表面の位 置) と、 平滑化した体腔表面 6 2の位置との差分 6 3を算出し、 この算出した差分 6 3 に基づいて画像を伸縮する。
このことによ り、 画像処理部 3 3は、 平滑化後の体腔表面と合 わせることが可能なラジアル画像 G rを生成することができる。 そして、 画像処理部 3 3は、 補正ステップ ( S 4 〜 S 7 ) で補 正した連続的なラジアル画像 G rを得、 これら連続したラジアル 画像 G rに基づいて位置検出部 3 2で検出した位置データ と関連 付けて超音波画像 ( 3次元画像) G s を生成する超音波画像生成 ステ ヅ プ (ステ ヅプ S 8 ) を行う。
そして、 画像処理部 3 3は、 図 1 1 に示すように体腔表面 7 2 が滑らかな超音波画像 ( 3次元画像) G s を生成することが可能 となる。
尚、 第 1実施形態における超音波画像生成方法及び超音波画像 生成プログラムでは、 上述した S 5での平滑化及び S 7での伸縮 の処理を直交座標系を想定して説明した。
しかしながら、 本来、 ラジアル画像 G rは、 超音波エコーデ一 夕の生デ一夕として例えば、 図 1 2 に示す画像 8 0のように数百 本の音線デ一夕 8 1で形成され、 これら音線デ一夕 8 1のエコー 輝度によ り表される。 t
このため、 上記 S 5での平滑化及び S 7での伸縮の処理を、 ラ ジアル画像 G rの中心からの極座標系で行つた方が取り扱い易い そこで、 画像処理部 3 3は、 図示しないが音線デ一夕の形のま ま、 上記平滑化及び伸縮処理を極座標系で処理するようにしても 良い。
例えば、 この場合、 画像処理部 3 3は、 音線デ一夕をデジ夕ル スキャンコンパ一夕 D S C (ラジアルスキャンで生成された極座 標系のデータを直交座標系の画像デ一夕に変換する処理) して直 交座標系に変換する際に、 ポリゴン表面 (平滑化後の体腔表面の 位置) に対して抽出された体腔表面の位置が揃う よう、 各音線デ —夕毎に適度な伸縮を行う。 よ り具体的には、 画像処理部 3 3は、 音線データの座標変換テ —ブルから求めた音線距離に対して、 平滑化の影響 (即ち、 上述 した S 6での表面位置の差分 6 3 に相当する平滑化前後の距離の 差分) を加味して伸縮処理を行う ことになる。
尚、 第 1実施形態における超音波画像生成方法及び超音波画像 生成プログラムは、 検査中だけでなく、 超音波検査後に保存した データを再生して行う際 (今後の治療方針などのための画像レビ ユーや、 体積計測時) にも活用できる。
また、 第 1実施形態における超音波画像生成方法及び超音波画 像生成プログラムは、 位置検出部 3 2 によ り超音波プローブ 2の 挿入部先端部 1 1 aの位置デ一夕を得るように構成しているが、 本発明はこれに限定されず、 手動で擬似的に 3次元領域の超音波 エコーデータを取得し、 超音波画像と して 3 D表示 (体腔表面を 表示する斜視表面構築、表面は表示しない斜視構築)する際にも、 本発明の超音波画像生成方法及び超音波画像生成プログラムを適 用しても画質向上に有効である。
この結果、 第 1実施形態における超音波画像生成方法及び超音 波画像生成プログラムは、 拍動の影響や、 プローブ自体の機械的 なぶれに影響されない、 画像の歪みのない高画質の 2次元断層画 像及び超音波画像 ( 3次元画像) を取得することができる。
次に本発明の第 2実施形態について説明する。
上記第 1実施形態は、 連続した複数のラジアル画像 G rに対し て各画像上の基準位置として表面抽出点 4 1 を結んだ多角形 4 2 を生成し、 重心 4 3 を求めるように構成しているが、 第 2実施形 態は、 各画像上の基準位置として体腔表面を極座標から直交座標 に変換し、 この直交座標上において時計回り に 3 、 6 、 9 、 1 2 時の位置に配置される 4点の抽出点に基づき体腔中心を求めるよ うに構成する。 それ以外の構成は上記第 1実施形態と同様である ので説明を省略し、 同一構成には同じ符号を付して説明する。 即ち、 図 1 3 に示すように第 2実施形態の超音波診断システム 1 Bは、 超音波振動子 2 aを内蔵した超音波プローブ 2 Bと、 こ の超音波プローブ 2 Bで受信した超音波エコー信号を信号処理し て超音波画像を生成する装置本体(超音波画像処理装置) 3 B と、 この装置本体 3 Bから出力される出力画像信号を入力してリアル タイムの超音波画像を表示するモニタ 4 とで主要部が構成されて いる。
超音波プローブ 2 Bは、 体腔内に挿入可能な細長で可撓性を有 する挿入部 1 1 と、 この揷入部 1 1の基端側が着脱自在に連設さ れる駆動部 1 2 とから構成される。 挿入部 1 1 は、 この先端部 1 1 aに超音波を送受信する超音波振動子 2 aが内蔵されている。 超音波振動子 2 aは、 フレキシブルシャフ ト 2 1 の先端に取り 付けられている。 尚、 超音波プローブ 2 Bは、 超音波を透過する 音響キャップで先端部 1 1 aが覆われている。 そして、 超音波振 動子 2 aの周囲は、 超音波を伝達 (伝播) する図示しない超音波 伝播媒体で満たされている。 また、 超音波振動子 2 aは、 図示し ない信号線が延出しており、 この信号線が駆動部 1 2経由で装置 本体 3 B内の超音波観測部 3 1 に接続されている。
そして、 超音波プロ一プ 2 Bは、 駆動部 1 2 に内蔵した図示し ない第 1モータを駆動することで、 超音波振動子 2 aが回動駆動 されてラジアル走査するようになっている。 更に、 超音波プロ一 ブ 2 Bは、 駆動部 1 2に内蔵した図示しない第 2モ一夕を駆動す ることで、 フレキシブルシャフ ト 2 1 が挿入部 1 1の軸方向 (長 手方向で例えば Z軸方向とする) に進退動されるこ とで超音波振 動子 2 aが進退動してリニア走査することができる。
即ち、 超音波プローブ 2 Bは、 駆動部 1 2の第 1モー夕 と第 2 モータ とを同期させて同時に回動駆動させることで、 超音波振動 子 2 aがスパイラル状に超音波を送受信して被検体内の 3次元領 域をヘリカル走査することができるようになつている。 そして、 装置本体 3 Bは、 Z軸方向の座標位置が少しづつ異なる 2次元断 層像を多数得ることができ、 これらの 2次元断層像から超音波画 像 ( 3次元画像) を構築することができるよう になつている。 ま た、 超音波プローブ 2 Bは、 ケ一プル 1 2 aにより駆動部 1 2が 装置本体 3 Bに接続されている。
装置本体 3 Bは、 超音波振動子 2 aに対して超音波信号を送受 信し、 3次元領域の超音波エコーデータを得る超音波観測部 3 1 と、 この超音波観測部 3 1によ り得た超音波エコーデ一夕をも と に超音波画像デ一タを得るもので、 後述する超音波画像生成方法 及び超音波画像生成プログラムに基づき超音波画像( 3次元画像) を生成する C P Uを有する画像処理部 3 3 B とを備えて構成され ている。
尚、 画像処理部 3 3 Bには、 後述の図 2 5や図 2 6に示すよう な画像を対話的に操作可能な画面操作手段であるマウス 3 4が図 示しないイ ン夕一フェースを介して接続されている。 このマウス
3 4は、 モニタ 4の表示画面に表示される画像情報に対してマウ スカ一ソルを用いて画面操作を行うための機能を有するものであ る。 ,
また、 画像処理部 3 3 Bは、 マウス 3 4による画面操作の操作 対象の選択に基づき、 該選択された操作対象をマウス 3 4の移動 に伴い、 相対的に移動させる制御手段の機能を有している。 尚、 画像処理部 3 3 Bには、 図示しないイ ン夕一フェースを介して画 像デ一夕等を記録する大容量の外部記憶装置 (不図示) が接続さ れても良い。
そして、 画像処理部 3 3 Bは、 超音波振動子 2 aを所定のピッ チ単位でヘリカル走査して超音波観測部 3 1で得た超音波エコー データを座標変換し、 挿入部 1 1の軸方向 (つま り Z軸方向) に ほぼ垂直な断面の、 例えば、 図 2 5の左側下図に示すような 2次 元断層画像 (以下、 ラジアル画像と記す) G rを複数生成するよ うになっている。これら生成されたラジアル画像 G rは、例えば、 図 1 3で示した胃 2 0内の超音波断層面 2 O Aに相当する。
そして、 画像処理部 3 3 Bは、 所定のピツチ単位で連続して得 た複数のラジアル画像 G rを、 例えば、 図 2 5の右側上図に示す ような擬似的な超音波画像 ( 3次元画像) G sを生成するよう に なっている。 尚、 図 2 5 において、 ラジアル画像 G rの上側及び 超音波画像 ( 3次元画像) G sの下側に表示される画像は、 上記 ラジアル画像 G rをもとに生成される揷入部 1 1の軸方向 (つま り Z軸方向) にほぼ水平な断面の、 リニア画像である。
ここで、 拍動の影響で臓器が動く と、 図 2 5 に示したラジアル 画像 G rは、 スキャン開始時と終了時とで関心領域の位置が一定 せず、 図 2 5 に示したリニア画像において、 臓器にぎざぎざのよ うな画像ゆれが生じてしまい、 明瞭な画像とならなくなって しま う。 このため、 図 2 5 に示したよう に超音波画像 ( 3次元画像) G sは、 歪んでしまう。
そこで、 本実施形態では、 以下に記載する超音波画像生成方法 及び超音波画像生成プログラムによ り拍動の影響を除去するよう に構成している。 ,
先ず、 表面抽出処理について説明する。
表面抽出処理は、 超音波伝達媒体や体液等の水と生体組織との 識別を行う処理である。 ここで、 上記ラジアル画像 G rは、 例え ば、 数百本の音線と呼ばれる線デ一夕で構成され、 これら音線の ェコー輝度によ り表されている。 図 1 4 に示すように各音線をプ ローブ中心 (超音波振動子) から周縁方向に探索し、 水から生体 組織に変化する部分を探索する。 この探索の精度を上げるため、 次の処理を用いている。
全音線 5 1 2又は 1 0 2 4本中、所定の本数をサンプリ ングし、 ヒス トグラムを作成する。 また、 ヒス トグラムは、 平滑化する。 この平滑化は、 例えば、 全音線が 5 1 2本の場合、 表 2 に示す ようにエコー輝度の階調によ り行っている
【表 2】
サンプルデータ数 5 1 2本中 6 4本で計算。
元の階調 0 (低反射) ~ 2 5 5 (強反射)
平滑化後の階調 0 (低反射) ~ 1 5 (強反射)
ここで、 元の階調 0 (低反射) 〜 2 5 5 (強反射) を 0 (低反 射) ~ 1 5 (強反射) にに分割して平滑化している。
そして、 図 1 5 に示ずようにヒス トグラムが得られる。
次に、 上記ヒス トグラムのピ一クを判定する。
ピークの判定は、 グラフ上各点の微分値 (傾き) と絶対値 (高 さ) とから、 判断する。 通常、 ヒス トグ ム上のピークは次の 2 パターンとなる。
( 1 ) 2つのピークが出現する。
2つのピークは、水部分と組織部分である。このため、閾値は、 これら 2つのピークの中間値とする。
( 2 ) 1つのピークが出現する。 '
コン トラス 卜の低い画像の場合、 ピークが一つ(組織分)のみ、 現れる場合が多い。 この場合、 ピークと最大輝度との中間値を閾 値とする。
ここで、 元の階調 0〜 2 5 5 における閾値 8 0 (平滑化した階 調 0〜 1 5における閾値は略 5 ) を越える と、 水と生体組織との 良好な判定ができない場合が多い。 そこで、 閾値の上限を 8 0と し、 それを越えた場合には 8 0に丸めるようにしている。
ここで、 単純に閾値以下を水、 閾値以上を生体組織と判断する と、 体腔内浮遊物を始めとする様々なノイズ源を、 生体組織と し て誤認して しまう虞れが生じる。
上記ノイズを除去する最も一般的な方法は、 フレーム相関であ るが、 極力画像自体の平滑化を避けるために、 本実施形態では、 対象物の厚みを測定して判断するようになっている。
ここで、実際に誤認識されるノィズは、その対象物の厚みが 0 . 2 m m以下である。
そこで、 ある一定の厚みを設定し、 対象物がその設定値以上の 場合、 生体組織と判定する。 設定値が小さいと、 誤抽出が増え、 大きすぎる と生体組織の層構造をノィズと判定してしまう。
本実施形態では、 図 1 6に示すように対象物の厚みが 0 . 5 m m程度である場合、 この対象物を生体組織と判定するようになつ ている。 上記方法は、 極小さなノイズに対して有効である。 しか しながら、 広義の意味でのノイズ、 即ち、 体腔内の浮遊物など、 実際にある程度の厚みを有するノイズには無効である。
そこで、 図 1 7 に示すように生体組織 C 層構造の存在を想定し て判定する。
その方法は、 対象物のある一定の厚みの輝度平均を求め、 この 求めた輝度平均が閎値以上の場合、 生体組織と判定することにし ている。
本実施形態で.は、 輝度平均を求める対象物の厚みを 2 m m程度 とし、 この 2 m m程度の厚みの輝度平均が閾値以上の場合、 生体 組織と判定するよう になっている。
上記表面抽出処理により体腔表面を抽出しても、 誤抽出は完全 に排除できない。 そのため、 誤抽出と思われる点を検出し、 補正 する必要がある。
本実施形態では、対象となる抽出点について、 プローブ中心(超 音波振動子) からの距離を、 その前後の音線の距離と比較し、 誤 抽出の補正処理を行う ようになつている。
具体的には、 図 1 8に示すように前後 4点について距離の差分 を計算し、 その傾向から対象点の正当性を評価する。 ここで、 音 線 Nの実際の抽出点を Ltとする。
音線 Nは、 誤抽出によ り、 実際の体腔表面よ り も手前の体腔表 面を判定している。
そこで、 この音線 Nの前後 4点の音線 N— 2, N— 1 , N + 1 , N + 2に基づき、 音線 Nの予想抽出点 Lxを算出する。
Lを音線の長さ, Dを次の音線 Nとの差分と した場合、 音線 Nの予想抽出点 Lxは、
L x= ( L l+ L2+ Lt+ L3+ L ) / 5 + ( D 12+ D 2t+ D t3 + D 34) / 4
但し、 Ll=音線 N _ 2の長さ, L2 =音線 N— 1の長さ,
L3 =音線 N + 1の長さ, L4=音線 N + 2の長さ,
012=音線 — 2 と音線1^ _ 1 との差分, D2t=音線 N ― 1 と音線 Nとの差分,
Dt3=音線 Nと音線 N + 1 との羞分, 034=音線 + 1 と音線 N + 2 との差分
ここで、 上記 D 12と D 34の平均が、 プローブ中心 (超音波振動 子) から体腔表面までの距離の増減傾向となる。
この傾向を平均表面距離に加えた値が、 対象点の予想抽出点と なる。
誤抽出点は、 体腔表面位置よ り手前も しく は、 後ろにある。 そ こで、 予想抽出点 Lxと実抽出点 Ltとを比較し、 実抽出点 Ltが上 記算出した予想抽出点 L Xよ り 3 mm以上離れている場合、実抽出 点 Ltを上記算出した予想抽出点 Lxに置き換えることによ り、 誤 抽出を補正するようにしている。 尚、 上記誤抽出の補正処理は、 図示しないが、音線 Nの前後 6点の音線 N— 3, N— 2, N— 1 , N + 1 5 N + 2 5 N + 3に基づき、 音線 Nの予想抽出点 L xを算出 するようにしても良い。
次に、 上記誤抽出の補正処理で求められた体腔表面から、 基準 位置として体腔中心を算出する体腔中心算出処理を行う。
本実施形態では、 抽出された体腔表面を極座標 (音線番号と距 離) から直交座標に変換し、 この直交座標上において時計回り に 3、 6、 9、 1 2時の位置に配置される音線の表面距離 (プロ一 ブ中心 (超音波振動子) から抽出点までの距離) から、 体腔中心 を求める。 具体的には、 体腔中心 ( X, Y ) は、
X = ( | 3時方向の表面抽出点の X座標 | + | 9時方向の表面抽 出点の X座標 I ) / 2
Y = ( | 1 2時方向の表面抽出点の Υ座標 I + I 6時方向の表面 抽出点の Υ座標 I ) ノ 2
となる。
ここで、例えば、図 1 9 に示すような略円状の体腔表面の場合、 この体腔中心 ( X , Υ ) は、 略円の中心である X印の位置となる。 また、 図 2 0 に示すような略菱形状の体腔表面の場合、 この体腔 中心 ( X , Υ ) は、 略菱形の中心である, X印の位置となる。 尚、 図示しないが算出された体腔中心 ( X , Υ ) は、 生体組織外に存 在する場合もある。
上記体腔中心算出処理の後、 上記第 1実施形態で説明したのと 同様に複数のラジアル画像 G rをそれそれ移動させてこれら画像 の位置を調整し、 各画像毎に上記体腔中心処理で求めた体腔中心 ( Χ, Υ ) を一致させる (体腔中心を揃える) 処理を行う。
次に、 上記第 1実施形態で説明したのと同様に、 前後の画像を 用いてこれら画像に挟まれる所定のラジアル画像 G rの表面抽出 点を (直行座標値に変換済み) Z軸方向 (長手方向) に平滑化し、 体腔表面の位置を平滑化する処理を行う。
ここで、 本実施形態では、 図 2 1 に示すようにラジアル画像 G rの第 n面と第 n— 1面との表面抽出点を用いて平滑化(平均化) している。 尚、 例えば、 平滑化するのに参照するラジアル画像 G r (データ) の枚数は、 Z軸方向 (長手方向) の 2 m mの間にあ る面 ( 0 . 2 5 ミ リ ピッチの場合、 8面であり、 0 . 5 m mミ リ ピッチの場合 4面) を平均して、 体腔表面の表面位置を平滑化し ている。
これによ り、 3 Dモデル表示 (サ一フェイス表示) の場合、 平 滑化された座標値を利用することで、 よ り 自然で滑らかな体腔表 面の構築が可能となる。
上記平滑化後、 上記第 1実施形態で説明したのと同様に、 平滑 化前の体腔表面の表面位置 (抽出された体腔表面の位置) と、 平 滑化した体腔表面の表面位置とがー致するよう に、 平滑化前の体 腔表面の表面位置 (抽出された体腔表面) と、 平滑化した体腔表 面の表面位置との差分を算出し、 この算出した差分に基づいて所 定のラジアル画像 G Γを伸縮する処理を行う。
本実施形態では、 図 2 2 に示すように音線デ一夕をラジアル画 像に変換し、 平滑化前の体腔表面の表面位置 (平滑化前の表面座 標) が、 平滑化した体腔表面の表面位置,(平滑化後の表面座標) に一致するように距離補正処理を行うようになつている。
距離補正処理は、 以下に記載する手順により行う。
先ず、 平滑化した体腔表面の表面位置 (平滑化後の表面座標) と平滑化前の体腔表面の表面位置 (平滑化前の表面座標) との距 離差分を算出する。 そして、 平滑化前の体腔表面の表面位置 (平 滑化前の表面座標) と、 平滑化した体腔'表面の表面位置 (平滑化 後の表面座標) との距離 Dを算出する。
この距離 Dは、 第 n音線と平滑化前の体腔表面の表面位置 (平 滑化前の表面座標) との交点 Rと、 第 n音線と平滑化した体腔表 面の表面位置 (平滑化後の表面座標) との交点 Qとから求められ
Ό ここで、 プローブ中心 (超音波振動子) の原点を 0とし、 直線 0 P nとの交点 Qを含む平滑化した体腔表面の表面位置 (平滑化 後の表面座標) の線分を P 1 P 2 とすると、 交点 Q (x, y)は次の 式から求めることができる。
( 1 ) 前提条件
a 1 = P n.y / P n.x
b 1 = 0
a 2 = ( P 2.y - P 1 .y ) / ( P 2.x - P l .x )
b 2 = ( P l .y — ( P 2.y - P 1 .y ) / ( P 2.x — P l .x ) x P l .x )
( 2 ) 交点 Qの座標
Q .x = ( b 2 - b 1 ) / ( a 1 - a 2 )
Q .y = a 1 x ( b 2 - b 1 ) / ( a 1 - a 2 ) + b 1 但し、 R = Pnとする。
そ して、 上記交点 Qと上記交点 Rとからこれら交点 Q Pの差分 Dが算出できる。
次に、 算出した差分 Dに基づいて、 所定のラジアル画像 G rを 伸縮する処理を行う。 ,
ここで、ラジアル画像上の任意の 1点 P (x,y)を決定する音線デ —夕上の点は、 次の式で求まる。
( 1 ) 前提条件
T二 2 ΤΓ/5 1 2 x音線番号 ( N = 0〜 5 1 2 )
L =原点◦から体腔表面までの距離, D =差分
( 2 ) Pの座標
P .x= COST X ( L + D )
P .y= sinT x ( L + D )
これによ り、 L (原点 0から体腔表面までの距離) に、 上記算 出した平滑化した体腔表面の表面位置(平滑化後の表面座標)と、 平滑化前の体腔表面の表面位置 (平滑化前の表面座標) との距離 の差分 Dを加味することで、 平滑化した体腔表面の表面位置 (平 滑化後の表面座標) が平滑化前の体腔表面の表面位置 (平滑化前 の表面座標) に合わせ込む (一致させる) ことができる。 即ち、 所定のラジアル画像 G rを伸縮する処理が可能となる。
そして、 距離補正処理されたラジアル画像 G rを用いることに より、拍動を軽減したリニァ画像が構築されるようになつている。 このように構成されている超音波画像生成方法及び超音波画像 生成プログラムを図 2 3及び図 2 4 に示すフローチャー トに基づ いて説明する。
先ず、 図 1 3で説明したように超音波プローブ 2 Bは、 駆動部 1 2の第 1モー夕 と第 2モータ とを同期させて同時に回動駆動さ せることで、 超音波振動子 2 aが所定のピツチ単位でへリ力ル走 査する。
すると、 装置本体 3 Bは、 超音波振動子 2 aで受信した 3次元 領域の超音波エコー信号が超音波観測部 3 1へ入力される。 超音 波観測部 3 1は、 超音波振動子 2 aからの 3次元領域の超音波ェ コ一信号を受信じてこれら超音波エコー信号を座標変換して連続 したラジアル画像 G rを複数生成する。 して、 画像処理部 3 3 Bは、 超音波観測部 3 1 からラジアル画像 G rの画像デ一夕を順 次入力されることで、 連続した複数のラジアル画像 G Γを取得す る (ステップ S 1 1 ) 。 このとき、 画像処理部 3 3 Bは、 図 1 5 ないし図 1 7で説明した表面抽出処理によ り超音波伝達媒体や体 液等の水と生体組織との識別を行い、 ラジアル画像 G rを生成す る。
そして、 画像処理部 3 3 Bは、 連続した複数のラジアル画像 G rに対して各画像上の基準位置を求める基準位置設定ステップと して以下のステップ S 1 2及び S 1 3の処理を行う。
先ず、 画像処理部 3 3 Bは、 連続した複数のラジアル画像 G r に対して各画像の表面座標を抽出し、 表面抽出点を決定する (ス テツプ S 1 2 ) 。
こ こで、 画像処理部 3 3 Bは、 図 2 4に示すフ 口一チヤ一 ト に 基づき、 図 1 8で説明した誤抽出の補正処理によ り表面抽出点を 決定する。
先ず、 対象とする音線 Nの前後の 2本ずつ (N— 2, N— 1, N +1, N + 2 ) を指定する (ステ ッ プ S 2 1 ) 。
次に、 音線 N— 2 と音線 N— 1 との差分 D 12及び音線 N— 1 と 音線 Nとの差分 D2tを算出すると共に、 音線 N + 1 と音線 N + 2 との差分 D34及び音線 Nと音線 N + 1 との差分 Dt3を算出し (ス テツプ S 2 2 ) 、 対象とする音線 Nの長さ (予想抽出点) Lxを算 出する (ステ ッ プ S 2 3 ) 。
ここで、 実抽出点 Ltが上記算出した予想抽出点 Lxよ り 3 mm 以上離れているか否かを判定し、 離れていると判断した場合、 算 出した予想抽出点 Lxの値を対象とする音線 Nの長さとして置き換 えて表面抽出点を決定する (ステッ プ S 2 4 ) 。
そして、 上記補正処理を全音線 5 1 2本又は 1 0 2 4本におい て、 実行する。
これによ り、 画像処理部 3 3 Bは、 連 した複数のラジアル画 像 G rに対して各画像の表面座標を抽出できる。
次に、 画像処理部 3 3 Bは、 連続した複数のラジアル画像 G r に対して上記誤抽出の補正処理で求められた体腔表面座標から、 各画像上の基準位置として体腔中心を求める(ステップ S 1 3 )。 画像処理部 3 3 Bは、 図 1 9及び図 2 0で説明した体腔中心算出 処理によ り基準位置を決定する。
ここで、 画像処理部 3 3 Bは、 上述したように極座標 (音線番 号と距離) を直交座標に変換した際に、 時計回り に 3、 6、 9、 1 2時の位置に配置される音線の表面距離 (プローブ中心 (超音 波振動子) から抽出点までの距離) から、 体腔中心を算出する。 従って、 上記体腔中心算出処理は、 3、 6、 9、 1 2時の 4点 の位置のみで体腔中心を算出しているので、 上記第 1実施形態の ように表面抽出点を結んだ多角形を生成して基準位置と して重心 を求めるよ り も、 計算する工程がはるかに少なくて済むので、 算 出時間が短く基準位置を速く算出できる。 これによ り、 第 2実施 形態では、 上記第 1実施形態に比べて基準位置を速く算出でき、 スピー ドアップが図れる。
そして、 画像処理部 3 3 Bは、 上記体腔中心算出処理の後、 上 記第 1実施形態で説明したのと同様に複数のラジアル画像 G Γ· ·を それぞれ移動させてこれら画像の位置を調整し、 各画像毎に上記 処理で求めた体腔中心 ( X , Y ) を一致させる (体腔中心を揃え る) 処理を行う。
次に、 画像処理部 3 3 Bは、 図 2 1で説明したように前後の画 像を用いてこれら画像に挟まれる所定のラジアル画像 G rの表面 抽出点 Z軸方向 (長手方向) に平滑化し、 体腔表面の位置を平 滑化する処理を行う (ステヅ プ S 1 5 ) 。
上記平滑化後、 画像処理部 3 3 Bは、 上記第 1実施形態で説明 したのと同様に、 平滑化前の体腔表面の表面位置 (抽出された体 腔表面の位置) と、 平滑化した体腔表面の表面位置とがー致する ように、 平滑化前の体腔表面の表面位置 (抽出された体腔表面) と、 平滑化した体腔表面の表面位置との差分を算出し、 この算出 した差分に基づいて所定のラジアル画像 G rを伸縮する処理を行 。
ここで、 画像処理部 3 3 Bは、 図 2 2で説明した手順によ り、 平滑化前の体腔表面の表面位置 (平滑化前の表面座檫) が、 平滑 化した体腔表面の表面位置 (平滑化後の表面座標) に一致するよ うに距離補正処理を行って、 平滑化した体腔表面の表面位置 (平 滑化後の表面座標) が平滑化前の体腔表面の表面位置 (平滑化前 の表面座標) に合わせ込む (一致させる) 。 これによ り、 第 2実 施形態では、 上記距離補正処理されたラジアル画像 G rを用いる ことによ り、 拍動を軽減したリニア画像が構築できる。
ここで、 図 2 6及び図 2 8 に示すラジアル画像 G r及びリニア 画像は、 図 2 5及び図 2 7に示すラジアル画像 G r及びリニア画 像に比べて拍動の影響である画像のゆらぎ (体腔表面のぎざぎざ 部分) がなくなり、 体腔表面が鮮明となる。
そして、 画像処理部 3 3 Bは、 補正ステップ ( S 1 4〜 S 1 7 ) で補正した連続的なラジアル画像 G rを得、 これら連続したラジ アル画像 G rに基づいて超音波画像 ( 3次元画像) G s を生成す る超音波画像生成ステッ プ (ステ ップ S 1 8 ) を行う。
そして、 画像処理部 3 3 Bは、 図 2 6及び図 2 8に示す超音波 画像 ( 3次元画像) G sは、 図 2 5及び図 2 7に示す超音波画像 ( 3次元画像) G s に比べてに体腔表面が滑らかな超音波画像( 3 次元画像) G sを生成するこ とが可能となる。
尚、 図 2 5及び図 2 7は従来得られる超音波画像例であ り、 図 2 6及び図 2 8は図 2 3 のフ ローチャー トによ り処理された超音 波画像例である。 また、 図 2 7及び図 2 8は、 図 2 5及び図 2 6 に対して多重エコー部分を削除した画像である。
尚、 第 2実施形態における超音波画像 ^成方法及び超音波画像 生成プログラムは、上記第 1実施形態と同様に検査中だけでなく、 超音波検査後に保存したデータを再生して行う際 (今後の治療方 針などのための画像レビューや、 体積計測時) にも活用できるこ とは言うまでもない。
この結果、 第 2実施形態における超音波画像生成方法及び超音 波画像生成プログラムは、 上記第 1実施形態よ り も更に拍動の影 響に影響されない、 画像の歪みのない高画質の 2次元断層画像及 び超音波画像 ( 3次元画像) を取得することができる。
また、 本発明は、 以上述べた実施形態のみに限定されるもので はなく、発明の要旨を逸脱しない範囲で種々変形実施可能である。 なお、 上述した各実施形態を部分的に組み合わせて構成される 実施形態等も本発朋に属する。
なお、 本発明は上述した実施形態に限定されるものではなく、 本発明の主旨を逸脱しない範囲内において種々の変形や応用が可 能であることは勿論である。 産業上の利用可能性
以上説明したように本発明によれば、 拍動の影響を取り除き、 画質の良い超音波画像を得ることができる。 関連出願へのクロス リ フ ァ レ ンス
本出願は、 2 0 0 3年 5月 1 9 日に日本国に出願された特願 2 0 0 3 — 1 4 0 8 2 3号、 および当該特願 2 0 0 3— 1 4 0 8 2 3号を優先権主張の基礎として 2 0 0 3年 1 1月 1 7日に日本国 に出願された特願 2 0 0 3— 3 8 7 2 8 1号を優先権主張の基礎 と して出願するものであ り、 上記の開示内容は、 本願明細書、 請 求の範囲、 図面に引用されたものとする。

Claims

請求の範囲
1 . 被検体に対して超音波を送受信して得られた超音波エコーデ —夕に基づき、 超音波画像を生成する超音波画像生成方法は以下 を含む ;
連続する複数の 2次元断層像に対して各画像上の基準位置を求 める基準位置設定ステップ、
前記基準位置設定ステ ッ プで求めたそれぞれの 2次元断層像の 前記基準位置の不規則性を補正して規則性のある連続的な 2次元 断層像を得る補正ステップ、 および
前記補正ステップで補正した前記規則性のある連続的な 2次元 断層像に基づいて超音波画像を生成する超音波画像生成ステ ッ プ
2 . ク レーム 1の超音波画像生成方法において、
前記補正ステップは、 予め指定された所定の 2次元断層像の基 準位置と、 前記所定の 2次元断層像と異なる他の 2次元断層像の 基準位置とを一致させるように当該他の 2次元断層像を移動させ ることを特徴とする。 ,
3 . ク レーム 2の超音波画像生成方法において、
前記補正ステップは、 更に、 前記所定の 2次元断層像の基準位 置と、 前記他の 2次元断層像の基準位置とを一致させた後に、 前 記所定の 2次元断層像を挾む前後の 2次元断層像を用いて体腔表 面の位置を平滑化することを特徴とする。
4 . クレーム 3の超音波画像生成方法において、
前記補正ステップは、 更に、 前記平滑化を実施した後に、 平滑 前の体腔表面の位置と平滑化した体腔表面の位置との差分を算出 し、 この算出した差分に基づいて該当する 2次元断層像を伸縮す ることで、 連続的な超音波画像を得ることを特徴とする。
5 . クレーム 1の超音波画像生成方法において、
前記基準位置は、 抽出された体腔表面を多角形とみなしたとき の重心であることを特徴とする。
6 . クレーム 1の超音波画像生成方法において、
前記基準位置は、 抽出された体腔表 を極座標から直交座標に 変換し、 この直交座標上において時計回りに 3、 6、 9、 1 2時 の位置に配置される抽出点に基づいて算出した体腔中心であるこ とを特徴とする。
7 . 被検体に対して超音波を送受信して得られた超音波エコーデ 一夕に基づき、 超音波画像を生成する超音波画像処理装置におけ るコンビュ一夕に実行させる超音波画像生成プログラムは以下を 含む ; ' 連続する複数の 2次元断層像に対して各画像上の基準位置を求 める基準位置設定手順、 ,
前記基準位置設定手順で求めたそれぞれの 2次元断層像の前記 基準位置の不規則性を補正して規則性のある連続的な 2次元断層 像を得る補正手順、 および
前記補正手順で補正した前記規則性のある連続的な 2次元断層 像に基づいて超音波画像を生成する超音波画像生成手順。
8 . ク レーム 7の超音波画像生成プログラムにおいて、
前記補正手順は、 予め指定された所定の 2次元断層像の基準位 置と、 前記所定の 2次元断層像と異なる他の 2次元断層像の基準 位置とを一致させるように当該他の 2次元断層像を移動させるこ とを特徴とする。
9 . ク レーム 8の超音波画像生成プログラムにおいて、
前記補正手順は、更に、前記所定の 2次元断層像の基準位置と、 前記他の 2次元断層像の基準位置とを一致させた後に、 前記所定 の 2次元断層像を挟む前後の 2次元断層像を用いて体腔表面の位 置を平滑化することを特徴とする。
1 0 . ク レーム 9の超音波画像生成プログラムにおいて、
前記補正手順は、 更に、 前記平滑化を実施した後に、 平滑前の 体腔表面の位置と平滑化した体腔表面の位置との差分を算出し、 この算出した差分に基づいて該当する 2次元断層像を伸縮するこ とで、 連続的な超音波画像を得ることを特徴とする。
1 1 . ク レーム 7 の超音波画像生成プロ グラムにおいて、
前記基準位置は、 抽出された体腔表面を多角形とみなしたとき の重心であることを特徴とする。
1 2 . ク レーム 7の超音波画像生成プログラムにおいて、
前記基準位置は、 抽出された体腔表面き極座標から直交座標に 変換し、 この直交座標上において時計回 り に 3、 6、 9、 1 2時 の位置に配置される抽出点に基づいて算出した体腔中心であるこ とを特徴とする。
PCT/JP2004/007123 2003-05-19 2004-05-19 超音波画像生成方法 WO2004100795A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP04733985.8A EP1625829B8 (en) 2003-05-19 2004-05-19 Ultrasonic image generating method
US11/280,751 US8162835B2 (en) 2003-05-19 2005-11-16 Ultrasonic image generating method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2003-140823 2003-05-19
JP2003140823 2003-05-19
JP2003387281A JP4468677B2 (ja) 2003-05-19 2003-11-17 超音波画像生成方法及び超音波画像生成プログラム
JP2003-387281 2003-11-17

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/280,751 Continuation US8162835B2 (en) 2003-05-19 2005-11-16 Ultrasonic image generating method

Publications (1)

Publication Number Publication Date
WO2004100795A1 true WO2004100795A1 (ja) 2004-11-25

Family

ID=33455513

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/007123 WO2004100795A1 (ja) 2003-05-19 2004-05-19 超音波画像生成方法

Country Status (4)

Country Link
US (1) US8162835B2 (ja)
EP (1) EP1625829B8 (ja)
JP (1) JP4468677B2 (ja)
WO (1) WO2004100795A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070299345A1 (en) * 2004-10-27 2007-12-27 Hideo Adachi Capacitive Ultrasonic Transducer and Endo Cavity Ultrasonic Diagnosis System Using the Same
DE102005019369B3 (de) * 2005-04-26 2006-11-16 Siemens Ag Vorrichtung zur Aufnahme von Querschnittsbildern
US8502821B2 (en) * 2008-02-04 2013-08-06 C Speed, Llc System for three-dimensional rendering of electrical test and measurement signals
CN102016957B (zh) * 2008-02-25 2015-01-14 发明医药有限公司 医疗训练方法及设备
EP2107389B1 (en) * 2008-04-02 2014-05-14 Samsung Medison Co., Ltd. Formation of an elastic image in an ultrasound system
WO2010007860A1 (ja) * 2008-07-15 2010-01-21 株式会社 日立メディコ 超音波診断装置とその探触子操作ガイド表示方法
KR101182999B1 (ko) * 2009-11-25 2012-09-18 삼성메디슨 주식회사 초음파 영상 처리를 수행하는 초음파 시스템 및 방법
US9443303B2 (en) * 2011-09-09 2016-09-13 Calgary Scientific Inc. Image display of a centerline of tubular structure
US9443317B2 (en) * 2011-09-09 2016-09-13 Calgary Scientific Inc. Image display of a centerline of tubular structure
US9196058B2 (en) * 2013-11-26 2015-11-24 Saudi Arabian Oil Company Automated workflow for 3D core digital modeling from computerized tomography scanner (CTS) images
JP6717801B2 (ja) * 2015-03-02 2020-07-08 テルモ株式会社 画像診断装置および画像構築方法
WO2018133098A1 (zh) * 2017-01-23 2018-07-26 上海联影医疗科技有限公司 血管壁应力应变状态获取方法及系统
CN110710990B (zh) * 2019-09-29 2021-07-02 华中科技大学 一种螺旋超声断层成像方法及系统
WO2022202310A1 (ja) * 2021-03-26 2022-09-29 テルモ株式会社 プログラム、画像処理方法及び画像処理装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06285066A (ja) * 1993-04-01 1994-10-11 Toshiba Corp 超音波診断装置
JPH06285065A (ja) * 1993-03-31 1994-10-11 Toshiba Corp 超音波ドプラ診断装置
JPH08332187A (ja) * 1995-06-08 1996-12-17 Aloka Co Ltd 超音波画像処理装置
JPH10192A (ja) * 1996-04-15 1998-01-06 Olympus Optical Co Ltd 超音波画像診断装置
JPH10248844A (ja) * 1997-03-12 1998-09-22 Olympus Optical Co Ltd 超音波画像診断装置
JP2000316864A (ja) * 1999-05-11 2000-11-21 Olympus Optical Co Ltd 超音波診断装置
JP2002204790A (ja) * 2000-11-04 2002-07-23 Koninkl Philips Electronics Nv 画像を重ね合わす方法及び装置
JP2002526226A (ja) * 1998-10-01 2002-08-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 空間的に合成された超音波診断画像のブレを補正する方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5622174A (en) * 1992-10-02 1997-04-22 Kabushiki Kaisha Toshiba Ultrasonic diagnosis apparatus and image displaying system
JP2785636B2 (ja) * 1993-02-25 1998-08-13 株式会社エス.エス.ビー 生体組織多次元可視装置
JP3413379B2 (ja) 1993-08-05 2003-06-03 オリンパス光学工業株式会社 超音波画像診断装置
JP3316268B2 (ja) 1993-08-30 2002-08-19 アロカ株式会社 管腔内超音波診断装置
US5830145A (en) * 1996-09-20 1998-11-03 Cardiovascular Imaging Systems, Inc. Enhanced accuracy of three-dimensional intraluminal ultrasound (ILUS) image reconstruction
US6106466A (en) * 1997-04-24 2000-08-22 University Of Washington Automated delineation of heart contours from images using reconstruction-based modeling
US6095976A (en) * 1997-06-19 2000-08-01 Medinol Ltd. Method for enhancing an image derived from reflected ultrasound signals produced by an ultrasound transmitter and detector inserted in a bodily lumen
US5885218A (en) * 1997-11-07 1999-03-23 Scimed Life Systems, Inc. Method and apparatus for spatial filtering in an intravascular ultrasound imaging system
US6210328B1 (en) * 1998-10-01 2001-04-03 Atl Ultrasound Ultrasonic diagnostic imaging system with variable spatial compounding
JP2000316865A (ja) 1999-05-12 2000-11-21 Olympus Optical Co Ltd 超音波画像診断装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06285065A (ja) * 1993-03-31 1994-10-11 Toshiba Corp 超音波ドプラ診断装置
JPH06285066A (ja) * 1993-04-01 1994-10-11 Toshiba Corp 超音波診断装置
JPH08332187A (ja) * 1995-06-08 1996-12-17 Aloka Co Ltd 超音波画像処理装置
JPH10192A (ja) * 1996-04-15 1998-01-06 Olympus Optical Co Ltd 超音波画像診断装置
JPH10248844A (ja) * 1997-03-12 1998-09-22 Olympus Optical Co Ltd 超音波画像診断装置
JP2002526226A (ja) * 1998-10-01 2002-08-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 空間的に合成された超音波診断画像のブレを補正する方法
JP2000316864A (ja) * 1999-05-11 2000-11-21 Olympus Optical Co Ltd 超音波診断装置
JP2002204790A (ja) * 2000-11-04 2002-07-23 Koninkl Philips Electronics Nv 画像を重ね合わす方法及び装置

Also Published As

Publication number Publication date
US20060079772A1 (en) 2006-04-13
JP2005000638A (ja) 2005-01-06
JP4468677B2 (ja) 2010-05-26
EP1625829B1 (en) 2019-02-27
US8162835B2 (en) 2012-04-24
EP1625829B8 (en) 2019-04-17
EP1625829A1 (en) 2006-02-15
EP1625829A4 (en) 2010-08-04

Similar Documents

Publication Publication Date Title
US8162835B2 (en) Ultrasonic image generating method
JP4864547B2 (ja) 超音波診断装置およびその制御処理プログラム
US9826959B2 (en) Ultrasonic diagnostic device
JP5294340B2 (ja) 超音波診断装置
JP4676334B2 (ja) 生体信号モニタ装置
JP2006510413A (ja) 動脈壁の動きを決定する超音波ドップラシステム
JP5166154B2 (ja) 超音波診断装置
JP5400015B2 (ja) 超音波診断装置およびその作動方法
KR20130080640A (ko) 초음파 영상 제공 방법 및 초음파 영상 제공 장치
US20160051232A1 (en) Ultrasound diagnostic apparatus and method and computer readable storage medium
JP2010233956A (ja) 超音波診断装置
JP4119497B2 (ja) 超音波画像診断装置
JP4764209B2 (ja) 超音波信号解析装置、超音波信号解析方法、超音波解析プログラム、超音波診断装置、及び超音波診断装置の制御方法
KR20160064442A (ko) 의료영상처리장치 및 이를 이용한 의료영상정합방법
JP2006167450A (ja) 超音波心臓動態画像のランの部分の選定方法
JP2010125025A (ja) 超音波診断装置
WO2016024422A1 (ja) 超音波画像処理装置
JP6853372B2 (ja) 超音波診断装置および超音波診断装置の制御方法
JP5346555B2 (ja) 動脈硬化リスク表示機能を備えた超音波診断装置
JP2003079627A (ja) 心臓壁運動評価装置
JP4098266B2 (ja) 超音波画像診断装置
WO2021192925A1 (ja) 超音波診断装置、超音波診断装置の制御方法および超音波診断装置用プロセッサ
JP2007289720A (ja) 超音波画像診断装置
JP4445744B2 (ja) 超音波画像生成装置の作動方法及び超音波画像生成プログラム
WO2022080190A1 (ja) 超音波診断装置および超音波診断装置の制御方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004733985

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11280751

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2004733985

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11280751

Country of ref document: US