WO2007138751A1 - 超音波診断装置、医用画像処理装置及び医用画像処理プログラム - Google Patents

超音波診断装置、医用画像処理装置及び医用画像処理プログラム Download PDF

Info

Publication number
WO2007138751A1
WO2007138751A1 PCT/JP2007/000587 JP2007000587W WO2007138751A1 WO 2007138751 A1 WO2007138751 A1 WO 2007138751A1 JP 2007000587 W JP2007000587 W JP 2007000587W WO 2007138751 A1 WO2007138751 A1 WO 2007138751A1
Authority
WO
WIPO (PCT)
Prior art keywords
cross
image
series
calculated
sectional positions
Prior art date
Application number
PCT/JP2007/000587
Other languages
English (en)
French (fr)
Inventor
Tetsuya Kawagishi
Yasuhiko Abe
Original Assignee
Kabushiki Kaisha Toshiba
Toshiba Medical Systems Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kabushiki Kaisha Toshiba, Toshiba Medical Systems Corporation filed Critical Kabushiki Kaisha Toshiba
Priority to US12/302,506 priority Critical patent/US8343052B2/en
Priority to CN200780024890.8A priority patent/CN101484074B/zh
Priority to EP07737243A priority patent/EP2022404B1/en
Publication of WO2007138751A1 publication Critical patent/WO2007138751A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4483Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Definitions

  • Ultrasonic diagnostic apparatus medical image processing apparatus, and medical image processing program
  • the present invention relates to an ultrasonic diagnostic apparatus that transmits ultrasonic waves into a subject using an ultrasonic probe and acquires a medical image of the subject based on the reflected waves, and the ultrasonic diagnostic apparatus.
  • the present invention relates to a medical image processing apparatus and a medical image processing program for processing medical images.
  • the present invention relates to an ultrasonic diagnostic apparatus, a medical image processing apparatus, and a medical image processing program that are used for evaluating the motion function of a living tissue.
  • An ultrasonic diagnostic apparatus has the merit that an image can be observed on the spot by a simple operation by simply bringing an ultrasonic probe into contact with the body surface. Widely used. In recent years, attention has been focused on the evaluation of the movement function of living tissues such as heart wall movement, especially the evaluation of three-dimensional movement function.
  • Patent Document 1 discloses an ultrasonic diagnostic apparatus used for evaluating the motor function of a living tissue. This ultrasonic diagnostic apparatus extracts feature points in a two-dimensional image of biological tissue and designates measurement points based on the feature points. Then, a template with a size including a predetermined number or more of feature points is set around each specified measurement point, and cross-correlation between the two images is performed using this template, and the displacement and speed of the tissue are determined. Measurement accuracy is improved by measuring physical / ⁇ parameters.
  • Patent Document 1 Japanese Patent Laid-Open No. 2 004_3 1 3 2 91
  • the present invention has been made to solve the above-described problems, and an ultrasonic diagnostic apparatus and medical image capable of measuring a three-dimensional motion of a living tissue in a short time. It is an object to provide a processing device and a medical image processing program.
  • Another object of the present invention is to provide an ultrasonic diagnostic apparatus, a medical image processing apparatus, and a medical image processing program that make it possible to easily specify a region for measuring the motion of a living tissue. It is said.
  • the invention according to claim 1 is obtained as a result of ultrasonic probe, transmission / reception means for transmitting / receiving ultrasonic waves to the ultrasonic probe, and transmission / reception of the ultrasonic waves.
  • image generation means for generating image data of a series of tomographic images along a time series for each of two or more cross-sectional positions of the biological tissue, and for each of the two or more cross-sectional positions, the generation Based on the acquired image data, one tomographic image of the series of tomographic images is obtained.
  • the local motion information indicating the motion state of the biological tissue in the designated measurement image region is calculated, and the calculated local area is calculated for each of the two or more cross-sectional positions.
  • Calculation means for calculating exercise information indicating the state of movement of the living tissue based on exercise information, and the display means displays the exercise information calculated by the calculation means. This is an ultrasonic diagnostic device.
  • the invention according to claim 15 is characterized in that one or more living tissues are transmitted and received based on a transmission / reception unit that transmits / receives ultrasonic waves to / from the ultrasonic probe and a reception signal obtained as a result of transmission / reception of the ultrasonic waves
  • Image generating means for generating image data of a series of tomographic images along a time series for each of the cross-sectional positions, and based on the generated image data for each of the one or more cross-sectional positions, Display means for displaying one tomographic image of the images; designation means for designating a measurement image area in the one tomographic image displayed for each of the one or more cross-sectional positions; For each cross-sectional position, based on the image data of the series of tomographic images, the local motion information indicating the motion state of the living tissue in the designated measurement image region. And a calculating means for calculating a, wherein the display unit displays the local motion information calculated by the calculating means, it is an ultrasonic
  • the invention according to claim 19 is a medical image processing apparatus that processes image data of a medical image of a biological tissue obtained by an ultrasonic diagnostic apparatus, and includes two or more cross-sections of the biological tissue Storage means for storing image data of a series of tomographic images along a time series at each of the positions; and for each of the two or more cross-sectional positions, based on the stored image data, Display means for displaying one of the tomographic images, and designation means for designating a measurement image region in the displayed one tomographic image for each of the two or more cross-sectional positions.
  • the invention according to claim 20 is a medical image processing apparatus for processing image data of a medical image of a biological tissue obtained by an ultrasonic diagnostic apparatus, wherein one or more cross sections of the biological tissue Storage means for storing image data of a series of tomographic images along a time series at each of the positions; and for each of the one or more cross-sectional positions, based on the stored image data, Display means for displaying one of the tomographic images, designation means for designating a measurement image region in the displayed one tomographic image for each of the one or more cross-sectional positions, and the one or more cross-sections For each position, based on the image data of the series of tomographic images, computing means for computing local motion information indicating the motion state of the biological tissue in the designated measurement image region , Wherein the display unit displays the local motion information calculated by the calculating means, it is characterized.
  • the invention according to claim 21 includes a storage unit that stores image data of a series of tomographic images along a time series at each of two or more cross-sectional positions of a living tissue, and a display.
  • a computer having a means for displaying, on the display means, one tomographic image of the series of tomographic images based on the stored image data for each of the two or more cross-sectional positions. For each of the two or more cross-sectional positions, the designation is made based on the image data of the series of tomographic images, corresponding to the fact that the measurement area is designated in the displayed one tomographic image.
  • Each of the two or more cross-sectional positions is made to function so as to calculate local motion information indicating a motion state of the living tissue in the measured measurement image region. Based on the calculated local motion information, the motion information indicating the motion state of the living tissue is calculated, and the calculated motion information is displayed on the display means.
  • This is a medical image processing program characterized by this.
  • the invention according to claim 22 includes a storage unit that stores image data of a series of tomographic images along a time series at each of one or more cross-sectional positions of a living tissue, and a display.
  • a computer having a means for displaying, on the display means, one tomographic image of the series of tomographic images based on the stored image data for each of the one or more cross-sectional positions.
  • the designation based on the image data of the series of tomographic images.
  • a medical imaging program characterized in that.
  • the invention according to claim 1, claim 19 or claim 21 displays one tomographic image for each of two or more cross-sectional positions of a living tissue, and the displayed tomographic image.
  • local motion information indicating the motion state of the living tissue in the measurement image area is calculated, and the local motion in each of the calculated two or more cross-sectional positions is calculated. Based on the information, the motion information of the living tissue is calculated and the motion information is displayed.
  • the present invention it is possible to measure the three-dimensional movement of the biological tissue by obtaining the movement information based on the local movement information at each of two or more cross-sectional positions of the biological tissue.
  • motion information is obtained considering only local motion information at two or more cross-sectional positions, it is not necessary to calculate the displacement between the cross-sectional positions. so Can be acquired.
  • the measurement image area is designated for the displayed tomographic image, it is possible to easily designate the measurement image area for acquiring the motion information.
  • the invention described in claim 15, claim 20, or claim 22 displays one tomographic image for each of one or more cross-sectional positions of a living tissue, and displays the displayed tomogram.
  • the measurement image region being designated in the image, local motion information indicating the state of motion of the living tissue in the measurement image region is calculated and the local motion information is displayed.
  • the measurement image region is designated for the displayed tomographic image, the measurement image region for acquiring the local motion information can be easily designated.
  • FIG. 1 is a schematic block diagram showing an example of the overall configuration of a preferred embodiment of an ultrasonic diagnostic apparatus according to the present invention.
  • FIG. 2 is a schematic explanatory diagram for explaining an example of an ultrasonic scan mode in a preferred embodiment of the ultrasonic diagnostic apparatus according to the present invention.
  • FIG. 3 is a schematic explanatory diagram for explaining an example of an ultrasonic scan mode in a preferred embodiment of the ultrasonic diagnostic apparatus according to the present invention.
  • FIG. 4 is a flow chart showing an example of the operation mode of the preferred embodiment of the ultrasonic diagnostic apparatus according to the present invention.
  • FIG. 5 is a schematic view showing an example of a display form of a display screen according to a preferred embodiment of the ultrasonic diagnostic apparatus according to the present invention.
  • FIG. 6 is a schematic view showing an example of a display form of a display screen according to a preferred embodiment of the ultrasonic diagnostic apparatus according to the present invention.
  • FIG. 7 is a flowchart showing an example of processing according to a preferred embodiment of the ultrasonic diagnostic apparatus according to the present invention.
  • FIG. 8 illustrates processing according to a preferred embodiment of the ultrasonic diagnostic apparatus according to the present invention. It is a schematic explanatory drawing for this.
  • FIG. 9 is a flow chart showing an example of processing according to a preferred embodiment of the ultrasonic diagnostic apparatus according to the present invention.
  • FIG. 10 is a schematic explanatory diagram for explaining processing according to a preferred embodiment of the ultrasonic diagnostic apparatus according to the present invention.
  • FIG. 11 is a flow chart showing an example of processing according to a preferred embodiment of the ultrasonic diagnostic apparatus according to the present invention.
  • FIG. 12 is a schematic explanatory diagram for explaining processing according to a preferred embodiment of the ultrasonic diagnostic apparatus according to the present invention.
  • FIG. 13 is a flow chart showing an example of processing according to a preferred embodiment of the ultrasonic diagnostic apparatus according to the present invention.
  • FIG. 14 is a schematic explanatory diagram for explaining processing according to a preferred embodiment of the ultrasonic diagnostic apparatus according to the present invention.
  • FIG. 15 is a schematic block diagram showing an example of the overall configuration of a modification of the preferred embodiment of the ultrasonic diagnostic apparatus according to the present invention.
  • FIG. 16 is a schematic explanatory diagram for explaining processing according to a modification of the preferred embodiment of the ultrasonic diagnostic apparatus according to the present invention.
  • FIG. 17 is a schematic block diagram showing an example of the overall configuration of a preferred embodiment of the ultrasonic diagnostic apparatus according to the present invention.
  • FIG. 1 shows an example of the overall configuration of an ultrasonic diagnostic apparatus according to the present invention.
  • An ultrasonic diagnostic apparatus 1 shown in the figure is an apparatus used to acquire an image representing the form of a living tissue such as a heart or an image representing a blood flow state, and includes a two-dimensional ultrasonic probe 2 and a transmission / reception device.
  • the unit 3 includes a signal processing unit 4, an image processing unit 5, an arithmetic processing unit 6, a storage unit 7, a user interface 8, and a control unit 9.
  • Storage unit, user interface, control unit [Storage unit, user interface, control unit]
  • the storage unit 7 is configured by a storage device such as a hard disk drive.
  • the storage unit 7 stores in advance a medical image processing program 71 for causing the ultrasonic diagnostic apparatus 1 to execute operations characteristic of the present invention.
  • the storage unit 7 stores various types of data such as image data of an ultrasound image and incidental information attached to the image data (DICOM (Digital Imaging and Communications in Medicine) information).
  • DICOM Digital Imaging and Communications in Medicine
  • the user interface 8 is provided with a display unit 81 and an operation unit 82.
  • the display unit 81 corresponds to an example of the “display unit” of the present invention, and is configured by an arbitrary display device such as a liquid crystal display or a CRT (cathode ray tube) display.
  • the display unit 81 displays an image such as an ultrasound image acquired by the ultrasound diagnostic apparatus 1 and information such as D I COM auxiliary information of the image.
  • the operation unit 82 is configured by an arbitrary operation device or input device such as a mouse, a track pole, a joystick, a control panel, or a keypad.
  • the operation unit 82 particularly serves as "designating means" for designating a measurement image region on the ultrasonic image (tomographic image) displayed on the display unit 81.
  • This measurement image area is an area on the tomographic image (actually, image data corresponding to this area) that serves as a reference for measuring the motion state of the living tissue.
  • the ultrasonic diagnostic apparatus 1 scans a living tissue three-dimensionally and repeats this three-dimensional scan, thereby repeating a series of time series. In addition to generating volume data, it operates to generate image data of tomographic images of living tissue based on one of the series of volume data.
  • the operation unit 82 is used to designate a measurement image region for this tomographic image.
  • the ultrasonic diagnostic device 1 uses the specified measurement image area. It works to measure the movement state of living tissue by analyzing how changes occur in time series.
  • the control unit 9 is configured to include a microprocessor such as CPU, and controls each unit of the ultrasonic diagnostic apparatus 1 based on the medical image processing program 71. In particular, the control unit 9 performs processing for causing the display unit 81 to display an image or a screen. Further, processing for causing the ultrasonic diagnostic apparatus 1 to execute an operation in accordance with the operation signal from the operation unit 82 is performed.
  • a microprocessor such as CPU
  • a two-dimensional ultrasonic probe 2 (sometimes simply referred to as an ultrasonic probe 2) is a plurality of ultrasonic transducers arranged two-dimensionally (for example, in a matrix (lattice)) as in the past. (The illustration is omitted.) The plurality of ultrasonic transducers are individually driven by a transmission / reception unit 3 described later.
  • FIG. 2 and FIG. 3 show the state of ultrasonic scanning by the two-dimensional ultrasonic probe 2.
  • the ultrasonic probe 2 scans the ultrasonic wave (beam) output from the array surface of the ultrasonic vibrator in the main scanning direction X, thereby generating a radial (fan-shaped) shape.
  • a two-dimensional scan plane P is formed.
  • the ultrasonic probe 2 scans the ultrasonic waves in the sub-scanning direction Y orthogonal to the main scanning direction X, so that a plurality of fan-shaped arrays arranged in the sub-scanning direction Y as shown in FIG.
  • Shape 2D scan planes P1, P2, ⁇ , and Pn are formed sequentially. Thereby, a three-dimensional scan region R as shown in FIG. 3 is formed.
  • the sub-scanning direction Y corresponds to the “predetermined direction” of the present invention
  • the main scanning direction X corresponds to the “direction orthogonal to the predetermined direction” of the present invention.
  • the two-dimensional scan planes P 1 to P n are formed at “a plurality (n) of positions along a predetermined direction” of the present invention.
  • the transmission / reception unit 3 supplies an echo signal (reception signal) output from the transmission unit that generates an ultrasonic wave by supplying an electrical signal to the ultrasonic probe 2 and the ultrasonic probe 2 that has received the reflected wave of the ultrasonic wave. (Not shown). ) o
  • the transmission unit in the transmission / reception unit 3 includes a clock generation circuit, a transmission delay circuit, a pulser circuit, and the like (not shown).
  • the clock generation circuit is a circuit that generates a clock signal that determines the transmission frequency of ultrasonic transmission timing.
  • the transmission delay circuit is a circuit that performs transmission focus with a delay when transmitting ultrasonic waves.
  • the pulsar circuit contains a number of pulsars corresponding to the individual paths (channels) corresponding to each ultrasonic transducer, generates a drive pulse at a transmission timing that can be delayed, and outputs each ultrasonic wave of the ultrasonic probe 2. Operates to supply to the vibrator.
  • the receiving unit in the transmitting / receiving unit 3 includes a preamplifier circuit, an AZD conversion circuit, and a reception delay / adder circuit (not shown).
  • the preamplifier circuit amplifies the echo signal output from each ultrasonic transducer of the ultrasonic probe 2 for each reception channel.
  • the AZ D conversion circuit converts the amplified echo signal into A (analog) and Z D (digital).
  • Receive delay ⁇ Adder circuit adds the delay time necessary to determine the reception directivity for the echo signal after AZ D conversion. By this addition process, the reflection component from the direction according to the reception directivity is emphasized.
  • the added signal may be referred to as “R F data (or raw data)”.
  • the transmission / reception unit 3 inputs the acquired RF data to the signal processing unit 4.
  • the signal processing unit 4 performs signal processing for visualizing the amplitude information of the echo signal based on the RF data input from the transmission / reception unit 3.
  • the data generated by the signal processing unit 4 is sent to the control unit 9 and displayed on the display unit 81 of the user interface 8 or input to the image processing unit 5.
  • the signal processing unit 4 mainly includes a B mode processing unit 41, a Doppler processing unit 4 2, and a CMF processing unit 43.
  • B (B rightness) mode processing unit 41 is based on RF data. Generate B-mode ultrasound raster data. More specifically, the B-mode processing unit 41 performs band-pass filter processing on the RF data, detects an envelope of the output signal, and logarithmically detects the detected data. Perform compression processing by conversion. As a result, for each of the two-dimensional scan planes P 1 to P n, image data of a tomographic image in which the signal intensity is expressed by brightness is generated.
  • the B-mode processing unit 41 corresponds to an example of “first tomographic image generation means” of the present invention.
  • the Doppler (Dop p I er) processing unit 42 generates blood flow information in the living tissue by, for example, pulse Doppler method (PW Doppler method) or continuous wave Doppler method (CW Doppler method).
  • PW Doppler method pulse Doppler method
  • CW Doppler method continuous wave Doppler method
  • the pulse Doppler method a pulse wave is used to change the frequency of the ultrasonic wave due to the Doppler effect due to blood flow at a certain depth (distance from the ultrasonic probe 2) (Doppler displacement frequency component). Can be detected.
  • the pulse Doppler method has a good distance resolution, it is suitably used for the organization of a specific part or the depth measurement of blood flow.
  • the Doppler processing unit 42 performs phase detection on the RF data input from the transmission / reception unit 3 by phase detection of a signal in a blood flow observation region having a predetermined size.
  • the frequency component is extracted and further subjected to FFT (Fast Fourier Transform) processing to generate data indicating the Doppler frequency distribution representing the blood flow velocity in the blood flow observation region.
  • FFT Fast Fourier Transform
  • the continuous wave Doppler method differs from the pulse Doppler method in that it uses a continuous wave to transmit and receive ultrasonic waves (radial direction on the fan-shaped two-dimensional scan plane P shown in Fig. 2 (A)).
  • the Doppler processing unit 42 receives the R “data received from the transceiver unit 3 on the blood flow observation sample line.
  • the Doppler displacement frequency component is extracted by phase detection of the signal, and further F FT processing is performed to generate data indicating the Doppler frequency distribution representing the blood flow velocity on the sample line.
  • the CFM (Collar Flow Mapping) processing unit 43 operates when the color flow mapping method is used to display the blood flow information of a biological tissue on a monochrome B-mode image with a power error and display it in real time. .
  • the displayed blood flow information includes blood flow velocity, dispersion, and power. This blood flow information is obtained as binarized information. More specifically, “! ⁇ 1 processing unit 43 is configured to include a phase detection circuit, an MT I (Moving Ta ret Indecation) filter, an autocorrelator, a flow velocity, a dispersion calculator, and the like. ⁇ “!
  • ⁇ 1 processing unit 43 separates the morphological signal reflecting the morphology of the living tissue and the blood flow signal reflecting the blood flow by high-pass filter processing (MTI filter processing), and by autocorrelation processing. Blood flow information such as blood flow velocity, dispersion, power, etc. is obtained for multiple positions, and nonlinear processing to reduce morphological signals may be performed.
  • MTI filter processing high-pass filter processing
  • autocorrelation processing Blood flow information such as blood flow velocity, dispersion, power, etc. is obtained for multiple positions, and nonlinear processing to reduce morphological signals may be performed.
  • the image processing unit 5 performs various types of image processing based on the data generated by the signal processing unit 4.
  • the image processing unit 5 has a DSC (Digital IS can Converter), and the data synchronized with the ultrasonic scanning generated by the signal processing unit 4 is used as display data (TV scanning system data).
  • a conversion process that is, a scan conversion process is performed.
  • the image processing unit 5 is provided with a volume data generation unit 51 and an MPR processing unit 52 described below.
  • the volume data generation unit 51 generates volume data (poxel data) by performing interpolation processing on the image data of each two-dimensional scan plane P 1 to P n generated by the B mode processing unit 41 of the signal processing unit 4. To do.
  • This volume data corresponds to an example of the “volume data generator” of the present invention, and includes, for example, a DSC, a microprocessor, and the like.
  • the image processing unit 5 When displaying a pseudo three-dimensional image based on volume data, the image processing unit 5 performs volume rendering processing or MIP (M a X mum Intensity Projection) on the volume data. Apply processing.
  • the MPR (Mu I ti PI annar Re construction) processing unit 52 executes a cross-section conversion process based on the volume data generated by the volume data generation unit 51, thereby providing a slice image in an arbitrary cross-section. Image data is generated.
  • the MPR processing unit 52 corresponds to an example of the “second tomographic image generation means” of the present invention, and includes, for example, a DSC, a microprocessor, and the like. Further, the B mode processing unit 41, the volume data generation unit 51, and the MPR processing unit 52 of the signal processing unit 4 function as an example of the “image generation unit” of the present invention.
  • the arithmetic processing unit 6 Based on the image data of the tomographic image generated by the MPR processing unit 52 of the image processing unit 5, the arithmetic processing unit 6 performs local motion information indicating the state of local motion of the biological tissue and more global motion.
  • the movement information indicating the state of the movement is calculated, and functions as an example of the “calculation means” of the present invention.
  • the local motion information obtained by the arithmetic processing unit 6 for example, when the living tissue is the heart, the change in the thickness of the heart wall, the speed of the change, the strain of the heart wall motion (strain; ), Strainrate.
  • strain strain
  • Strainrate strain of the heart wall motion
  • the exercise information for example, the torsional motion of the heart wall, the speed of the torsional motion, the expansion and contraction (shortening), the speed of the expansion and contraction, the stray of the motion of the heart wall , Strain rate, relative rotational gradient, etc. (details will be described later).
  • the arithmetic processing unit 6 includes a microprocessor such as CPU.
  • the calculation processing unit 6 includes a displacement calculation unit 61 and a motion information calculation unit 62.
  • the displacement calculation unit 61 tracks the measurement image region specified in the tomographic image by the operation unit 82 2 along the time series, thereby aligning the measurement image region (the biological tissue in the time series) with the time series. Calculate the displacement.
  • This displacement of the measurement image region corresponds to an example of “local motion information” of the present invention.
  • the displacement speed can be obtained by dividing the displacement between two-dimensional or three-dimensional images along the time series by the time interval (frame interval) between the images.
  • the displacement between the images can be obtained by multiplying the displacement speed of the measurement image region by the time interval between the images.
  • displacement and velocity can be considered synonymous. In this sense, in the present invention, the displacement and the speed are sometimes equated.
  • the ultrasonic diagnostic apparatus 1 generates a series of volume data along the time series of the living tissue, and generates one volume data (volume data at a certain time (time phase)). Generate image data of the tomographic image based on it. Then, a measurement image region is designated for this tomographic image.
  • the displacement calculation unit 61 tracks the amount of displacement of the measurement image area in the volume data at other times (time phases) in time series. Such tracking processing of the displacement of the measurement image area in the volume data along the time series is sometimes called “three-dimensional tracking”.
  • the displacement calculator 61 determines how much the measurement image region specified in the tomographic image is displaced in the tomographic image at another time (time phase) in the same cross-sectional position as the slice image. You can also track along the timeline. Such tracking process Is sometimes called ⁇ 2D tracking ”. This two-dimensional tracking generates tomographic image data along the time series at the cross-sectional position based on the time series of polyum data, and the displacement is detected in the tomographic image data along the time series. This can be done by tracking In addition, by tracking the displacement in the cross-sectional position in the volume data along the time series,
  • Two-dimensional tracking may be performed.
  • Such tracking processing can be performed by a method similar to the conventional method.
  • a feature point is extracted from a measurement image region specified for each of a plurality of tomographic images along a time series, and based on the feature point. Specify the measurement point. Then, a template with a size including a predetermined number or more of feature points is set around this measurement point, and cross-correlation processing (pattern matching processing) is performed for two tomographic images (measurement image regions) using this template. To calculate the displacement of each measurement point.
  • a 3D template is set in the same way based on volume data, and two volume data with different time (time phase) are set using this 3D template.
  • the pattern matching process is performed on and the displacement of each measurement point is calculated.
  • the feature points and measurement points may be specified only on the measurement image region (for example, the intima position image ml shown in FIG. 5 described later), or the measurement image region is used as a boundary.
  • You may comprise as follows. In any case, it is possible to apply any tracking method that can calculate the displacement along the time series of the specified measurement image area.
  • the displacement of the measurement point obtained by the two-dimensional tracking or the three-dimensional tracking can be used as it is as the displacement of the measurement image region. Also, based on the displacement of these measurement points, the displacement of the boundary of the measurement image area (for example, the intima position images m 1 to m 3 and the epicardial position images M 1 to M 3 shown in FIG. 6 described later) is determined. Calculation However, this boundary displacement can also be used as the displacement of the measurement image region.
  • the displacement calculation unit 61 designates a plurality of measurement points in the measurement image area designated for one tomographic image, and obtains the positions of these measurement points for the tomographic image of each frame. . Then, the displacement along the time series of each measurement point is calculated based on the position of the measurement point of the tomographic image of each frame, and the displacement of the specified measurement image region is calculated based on the displacement of this measurement point. It acts as a calculation.
  • the motion information calculation unit 62 calculates the motion information indicating the (more global) motion state of the living tissue based on the displacement of the measurement image area calculated by the displacement calculation unit 61. is there. A specific example of the motion information calculation processing by the motion information calculation unit 62 will be described later.
  • FIGS. 4 to 6 An example of the operation mode of the ultrasonic diagnostic apparatus 1 according to this embodiment having the above-described configuration will be described with reference to FIGS.
  • FIGS. 4 to 6 acquisition of an ultrasound image and designation of a measurement image area will be described with reference to FIGS. 4 to 6.
  • FIG. 7 to FIG. 14 will be described with respect to measurement image area tracking processing and motion information calculation processing. This will be described with reference to FIG.
  • an ultrasound image of the heart to be evaluated for motion status is acquired.
  • an ultrasonic probe is applied to the body surface in the vicinity of the subject's heart (generally, in the vicinity of the apex of the heart) and a predetermined operation is performed, so that the transmission / reception unit 3 controls the control unit 9. Based on this, the ultrasonic probe 2 is controlled to perform three-dimensional ultrasonic scanning of the heart (ultrasonic scanning shown in FIGS. 2 and 3) (S 0 1).
  • the ultrasonic diagnostic apparatus 1 repeatedly executes this three-dimensional ultrasonic scan.
  • the 3D ultrasound scan can be repeated for one cardiac cycle (one cardiac cycle (for example, from one R wave to the next R wave in the electrocardiogram)). desirable.
  • the transmitter / receiver 3 transmits echo signals sequentially transmitted from the ultrasonic probe 2 to R.
  • the B mode processing unit 41 of the signal processing unit 4 sequentially generates image data of tomographic images on the respective two-dimensional scan planes P 1 to P n based on this RF data (S O 2).
  • the generated image data is input to the image processing unit 5. If the volume data is obtained first, the image data of the tomographic image may be generated by performing MPR processing or the like on the volume data.
  • the volume data generation unit 51 of the image processing unit 5 sequentially performs interpolation processing on the image data of the tomographic images on the two-dimensional scan planes P1 to Pn, and performs one-dimensional three-dimensional processing. Volume data in the three-dimensional scan region R corresponding to the ultrasonic scan is sequentially generated (SO 3). As a result, multiple volume data along the time series can be obtained.
  • the MPR processing unit 52 generates image data of a tomographic image at a predetermined cross-sectional position of the heart based on one of the generated plurality of volume data.
  • the apex four-chamber image also referred to as apex four-chamber tomography.
  • Image data and apex two-chamber image are generated (S O 4).
  • the apical four-chamber image and the apical two-chamber image are tomographic images at cross-sectional positions along the long axis direction of the heart, and the cross-sectional positions are orthogonal to each other.
  • the control unit 9 causes the display unit 81 to display a tomographic image (apex four-chamber image and apex two-chamber image) based on the image data generated in step S O 4 (S O 5).
  • FIG. 5 shows an example of the display mode at this time.
  • the display unit 8 1 (display screen) in the figure is provided with cross-sectional position designation image display units 8 1 A and 8 1 B in which tomographic images based on the image data generated in step SO 4 are displayed. .
  • the apex four-chamber image is displayed on the cross-sectional position designation image display unit 8 1 A and the apex two-chamber image is displayed on the cross-section position designation image display unit 8 1 B.
  • an electrocardiogram display unit of display unit 8 1 8 1 ECG is displayed on F.
  • a time cursor T indicating the time (time phase, time) when the tomographic images displayed in the cross-sectional position designation image display portions 8 1 A and 8 1 B are acquired is displayed.
  • the time cursor T is placed at the time of the R wave in the ECG.
  • the time cursor T is configured to move (drag and drop, etc.) in the time direction (horizontal direction) of the electrocardiogram, and the tomographic image at the time (time phase) to which the time cursor T is moved is volume data. It can also be configured to be generated from and displayed on the cross-section position designation image display units 8 1 A and 8 1 B.
  • Cross-sectional position designation cursors C 1, C 2, and C 3 are provided in the horizontal position of the cross-section position designation image display unit 8 1 B. While observing the apex four-chamber image and the apex two-chamber image, for example, the user operates the mouse of the operation unit 82 to move the cross-section position specifying cursors C1 to C3 in the vertical direction (long axis direction of the heart). Specify the cross-sectional position by dragging and dropping (SO 6).
  • the control unit 9 for example, based on the coordinates on the display screen of the apex four-chamber image (and Z or apex two-chamber image) and the coordinates on the display screen of the cross-section position specification cursors C1 to C3, The coordinates of the specified cross-sectional position in the image data of the four-chamber image are determined and sent to the image processing unit 5.
  • the MPR processing unit 52 based on the coordinate information sent from the control unit 9 and the plurality of volume data generated in step SO3, in the short axis direction of the heart at each designated cross-sectional position. Image data of a tomographic image having a cross section is generated (SO 7). At this time, the MPR processing unit 52 generates image data of a tomographic image at each designated cross-sectional position for each of a plurality of volume data.
  • the control unit 9 displays a tomographic image based on the image data generated from the same polyme data as in step S 0 4 among the image data generated in step SO 7. Display on the parts 8 1 C, 8 1 D, 8 1 E (S 0 8).
  • image data related to the display processing in step S 08 is preferentially generated, and other image data generation processing is described. It may be executed in the background of the processing after step S08.
  • the cross-sectional position designation cursors C 1 to C 3 are designated at the apex level of the heart, the papillary muscle level, and the base level, respectively.
  • the tomographic image display section 8 1 C displays the apex level tomographic image (apical apex short axis image) G 1 designated by the cross-section position designation cursor C 1.
  • a tomographic image (papillary muscle short axis image) G2 of the papillary muscle level designated by the cross-section position designation cursor C2 is displayed.
  • a heart-layer level slice image (cardiac base short-axis image) G 3 designated by the cross-section position designation cursor C 3 is displayed.
  • the user operates the operation unit 8 2 to display the tomographic image display units 8 1 C, 8 1 D, 8
  • FIG. 6 shows an example of a measurement image region designation mode for the apex short axis image G 1, the papillary muscle short axis image G 2, and the base proximal short axis image G 3 in FIG.
  • the inner dotted line shown in each short-axis image G1 to G3 indicates the intima of the heart wall, and the outer dotted line indicates the adventitia.
  • the user operates the operation unit 82 while observing the displayed short-axis images G1 to G3, and inputs lines indicating the measurement image region so as to trace the inner membrane and the outer membrane, respectively.
  • the apex short-axis image G 1 includes an intima position image ml obtained by tracing the intima of the heart wall and an adventitia obtained by tracing the adventitia.
  • Position image M1 is input.
  • the papillary muscle short-axis image G2 is input with an intima position image m2 obtained by tracing the intima of the heart wall and an epicardial position image M2 obtained by tracing the epicardium.
  • an endocardial position image m 3 obtained by tracing the intima of the heart wall and an epicardial position image M 3 obtained by tracing the epicardium are input to the short base image G 3 of the base. .
  • the displacement calculation unit 6 1 By performing two-dimensional tracking of the intima position image m 1 based on the tomographic image data (SO 7) generated for each of the volume data, it is orthogonal to the cross section of the apical short axis image G 1 The rotation angle (local motion information) of the intima position image m 1 with the direction (long axis direction of the heart) as the axis is calculated.
  • the rotation angles of the intima position images M 1, M 2, and M 3 may be calculated.
  • the displacement calculation unit 61 determines the intima position image m as the rotation angle with respect to the time phase (reference time phase) to which the intima position image ml or the like is input in step SO9. Calculate the rotation angle of 1, m 2 and m 3. Further, the rotation angles of the intima position images m 1, m 2, and m 3 in adjacent frames (that is, consecutive frames) along the time series may be sequentially calculated.
  • the motion information calculation unit 62 calculates the difference (relative rotation angle) between the rotation angle of the intima position image ml and the rotation angle of the intima position image m2 (S12). Similarly, the difference between the rotation angle of the intima position image m 2 and the rotation angle of the intima position image m 3 (relative rotation (Angle) is calculated (S 13). These relative rotation angles are the difference information of the invention.
  • steps S12 and S13 will be specifically described with reference to FIG.
  • the counterclockwise direction is defined as the positive rotation direction (+0 direction).
  • the rotation angle of the intima position image ml is 01
  • the rotation angle of the intima position image m 2 is 02
  • the rotation angle of the intima position image m 3 is 03.
  • the relative rotation angle ⁇ 01 2 obtained in step S 1 2 is the state of the torsional motion of the heart wall between the cross-sectional position of the apex short-axis image G 1 and the cross-sectional position of the papillary muscle short-axis image G 2
  • This information reflects (size).
  • the relative rotation angle ⁇ 023 obtained in step S13 is the torsional motion of the heart wall between the cross-sectional position of the papillary muscle short-axis image G2 and the cross-sectional position of the base proximal short-axis image G3. It is information reflecting the size of.
  • the control unit 9 displays the relative rotation angles ⁇ 6 »1 2 and ⁇ 6» 23 calculated in steps S12 and S13 as motion information indicating the magnitude of the torsional motion of the heart wall 81 (S 1 4).
  • the user can grasp the magnitude of the torsional motion of the heart wall.
  • the relative rotation angle can be calculated for the intima and the epicardium of the heart wall, and the torsional motion can be evaluated based on the two relative rotation angles (for example, the average value of the two relative rotation angles).
  • the speed of the torsional motion of the heart wall between the intima position images m 1 and m 2 can be obtained by differentiating the relative rotation angle ⁇ 0 1 2 with respect to time.
  • the speed of the torsional motion of the heart wall between the intima position images m 2 and m 3 can be obtained by differentiating the relative rotation angle ⁇ 0 23 with respect to time.
  • “differentiation” includes processing to divide the relative rotation angle by the time interval between frames for which the relative rotation angle was obtained, in addition to normal differentiation.
  • FIG. 9 This relative rotational gradient is motion information indicating the degree of torsional motion of the heart wall.
  • the displacement calculation unit 6 1 performs the rotation angle 0 1 of the intima position image m 1 of the apex short axis image G 1 and the papillary muscle short axis image in the same manner as in step S 11 of FIG.
  • the rotation angle 0 2 of the intima position image m 2 of G 2 and the rotation angle 0 3 of the intima position image m 3 of the proximal short axis image G 3 are respectively calculated (S 2 1).
  • the motion information calculation unit 6 2 performs the rotation angle 0 1 of the intima position image ml and the rotation angle 0 2 of the intima position image m 2 in the same manner as in steps S 1 2 and 1 3.
  • the relative rotation angle ⁇ 0 1 2 is calculated (S 2 2), the rotation angle 0 2 of the intima position image m 2, the rotation angle 6 »3 of the intima position image m 3 and the relative rotation angle ⁇ 6» 2
  • S 2 3 o
  • the motion information calculation unit 6 2 calculates a distance d 1 2 between the apex short axis image G 1 and the papillary muscle short axis image G 2 (S 2 4), and the papillary muscle short axis Image G 2 and short base image G
  • the distance d 2 3 between 3 is calculated (S 2 5).
  • the distances d 1 2 and d 2 3 are, for example, the apex short axis image G 1, the papillary muscle short axis image G 2, and the base proximal short axis image G 3, which are obtained by the control unit 9 after step S 0 6. It can be calculated based on the coordinates of the cross-sectional position.
  • the motion information calculation unit 6 2 calculates the relative rotation angle ⁇ 0 1 2 obtained in step S 2 2 as the distance d 1 2 obtained in step S 2 4.
  • the motion information calculation unit 6 2 divides the relative rotation angle ⁇ 0 2 3 obtained in step S 2 3 by the distance d 2 3 obtained in step S 25 to obtain the intima position image m 2
  • the control unit 9 displays the relative rotational gradients S ⁇ 1 2 and S 0 2 3 calculated in steps S 2 6 and S 2 7 as motion information indicating the degree of torsional motion of the heart wall 8 1 (S 2 8).
  • the relative rotational gradient 12 indicates the amount of twist per unit distance between the apex-level intima and the papillary muscle-level intima.
  • the relative rotational gradient S 0 23 indicates the amount of twist per unit distance between the intima at the papillary muscle level and the intima at the heart base level. That is, the relative rotational gradients S 6 »1 2 and d 6» 2 3 are motion information reflecting the degree of torsion of the heart wall (intima). The user can grasp the degree of the torsional motion of the heart wall by referring to the displayed relative rotational gradients S 0 1 2 and ⁇ 2 3.
  • FIG. 11 The processing when acquiring the stretching (shortening) of the heart wall in the long axis direction as motion information will be described with reference to FIGS. 11 and 12.
  • FIG. 11 The processing when acquiring the stretching (shortening) of the heart wall in the long axis direction as motion information will be described with reference to FIGS. 11 and 12.
  • FIG. 11 The processing when acquiring the stretching (shortening) of the heart wall in the long axis direction as motion information will be described with reference to FIGS. 11 and 12.
  • the displacement calculation unit 6 1 has a plurality of volume data (SO 3) Based on the intima position image m1 of the apex short axis image G1, the intima position image m2 of the papillary muscle short axis image G2, and the intima position image m3 of the base base short axis image G3
  • the three-dimensional tracking of each of the intima position image m1, the intima position image m2, and the intima position image m 3 is a tomographic image in which the measurement image area is specified. 1, ⁇ 1, ⁇ 1), ( ⁇ 2, ⁇ 2, ⁇ 2), (Ax3, Ay3, Az3) are calculated (S31). These displacements correspond to an example of “ ⁇ local motion information”.
  • the three-dimensional displacement of the epicardial position images M1, M2, and M3 may be calculated.
  • the displacement calculation unit 61 calculates the intima position image m1, as a three-dimensional displacement with respect to the reference time phase to which the intima position image m1 or the like is input in step SO9. Calculate the three-dimensional displacement of m2 and m3. Further, the three-dimensional displacement of the intima position images m 1, m 2, and m 3 in successive frames may be sequentially calculated.
  • ⁇ and A y represent displacements in the X direction (whichever direction is + X direction) and the Y direction shown in FIGS. 2 and 3, respectively.
  • the plane including the X direction and the Y direction is parallel to the cross section of the apex short axis image G1, the papillary muscle short axis image G2, and the base base short axis image G3.
  • represents the displacement in the heel direction orthogonal to the X direction and the heel direction (for example, the apex direction is defined as the first heel direction when viewed from the papillary muscle level, and the base direction is defined as the + heel direction).
  • This heel direction is parallel to the long axis direction of the heart.
  • the displacement calculation unit 61 further detects these three-dimensional displacements ( ⁇ X 1, ⁇ y 1, ⁇
  • the control unit 9 displays the expansion and contraction ⁇ z 1 2 and ⁇ z 23 of the heart wall calculated in steps S33 and S34 on the display unit 8 1 as movement information indicating the size of the expansion and contraction of the heart wall. Show (S 35). The user can grasp the expansion / contraction magnitude of the heart wall by referring to the displayed expansion / contraction of the heart wall ⁇ z 1 2, ⁇ z 2 3.
  • the speed of the expansion / contraction motion of the heart wall between the intima position images m 1 and m 2 can be obtained.
  • the speed of the expansion / contraction motion of the heart wall between the intima position images m 2 and m 3 can be obtained. It is possible to configure the display unit 81 to display these speeds.
  • ⁇ derivative has the same meaning as described above.
  • the displacement calculation unit 61 performs measurement for each of the intima position image m1, the intima position image m2, and the intima position image m3.
  • the expansion / contraction ⁇ ⁇ 23 ⁇ ⁇ 2 _ ⁇ ⁇ 3 of the heart wall between the papillary muscle level and the base level is calculated (S44).
  • the motion information calculation unit 62 performs the apex short-axis image G1, the papillary muscle short-axis image G2, and the heart in which the measurement image area is specified in the same manner as steps S24 and S25 in Fig. 9.
  • the distance d12 between the apical short axis image G1 and the papillary muscle short axis image G2 is calculated (S45).
  • the distance d 23 to the axis image G 3 is calculated (S46).
  • the motion information calculation unit 62 further divides the expansion / contraction ⁇ ⁇ 1 2 calculated in step S 43 by the distance d 1 2 calculated in step S 45, thereby obtaining a difference between the apex level and the papillary muscle level.
  • the control unit 9 causes the display unit 81 to display the heart wall strains S z 1 2 and S z 23 calculated in steps S47 and S 48 as motion information indicating the size of the heart wall strain. (S49).
  • the user can grasp the magnitude of the heart wall distortion by referring to the displayed heart wall strains S z 1 2 and d z 23.
  • the strain is calculated for the inner and outer membranes of the heart wall. It is also possible to evaluate the magnitude of distortion based on two strain values (for example, taking the average of two strain values).
  • This strain rate is information indicating the temporal change rate of the strain (strain) of the heart wall, and indicates the strain state of the heart wall.
  • the strain ⁇ z 1 2 and the strain ⁇ ⁇ 2 3 are the apex short axis image G 1 and the papillary muscle short axis image G in the two time phases t 1 and t 2 (t 1 ⁇ t 2).
  • Heart base This is calculated for the short-axis image G3.
  • the strain rate in the long axis direction between the papillary muscle level and the base level is calculated by dividing the strain 23 by the time interval At. Note that the strain rate may be calculated from the strain by executing a normal differentiation operation.
  • the control unit 9 causes the display unit 8 1 to display the calculated heart wall strain rates S z 1 2 ⁇ t and dz 2 3 ⁇ ⁇ t as motion information indicating the temporal rate of change of the heart wall strain. .
  • the user can grasp the time change rate of the distortion of the heart wall by referring to the displayed strain rate of the heart wall.
  • This ultrasonic diagnostic apparatus 1 first has two or more cross-sectional positions of a living tissue (heart) (for example, three cross-sectional positions at the apex level, papillary muscle level, and base level), respectively. Generate image data.
  • the image data of this moving image is a series of tomographic image data (frames) in time series.
  • moving images may not be displayed in consideration of the operating speed of the CPU, etc. In such cases, for example, it can be obtained by performing MPR processing on the volume data. It is possible to display only the tomographic images that are displayed.
  • the ultrasound diagnostic apparatus 1 displays one tomographic image in a series of tomographic images for each of two or more cross-sectional positions.
  • the user operates the operation unit 82 to designate a measurement image area for each displayed tomographic image.
  • the ultrasonic diagnostic apparatus 1 calculates the displacement along the time series of the measurement image region designated in the tomographic image at each cross-sectional position. Then, based on the displacement of the measurement image region calculated for each of the two or more cross-sectional positions, motion information indicating the state of movement of the living tissue is calculated.
  • the ultrasonic diagnostic apparatus 1 is Since the measurement image area is specified for each of the two or more cross-sectional positions and the movement (local motion information) of each of the two or more measurement image areas is obtained, the motion information is obtained. It is possible to measure a typical movement.
  • the measurement image area specified in the two-dimensional tomographic image is three-dimensionally racked based on the polyume data, the three-dimensional displacement of the measurement image area can be obtained. Highly accurate measurement can be performed.
  • a tomographic image (MPR image) based on polyume data is used. Since the measurement image area is specified for the tomographic image, the measurement image area can be easily specified.
  • the strain in the thickness change (velocity) of the heart wall and the thickness direction (short axis direction) of the heart wall N strain line, rotation angle (rotation speed) of heart wall intima and epicardium around the long axis direction, heart wall strain and strain array in the rotation direction around the long axis direction, long axis
  • various (local) motion information such as the relative rotation angle between the intima and epicardium of the heart wall in the direction of rotation about the direction.
  • These motion information can be obtained by two-dimensional tracking in one tomographic image as in the past. Even when 3D tracking is used, for example, motion information can be obtained from an image obtained by projecting volume data in a predetermined line-of-sight direction (an image obtained by rendering processing). In the following, an example of how to calculate these exercise information will be briefly described.
  • Changes in the thickness of the heart wall can be obtained by calculating the thickness of the heart wall and calculating the difference between them.
  • a straight line perpendicular to a tangent line that touches the intima (or adventitia) at an arbitrary position of the intima (or adventitia) is obtained.
  • the position (intersection) that intersects the inner membrane can be obtained and the distance between the arbitrary position and the intersection can be calculated.
  • the wall thickness change rate is calculated by dividing the wall thickness change by the time between the two tomographic images, and subjecting the wall thickness change to normal differential processing (differential processing using time as a variable). Can be easily obtained.
  • the strain in the thickness direction of the heart wall is obtained by calculating the change in the wall thickness as described above, and calculating the change in the wall thickness as one of the two tomographic images (at a certain time phase). It can be obtained by dividing by the wall thickness value in the tomographic image.
  • the strain rate can be obtained by dividing the strain value by the time interval of the time phases of the two tomographic images (or by differentiating with time).
  • the rotation angle of the intima (outer membrane) of the heart wall around the major axis is the position of the rotation direction in the minor axis direction of the intima (outer membrane) for two tomographic images with different time phases.
  • Each can be obtained by calculating the position of the intima (outer membrane) in the other tomographic image relative to the position of the intima (outer membrane) in one tomographic image.
  • the rotational speed can be easily obtained in the manner described above.
  • the strain of the heart wall in the rotation direction about the major axis direction calculates the distance in the rotation direction between the two positions of the intima (outer membrane) for two tomographic images with different time phases. Calculate the difference between the two distances. Then, it can be obtained by dividing the difference value by the distance calculated for one of the two slice images. The strain rate can be obtained by dividing the strain value by the time interval between the two phase images.
  • the relative rotation angle between the intima and epicardium of the heart wall in the rotation direction about the major axis direction is the rotation angle of the intima and the epicardium in two tomographic images with different time phases. Determining the degree (above) and calculating the difference between them
  • the measurement image region parallel to the short axis direction of the heart is specified, but the measurement image region can also be specified to a cross section parallel to the long axis direction.
  • the torsional motion and the relative rotational gradient in the major axis direction can be obtained by two-dimensional tracking in the tomographic image of the cross section.
  • expansion and contraction in the minor axis direction, strain, and strain rate can be obtained by performing 3D tracking using volume data.
  • motion information that can be acquired only from displacement in the direction parallel to the measurement image area can be obtained by two-dimensional tracking in the tomographic image in the direction parallel to the cross section.
  • motion information that requires displacement in a direction perpendicular to the cross section can be obtained by performing three-dimensional tracking using volume data.
  • the same motion information acquisition process can also be performed when performing a three-dimensional ultrasonic scan in an arbitrary scan mode for generating volume data. For example, even when a two-dimensional scan surface is rotated and scanned, the same processing as in this embodiment can be executed. That is, as long as volume data of a living tissue can be generated, an ultrasonic scan mode can be arbitrarily selected.
  • the ultrasonic diagnostic apparatus 1 described in detail above is merely a specific example for suitably implementing the ultrasonic diagnostic apparatus according to the present invention.
  • various modifications relating to the ultrasonic diagnostic apparatus according to the present invention will be described.
  • the ultrasonic diagnostic apparatus according to this modification has the same configuration as the ultrasonic diagnostic apparatus 1 according to the above embodiment. Hereinafter, processing according to this modification will be described.
  • the processing until the MPR processing unit 52 of the image processing unit 5 generates image data of a series of tomographic images along the time series is the same as that in the above embodiment.
  • the image data of the tomographic image is generated for each of the two or more cross-sectional positions.
  • the image data of the tomographic image is generated only for one cross-sectional position. May be.
  • the control unit 9 displays one tomographic image in the series of tomographic images on the display unit 81.
  • the user operates the operation unit 82 to designate a measurement image area on the displayed tomographic image. This makes it possible to easily specify the measurement image area as compared with the conventional configuration in which a pseudo three-dimensional image is displayed and the measurement image area is specified.
  • the ultrasonic diagnostic apparatus 1 of the above embodiment is configured such that the user operates the operation unit 82 to specify a measurement image region. In this modification, the measurement image region designation operation is automatically performed.
  • FIG. 15 shows an example of an ultrasonic diagnostic apparatus according to this modification.
  • the ultrasonic diagnostic apparatus 100 shown in the figure has substantially the same configuration as the ultrasonic diagnostic apparatus 1 of the above embodiment, except that the image processing unit 5 includes a measurement image region designating unit 53. It is different.
  • the above embodiment Different from medical image processing program 72.
  • the measurement image region specifying unit 5 3 is a tomographic image generated by the MPR processing unit 52.
  • Image data is specified, and a measurement image area is specified for this tomographic image.
  • the measurement image region specifying unit 53 applies the boundary extraction process, for example, and analyzes the pixel value of each pixel of the image data, for example, to detect the boundary of the biological tissue. Extract parts (inner and outer membranes of the heart wall). Then, the measurement image region designation unit 53 designates the extracted boundary portion as a measurement image region in the tomographic image.
  • the measurement image region designating unit 53 corresponds to an example of the “ ⁇ designating means” of the present invention, and includes, for example, a microprocessor that operates based on the medical image processing program 7 2.
  • the process performed by the measurement image region specifying unit 53 corresponds to the procedure of step SSO9 in the flowchart of FIG.
  • the measurement image area specifying unit 53 performs the measurement image area specifying process
  • the tomographic image may be displayed on the display unit 81 or may not be displayed.
  • the measurement image area is automatically specified, it is easy to specify the measurement image area. (In fact, the automatically specified measurement image area is used as it is. In some cases, it is not necessary to specify the measurement image area.
  • a three-dimensional ultrasonic scan is electronically performed by using a two-dimensional ultrasonic transducer in which ultrasonic transducers are two-dimensionally arranged.
  • This modification relates to an ultrasonic diagnostic apparatus equipped with a one-dimensional ultrasonic probe in which ultrasonic transducers are arranged in a one-dimensional direction.
  • a one-dimensional ultrasonic probe is used, only a one-dimensional direction (the main scanning direction X in Figs. 2 and 3) can be electronically scanned. Scanning in the scanning direction Y is performed manually or mechanically.
  • volume data based on a three-dimensional ultrasonic scan is generated, and image data of a slice image is generated based on the volume data. It can be configured to display the image and specify the measurement image area.
  • the ultrasonic diagnostic apparatus 1 of the above embodiment calculates the displacement along the time series of the measurement image region specified in the tomographic image at two or more cross-sectional positions such as the apex level and the papillary muscle level, and the two or more
  • the motion information of the living tissue is calculated based on the displacement of the measurement image region at the cross-sectional position. That is, in the above embodiment, motion information is calculated based only on the displacement of the designated measurement image area.
  • the measurement image area other than the specified measurement image area is automatically specified separately, and the motion information is calculated in consideration of the displacement of the automatically specified measurement image area.
  • an ultrasonic diagnostic apparatus according to this modification will be described. Similar to the ultrasonic diagnostic apparatus 100 shown in FIG. 15, the ultrasonic diagnostic apparatus of this modification includes a measurement image region designation unit 53.
  • the user selects, for example, the intima as measurement image regions of the apex short axis image G 1, the papillary muscle short axis image G 2, and the basal short axis image G 3 displayed on the display unit 81.
  • Position images m 1, m 2 and 3 and outer membrane position images 1 ⁇ 11, M 2 and M 3 are designated as measurement image areas, respectively (see Fig. 5 and Fig. 6).
  • the measurement image area may be designated by the automatic designation process of [Modification 2].
  • the measurement image area designating unit 53 designates measurement image areas other than the designated measurement image areas m 1 to m 3 and M 1 to M 3.
  • the measurement image area designation part As shown in Fig. 16, apex short axis image G 4 and epicardial position image M 4 are specified at a position outside the apex short axis image G 1, and apex short axis image G 4
  • Intima position image m5 and epicardial position image M5 are designated at a position between 1 and papillary muscle short axis image G2, and the papillary muscle short axis image G2 and the basal short axis image G3 Specify the intima position image m6 and the epicardial position image M6 between them.
  • the measurement image area designation part 5 3 is used to determine the cross-sectional position (coordinates) of the apex short axis image G 1, papillary muscle short axis image G 2, and base base short axis image G 3 where the measurement image area is designated by the user or the like. Based on this, the cross-sectional position (coordinates) that specifies the new measurement image area is determined.
  • This processing is performed, for example, by determining the coordinates (first Z coordinate) of the apex short axis image G 1 at a predetermined distance in the opposite direction to the papillary muscle short axis image G 2 Based on the Z-coordinate of 1 and the Z-coordinate of the papillary muscle G 2, the center coordinate (second Z-coordinate) of these sections is obtained, and the Z-coordinate of the papillary muscle short-axis image G 2 and the short base of the base Find the center coordinate (third Z coordinate) of the axis image G 3 with the Z coordinate.
  • the MPR processing unit 52 generates, based on the volume data, tomographic image data in directions parallel to the apex short axis image G1 and the like at the first to third Z coordinates, respectively. .
  • the measurement image region specifying unit 5 3 extracts the boundary portion of the heart wall by analyzing the pixel value of the image data of the tomographic image at the first Z coordinate, and the inner boundary portion is detected as the intima position image.
  • the boundary value of the heart wall is extracted by analyzing the pixel value of the image data of the tomographic image at the second Z coordinate, the inner boundary part is set as the intima position image m 5, and the outer boundary part is
  • the epicardial position image is M5
  • the boundary value of the heart wall is extracted by analyzing the pixel value of the image data of the tomographic image at the third Z coordinate
  • the inner boundary part is set as the intimal position image m6
  • the outer boundary portion is taken as an epicardial position image M6.
  • the displacement calculation unit 61 of this modification example is a measurement image area designated by the user or the like. m 1 to m 3 and M 1 to M 3 and all of the measurement image areas m 4 to m 6 and M 4 to M 6 specified by the measurement image area specification unit 5 3 are in time series. Calculate the displacement.
  • the motion information calculation unit 62 calculates motion information based on all the displacements in the measurement image regions m1 to m6 and M1 to M6. For example, when evaluating the torsional motion of the heart wall, the relative rotation angle between the intima position image m 4 and the intima position image ml is calculated, and the relative rotation between the intima position image ml and the intima position image m 5 is calculated.
  • the angle is calculated, the relative rotation angle between the intima position image m 5 and the intima position image m 2 is calculated, the relative rotation angle between the intima position image m 2 and the intima position image m 6 is calculated, The relative rotation angle between the membrane position image m 6 and the intima position image m 3 is calculated.
  • the relative rotation angle can be similarly calculated for the outer membrane position images M 1 to M 6.
  • the control unit 9 causes the display unit 81 to display motion information based on the calculated relative rotation angle.
  • the user designates the cross-sectional position for designating the measurement image area (see the cross-section position designation cursors C1 to C3 in FIG. 5), but this cross-sectional position is designated automatically. It is also possible to configure.
  • the specified cross-sectional position is stored. It is possible to read the information of the cross-sectional position specified in the past and automatically specify it as the current cross-sectional position.
  • typical cross-sectional positions such as the apex level, papillary muscle level, and cardiac base level are set in advance, and typical cross-sectional positions based on image data and volume data of B-mode images, for example. Can be determined.
  • the size of the living tissue (for example, the length in the long axis direction of the heart) is analyzed, and each size when the size is divided into a plurality of parts is analyzed.
  • the displacement of the living tissue is obtained and the displacement is differentiated (divided by the time interval) to obtain the velocity.
  • the velocity is obtained, and the velocity is integrated and displaced. May be requested.
  • the movement information indicating the (more global) movement state of the living tissue is obtained and displayed.
  • the local movement information in each measurement image region is displayed. May be displayed. In that case, when the motion information is not calculated and displayed, it is possible to apply an ultrasonic diagnostic apparatus having only a configuration necessary for calculating and displaying the local motion information (this will be described later). The same applies to medical image processing apparatuses and medical image processing programs.
  • This medical image processing device is, for example, a computer connected to an ultrasound diagnostic device, or a P ACS (Picture Architecture and Communication System) that stores image data of ultrasound images.
  • Fig. 17 shows an example of a medical image processing apparatus according to the present invention, which is similar to the first embodiment in Fig. 17. The same reference numerals are given to the components.
  • the medical image processing apparatus 1 000 shown in FIG. 17 is an ultrasonic diagnostic apparatus shown in FIG.
  • the medical image processing apparatus 1 includes an image processing unit 5, an arithmetic processing unit 6, a storage unit 7, a user interface 8, and a control unit 9.
  • the storage unit 7 functions as an example of the “storage means” of the present invention.
  • This medical image processing apparatus 1 000 is connected to the ultrasonic diagnostic apparatus 2000 and the medical image database 3000 via a network N such as a LAN (Loca IA area N et wo rk).
  • the control unit 9 of this embodiment includes a network adapter that performs data communication through the network N. [0168] The operation of the medical image processing apparatus 100 will be described.
  • the medical image processing apparatus 100 0 0 receives image data of ultrasonic images from the ultrasonic diagnostic apparatus 2 00 0 or the medical image database 3 0 0 0.
  • the polymer data generation unit 51 When the input image data is image data of a B-mode image, the polymer data generation unit 51 generates volume data based on the image data. Similar to the first embodiment, the MPR processing unit 52 generates image data of a series of tomographic images along a time series based on the volume data. The series of tomographic image data is stored in the storage unit 7.
  • the MPR processing unit 52 If the input image data is volume data, the MPR processing unit 52 generates image data of a series of tomographic images along a time series based on the volume data. The series of tomographic image data is stored in the storage unit 7.
  • the medical image processing apparatus 100 performs a process similar to that of the first embodiment based on a series of tomographic image data (and volume data) stored in the storage unit 7. (See Figure 4 to Figure 14). As a result, it is possible to measure the three-dimensional motion of a living tissue in a short time. In addition, it is possible to easily specify the region for measuring the movement of the living tissue.
  • the medical image processing programs 71 and 72 described in the first and second embodiments are examples of the medical image processing program according to the present invention.
  • the medical image processing program causes a computer to execute the processing described in the first embodiment and its modifications.
  • This medical image processing program may be stored in advance in a storage device such as a hard disk drive built in the computer. Alternatively, it may be stored in advance on a server on a network such as a LAN, and the computer may read and execute it.
  • This medical image processing program can be stored in an arbitrary storage medium so that it can be read by a computer.
  • this storage medium include optical disks, magneto-optical disks (CD-ROMZD VD-RA MZD VD-ROMZMO, etc.), magnetic storage media (hard disk Z floppy disk (registered trademark) disk ZZ IP, etc.), and semiconductor memory. .

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Cardiology (AREA)
  • Gynecology & Obstetrics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

【課題】生体組織の3次元的な運動の計測を短時間で行える超音波診断装置を提供する。 【解決手段】画像処理部5は、生体組織のBモード画像の画像データに基づいてボリュームデータを生成するとともに、このボリュームデータに基づき、2以上の断面位置のそれぞれについて、時系列に沿った一連の断層画像の画像データを生成する。制御部9は、各断面位置について1つの断層画像を表示部81に表示させる。ユーザは、操作部82を操作し、表示された断層画像に計測画像領域を指定する。変位演算部61は、各断面位置について、指定された計測画像領域の時系列に沿った変位を演算する。運動情報演算部62は、各断面位置について演算された計測画像領域の変位に基づいて、生体組織の運動情報を演算する。

Description

明 細 書
超音波診断装置、 医用画像処理装置及び医用画像処理プログラム 技術分野
[0001 ] この発明は、 超音波プローブによって被検体内に超音波を送信し、 その反 射波に基づいて被検体の医用画像を取得する超音波診断装置と、 超音波診断 装置により取得された医用画像を処理する医用画像処理装置及び医用画像処 理プログラムとに関する。 特に、 生体組織の運動機能の評価に用いられる超 音波診断装置、 医用画像処理装置及び医用画像処理プログラムに関するもの である。
背景技術
[0002] 超音波診断装置は、 超音波プローブを体表に接触させるだけの簡単な操作 により、 その場で画像を観察できるなどのメリットがあることから、 生体組 織の形態や機能の診断に広く利用されている。 近年では、 心臓の壁運動など の生体組織の運動機能の評価、 特に 3次元的な運動機能の評価に対する注目 が高まっている。
[0003] 特許文献 1には、 生体組織の運動機能評価に用いられる超音波診断装置が 開示されている。 この超音波診断装置は、 生体組織の 2次元画像中の特徴点 を抽出し、 その特徴点に基づいて計測点を指定する。 そして、 指定された各 計測点を中心に所定数以上の特徴点を含む大きさのテンプレートを設定し、 このテンプレートを用いて 2画像間の相互相関処理を行って組織の変位や速 度などの物理/《ラメータを計測することにより、 計測精度の向上を図るもの である。
[0004] 特許文献 1 :特開 2 0 0 4 _ 3 1 3 2 9 1号公報
発明の開示
発明が解決しょうとする課題
[0005] ところで、 生体組織は、 一般に 3次元的に運動している。 たとえば心臓は 、 壁厚方向への運動 (壁厚の変化、 壁厚の歪み等) とともに、 それに直交す る方向においても伸縮や歪み等の運動を行っている。 従来の運動機能評価は
、 生体組織の 2次元的な変位や速度を計測しているので、 このような 3次元 的な運動を把握するのには限界がある。
[0006] 一方、 生体組織の 3次元画像を用いて 3次元的な運動を評価しょうとする と、 つまり、 3次元的に分布する複数の計測点を指定し、 各計測点の 3次元 的な変位を解析することにより、 生体組織の 3次元的な運動を評価しょうと すると、 処理すべきデータ量が増大し、 処理時間が長くなるという問題が生 じる。
[0007] また、 3次元画像を用いて運動機能評価を行おうとすると、 運動の計測対 象とする領域を画像上に指定する作業が困難になるという問題も生じる。 た とえば、 心臓の壁厚の変化を計測したい場合、 心臓の 3次元画像中において 内膜に相当する領域と外膜に相当する領域とを見つけ出し、 それらの領域を それぞれ指定する必要がある。 しかし、 このような作業を的確に行うには、 熟練された手技が必要とされ、 また、 相当の作業時間が必要とされる。
[0008] この発明は、 以上のような問題を解決するためになされたもので、 生体組 織の 3次元的な運動の計測を短時間で行うことを可能にする超音波診断装置 、 医用画像処理装置及び医用画像処理プログラムを提供することを目的とす る。
[0009] また、 この発明は、 生体組織の運動を計測する領域を容易に指定すること を可能にする超音波診断装置、 医用画像処理装置及び医用画像処理プロダラ ムを提供することを別の目的としている。
課題を解決するための手段
[0010] 上記目的を達成するために、 請求項 1に記載の発明は、 超音波プローブと 、 前記超音波プローブに超音波を送受信させる送受信手段と、 前記超音波の 送受信の結果として得られた受信信号に基づき、 生体組織の 2以上の断面位 置のそれぞれについて、 時系列に沿った一連の断層画像の画像データを生成 する画像生成手段と、 前記 2以上の断面位置のそれぞれについて、 前記生成 された画像データに基づき、 前記一連の断層画像のうちの 1つの断層画像を 表示する表示手段と、 前記 2以上の断面位置のそれぞれについて、 前記表示 された前記 1つの断層画像に計測画像領域を指定する指定手段と、 前記 2以 上の断面位置のそれぞれについて、 前記一連の断層画像の画像データに基づ き、 前記指定された計測画像領域における前記生体組織の運動の状態を示す 局所運動情報を演算するとともに、 前記 2以上の断面位置のそれぞれについ て前記演算された局所運動情報に基づいて、 前記生体組織の運動の状態を示 す運動情報を演算する演算手段と、 を備え、 前記表示手段は、 前記演算手段 により演算された前記運動情報を表示する、 ことを特徴とする超音波診断装 置である。
[0011] また、 請求項 1 5に記載の発明は、 前記超音波プローブに超音波を送受信 させる送受信手段と、 前記超音波の送受信の結果として得られた受信信号に 基づき、 生体組織の 1以上の断面位置のそれぞれについて、 時系列に沿った 一連の断層画像の画像データを生成する画像生成手段と、 前記 1以上の断面 位置のそれぞれについて、 前記生成された画像データに基づき、 前記一連の 断層画像のうちの 1つの断層画像を表示する表示手段と、 前記 1以上の断面 位置のそれぞれについて、 前記表示された前記 1つの断層画像に計測画像領 域を指定する指定手段と、 前記 1以上の断面位置のそれぞれについて、 前記 一連の断層画像の画像データに基づき、 前記指定された計測画像領域におけ る前記生体組織の運動の状態を示す局所運動情報を演算する演算手段と、 を 備え、 前記表示手段は、 前記演算手段により演算された前記局所運動情報を 表示する、 ことを特徴とする超音波診断装置である。
[0012] また、 請求項 1 9に記載の発明は、 超音波診断装置により得られた生体組 織の医用画像の画像データを処理する医用画像処理装置であって、 生体組織 の 2以上の断面位置のそれぞれにおける、 時系列に沿った一連の断層画像の 画像データを記憶する記憶手段と、 前記 2以上の断面位置のそれぞれについ て、 前記記憶された画像データに基づき、 前記一連の断層画像のうちの 1つ の断層画像を表示する表示手段と、 前記 2以上の断面位置のそれぞれについ て、 前記表示された前記 1つの断層画像に計測画像領域を指定する指定手段 と、 前記 2以上の断面位置のそれぞれについて、 前記一連の断層画像の画像 データに基づき、 前記指定された計測画像領域における前記生体組織の運動 の状態を示す局所運動情報を演算するとともに、 前記 2以上の断面位置のそ れぞれについて前記演算された局所運動情報に基づいて、 前記生体組織の運 動の状態を示す運動情報を演算する演算手段と、 を備え、 前記表示手段は、 前記演算手段によリ演算された前記運動情報を表示する、 ことを特徴とする
[0013] また、 請求項 2 0に記載の発明は、 超音波診断装置により得られた生体組 織の医用画像の画像データを処理する医用画像処理装置であって、 生体組織 の 1以上の断面位置のそれぞれにおける、 時系列に沿った一連の断層画像の 画像データを記憶する記憶手段と、 前記 1以上の断面位置のそれぞれについ て、 前記記憶された画像データに基づき、 前記一連の断層画像のうちの 1つ の断層画像を表示する表示手段と、 前記 1以上の断面位置のそれぞれについ て、 前記表示された前記 1つの断層画像に計測画像領域を指定する指定手段 と、 前記 1以上の断面位置のそれぞれについて、 前記一連の断層画像の画像 データに基づき、 前記指定された計測画像領域における前記生体組織の運動 の状態を示す局所運動情報を演算する演算手段と、 を備え、 前記表示手段は 、 前記演算手段により演算された前記局所運動情報を表示する、 ことを特徴 とする。
[0014] また、 請求項 2 1に記載の発明は、 生体組織の 2以上の断面位置のそれぞ れにおける、 時系列に沿った一連の断層画像の画像データを記憶する記憶手 段と、 表示手段とを有するコンピュータを、 前記 2以上の断面位置のそれぞ れについて、 前記記憶された画像データに基づき、 前記一連の断層画像のう ちの 1つの断層画像を前記表示手段に表示させるように機能させ、 前記 2以 上の断面位置のそれぞれについて、 前記表示された前記 1つの断層画像に計 測領域が指定されたことに対応し、 前記一連の断層画像の画像データに基づ き、 前記指定された計測画像領域における前記生体組織の運動の状態を示す 局所運動情報を演算するように機能させ、 前記 2以上の断面位置のそれぞれ について前記演算された局所運動情報に基づいて、 前記生体組織の運動の状 態を示す運動情報を演算するように機能させ、 前記演算された前記運動情報 を前記表示手段に表示するように機能させる、 ことを特徴とする医用画像処 理プログラムである。
[0015] また、 請求項 2 2に記載の発明は、 生体組織の 1以上の断面位置のそれぞ れにおける、 時系列に沿った一連の断層画像の画像データを記憶する記憶手 段と、 表示手段とを有するコンピュータを、 前記 1以上の断面位置のそれぞ れについて、 前記記憶された画像データに基づき、 前記一連の断層画像のう ちの 1つの断層画像を前記表示手段に表示させるように機能させ、 前記 1以 上の断面位置のそれぞれについて、 前記表示された前記 1つの断層画像に計 測画像領域が指定されたことに対応し、 前記一連の断層画像の画像データに 基づき、 前記指定された計測画像領域における前記生体組織の運動の状態を 示す局所運動情報を演算するように機能させ、 前記演算された前記局所運動 情報を前記表示手段に表示するように機能させる、 ことを特徴とする医用画 像処理プログラムである。
発明の効果
[0016] 請求項 1、 請求項 1 9又は請求項 2 1に記載の発明は、 生体組織の 2以上 の断面位置のそれぞれについて、 1つの断層画像を表示させるとともに、 こ の表示された断層画像に計測画像領域が指定されたことに対応して、 この計 測画像領域における生体組織の運動の状態を示す局所運動情報を演算し、 こ の演算された 2以上の断面位置のそれぞれにおける局所運動情報に基づいて 当該生体組織の運動情報を演算し、 その運動情報を表示するようになってい る。
[0017] この発明によれば、 生体組織の 2以上の断面位置のそれぞれにおける局所 運動情報に基づく運動情報を求めることにより、 生体組織の 3次元的な運動 の計測を行うことが可能となる。 また、 2以上の断面位置における局所運動 情報のみを考慮して運動情報を求めるようになっているので、 断面位置の間 の部分については変位を演算する必要がないことから、 運動情報を短時間で 取得することができる。
[0018] また、 表示された断層画像に対して計測画像領域を指定するように構成さ れているので、 運動情報を取得するための計測画像領域を容易に指定するこ とが可能である。
[0019] 請求項 1 5、 請求項 2 0又は請求項 2 2に記載の発明は、 生体組織の 1以 上の断面位置のそれぞれについて、 1つの断層画像を表示させるとともに、 この表示された断層画像に計測画像領域が指定されたことに対応して、 この 計測画像領域における生体組織の運動の状態を示す局所運動情報を演算し、 その局所運動情報を表示するようになっている。
[0020] この発明によれば、 表示された断層画像に対して計測画像領域を指定する ようになっているので、 局所運動情報を取得するための計測画像領域を容易 に指定することができる。
図面の簡単な説明
[0021 ] [図 1 ]この発明に係る超音波診断装置の好適な実施の形態の全体構成の一例を 表す概略ブロック図である。
[図 2]この発明に係る超音波診断装置の好適な実施の形態における超音波のス キャン態様の一例を説明するための概略説明図である。
[図 3]この発明に係る超音波診断装置の好適な実施の形態における超音波のス キャン態様の一例を説明するための概略説明図である。
[図 4]この発明に係る超音波診断装置の好適な実施の形態の動作態様の一例を 表すフローチヤ一卜である。
[図 5]この発明に係る超音波診断装置の好適な実施の形態による表示画面の表 示態様の一例を表す概略図である。
[図 6]この発明に係る超音波診断装置の好適な実施の形態による表示画面の表 示態様の一例を表す概略図である。
[図 7]この発明に係る超音波診断装置の好適な実施の形態による処理の一例を 表すフローチヤ一卜である。
[図 8]この発明に係る超音波診断装置の好適な実施の形態による処理を説明す るための概略説明図である。
[図 9]この発明に係る超音波診断装置の好適な実施の形態による処理の一例を 表すフローチヤ一卜である。
[図 10]この発明に係る超音波診断装置の好適な実施の形態による処理を説明 するための概略説明図である。
[図 1 1 ]この発明に係る超音波診断装置の好適な実施の形態による処理の一例 を表すフローチヤ一卜である。
[図 12]この発明に係る超音波診断装置の好適な実施の形態による処理を説明 するための概略説明図である。
[図 13]この発明に係る超音波診断装置の好適な実施の形態による処理の一例 を表すフローチヤ一卜である。
[図 14]この発明に係る超音波診断装置の好適な実施の形態による処理を説明 するための概略説明図である。
[図 15]この発明に係る超音波診断装置の好適な実施の形態の変形例の全体構 成の一例を表す概略ブロック図である。
[図 16]この発明に係る超音波診断装置の好適な実施の形態の変形例による処 理を説明するための概略説明図である。
[図 17]この発明に係る超音波診断装置の好適な実施の形態の全体構成の一例 を表す概略ブロック図である。
符号の説明
1 超音波診断装置
2 2次元超音波プローブ
3 送受信部
4 信号処理部
4 1 Bモード処理部
5 画像処理部
5 1 ボリュームデータ生成部
5 2 M P R処理部 6 演算処理部
6 1 変位演算部
6 2 運動情報演算部
記憶部
7 1 . 7 2 医用画像処理プログラム
8 ユーザインターフェイス
8 1 表示部
8 2 操作部
9 制御部
P 2次元スキャン面
R 3次元スキャン領域
X 主走査方向
Y 副走査方向
m 1〜m 6 内膜位置画像
M 1〜M 6 外膜位置画像
1 0 0 0 医用画像処理装置
発明を実施するための最良の形態
[0023] この発明に係る超音波診断装置、 医用画像処理装置及び医用画像処理プロ グラムの好適な実施の形態の一例について、 図面を参照しながら詳細に説明 する。
[0024] 〈第 1の実施の形態〉
この発明に係る超音波診断装置の実施形態を説明する。 図 1は、 この発明 に係る超音波診断装置の全体構成の一例を表している。 同図に示す超音波診 断装置 1は、 たとえば心臓等の生体組織の形態を表す画像や血流状態を表す 画像を取得するために用いられる装置であり、 2次元超音波プローブ 2、 送 受信部 3、 信号処理部 4、 画像処理部 5、 演算処理部 6、 記憶部 7、 ユーザ インターフェイス 8及び制御部 9を含んで構成される。 以下、 超音波診断装 置 1を構成する各部の一具体例を説明する。 [0025] 〔記憶部、 ユーザインターフェイス、 制御部〕
まず、 記憶部 7、 ユーザインターフ Iイス 8及び制御部 9について説明す る。 記憶部 7は、 たとえばハードディスクドライブ等の記憶装置によって構 成される。 この記憶部 7には、 この発明に特徴的な動作を超音波診断装置 1 に実行させるための医用画像処理プログラム 7 1があらかじめ記憶されてい る。 また、 記憶部 7には、 超音波画像の画像データ、 この画像データに付帯 される付帯情報 (D I COM (D i g i t a l I ma g i n g a n d Commu n i c a t i o n s i n Me d i c i n e) 付 情 ) なと の各種のデータが記憶される。
[0026] ユーザインターフェイス 8には、 表示部 8 1と操作部 82が設けられてい る。 表示部 8 1は、 この発明の 「表示手段」 の一例に相当し、 液晶ディスプ レイや CRT (Ca t h o d e Ra y T u b e) ディスプレイ等の任意 の表示デバイスによって構成される。 この表示部 8 1には、 超音波診断装置 1により取得された超音波画像等の画像や、 その画像の D I COM付帯情報 等の情報などが表示される。
[0027] 操作部 82は、 マウス、 トラックポール、 ジョイスティック、 コントロー ルパネル、 キーポード等の任意の操作デバイスや入力デバイスによって構成 される。
[0028] 操作部 82は、 特に、 表示部 8 1に表示された超音波画像 (断層画像) 上 に計測画像領域を指定するための 「指定手段」 として作用する。 この計測画 像領域は、 生体組織の運動状態を計測するための基準となる、 断層画像上の 領域 (実際は、 この領域に相当する画像データ) である。 なお、 詳細につい ては後述するが、 超音波診断装置 1は、 生体組織に対して超音波を 3次元的 にスキャンしつつ、 この 3次元スキャンを反復することにより、 時系列に沿 つた一連のボリュームデータを生成するとともに、 この一連のボリュームデ ータの一つに基づいて、 生体組織の断層画像の画像データを生成するように 動作する。 操作部 82は、 この断層画像に対して計測画像領域を指定するた めに用いられるものである。 超音波診断装置 1は、 指定された計測画像領域 が時系列に沿ってどのように変化するかを解析することによって、 生体組織 の運動状態を計測するように作用する。
[0029] 制御部 9は、 C P U等のマイクロプロセッサを含んで構成され、 医用画像 処理プログラム 7 1に基づいて超音波診断装置 1の各部を制御する。 特に、 制御部 9は、 表示部 8 1に画像や画面を表示させるための処理を行う。 また 、 操作部 8 2からの操作信号に応じた動作を超音波診断装置 1に実行させる ための処理を行う。
[0030] 〔 2次元超音波プローブ〕
2次元超音波プローブ 2 (単に超音波プローブ 2と称することがある。 ) は、 従来と同様に、 2次元的に (たとえばマトリックス状 (格子状) に) 配 列された複数の超音波振動子を有している (図示は省略する。 ) 。 この複数 の超音波振動子は、 後述の送受信部 3によって個別に駆動される。
[0031 ] 図 2及び図 3は、 この 2次元超音波プローブ 2による超音波スキャンの態 様を表している。 超音波プローブ 2は、 図 2 ( A ) に示すように、 超音波振 動子の配列面から出力させる超音波 (ビーム) を主走査方向 Xにスキャンす ることにより、 放射状 (扇形形状) の 2次元スキャン面 Pを形成する。 更に 、 超音波プローブ 2は、 主走査方向 Xに直交する副走査方向 Yに超音波をス キャンすることにより、 図 2 ( B ) に示すように、 副走査方向 Yに配列され た複数の扇形形状の 2次元スキャン面 P 1、 P 2、 ■ ■ ■、 P nを順次に形 成する。 それにより、 図 3に示すような 3次元スキャン領域 Rを形成する。
[0032] なお、 副走査方向 Yはこの発明の 「所定の方向」 に相当し、 主走査方向 X はこの発明の 「所定の方向に直交する方向」 に相当する。 また、 2次元スキ ヤン面 P 1〜P nは、 この発明の 「所定の方向に沿った複数 (n個) の位置 」 に形成されるものである。
[0033] 〔送受信部〕
送受信部 3は、 超音波プローブ 2に電気信号を供給して超音波を発生させ る送信部と、 この超音波の反射波を受信した超音波プローブ 2から出力され るエコー信号 (受信信号) を受信する受信部とを有する (図示は省略する。 ) o
[0034] 送受信部 3内の送信部は、 図示しないクロック発生回路、 送信遅延回路、 及びパルサ回路などを含んで構成される。 クロック発生回路は、 超音波の送 信タィミングゃ送信周波数を決めるク口ック信号を発生する回路である。 送 信遅延回路は、 超音波の送信時に遅延を掛けて送信フォーカスを実施する回 路である。 パルサ回路は、 各超音波振動子に対応した個別経路 (チャンネル ) に相当する個数のパルサを内蔵し、 遅延が掛けられる送信タイミングで駆 動パルスを発生して、 超音波プローブ 2の各超音波振動子に供給するように 動作する。
[0035] また、 送受信部 3内の受信部は、 図示しないプリアンプ回路、 AZ D変換 回路、 及び受信遅延,加算回路を含んで構成される。 プリアンプ回路は、 超 音波プローブ 2の各超音波振動子から出力されるエコー信号を受信チャンネ ルごとに増幅する。 AZ D変換回路は、 増幅されたエコー信号を A (アナ口 グ) Z D (デジタル) 変換する。 受信遅延■加算回路は、 AZ D変換後のェ コー信号に対して受信指向性を決定するのに必要な遅延時間を与え、 加算す る。 この加算処理により、 受信指向性に応じた方向からの反射成分が強調さ れる。 なお、 加算処理された信号を 「R Fデータ (若しくは生データ) 」 な どと称することがある。 送受信部 3は、 取得された R Fデータを信号処理部 4に入力する。
[0036] 〔信号処理部〕
信号処理部 4は、 送受信部 3から入力された R Fデータに基づいて、 ェコ 一信号の振幅情報を映像化するための信号処理を行う。 信号処理部 4により 生成されたデータは、 制御部 9に送られてユーザィンターフェイス 8の表示 部 8 1にて表示されるか、 若しくは、 画像処理部 5に入力される。 この信号 処理部 4は、 主として、 Bモード処理部 4 1、 ドプラ処理部 4 2、 及び C M F処理部 4 3を含んで構成される。
[0037] ( Bモード処理部)
B ( B r i g h t n e s s ) モード処理部 4 1は、 R Fデータに基づいて Bモード超音波ラスタデータを生成する。 より具体的に説明すると、 Bモー ド処理部 4 1は、 R Fデータに対してバンドパスフィルタ処理を行うととも に、 その出力信号の包絡線を検出し、 この検出されたデータに対して対数変 換による圧縮処理を施す。 これにより、 各 2次元スキャン面 P 1〜P nにつ いて、 信号強度が輝度の明るさで表現された断層画像の画像データが生成さ れる。 この Bモード処理部 4 1は、 この発明の 「第 1の断層画像生成手段」 の一例に相当するものである。
[0038] (ドプラ処理部)
ドプラ (D o p p I e r ) 処理部 4 2は、 たとえばパルスドプラ法 (PW ドプラ法) や連続波ドプラ法 (CWドプラ法) により生体組織における血流 情報を生成する。
[0039] パルスドプラ法では、 パルス波を用いることにより、 或る特定の深度 (超 音波プローブ 2からの距離) における血流によるドプラ効果に起因する超音 波の周波数の変位 (ドプラ変位周波数成分) を検出することができる。 この ように、 パルスドプラ法は、 良好な距離分解能を有するため、 特定部位の組 織や血流の深度計測などに好適に用いられる。 このパルスドプラ法を適用す る場合、 ドプラ処理部 4 2は、 送受信部 3から入力される R Fデータについ て、 所定の大きさを有する血流観測領域における信号を位相検波することに よリ ドプラ変位周波数成分を抽出し、 更に F F T ( F a s t F o u r i e r T r a n s f o r m) 処理を施して、 血流観察領域内における血流速度 を表すドプラ周波数分布を示すデータを生成する。
[0040] また、 連続波ドプラ法においては、 パルスドプラ法と異なり連続波を用い ることにより、 超音波の送受信方向 (図 2 ( A) に示す扇形形状の 2次元ス キャン面 Pにおける径方向) の全ての部位におけるドプラ変位周波数成分が 重畳された信号、 すなわち超音波の経路上の血流状態を全て反映した信号が 得られることになるが、 計測速度が優れているというメリットがある。 この 連続波ドプラ法を適用する場合、 ドプラ処理部 4 2は、 送受信部 3から入力 される R「データについて、 血流観測のサンプルライン上にて受信した信号 を位相検波することによりドプラ変位周波数成分を抽出し、 更に F FT処理 を施してサンプルライン上における血流速度を表すドプラ周波数分布を示す データを生成する。
[0041] (CFM処理部)
CFM (Co l o r F l ow Ma p p i n g) 処理部 43は、 生体組 織の血流情報をモノクロの Bモード画像上に力ラーで重ねてリアルタイム表 示させるカラーフローマッピング法を実施するときに動作する。 表示される 血流情報としては、 血流の速度、 分散、 パワー等がある。 この血流情報は、 2値化情報として得られる。 より具体的に説明すると、 〇「!\1処理部43は 、 位相検波回路、 MT I (Mo v i n Ta r e t I n d e c a t i o n) フィルタ、 自己相関器、 流速,分散演算器などを含んで構成される。 〇「!\1処理部43は、 生体組織の形態が反映された形態信号と、 血流が反映 された血流信号とをハイパスフィルタ処理 (MT Iフィルタ処理) で分離し 、 自己相関処理により血流の速度、 分散、 パワー等の血流情報を複数の位置 について求める。 また、 形態信号を低減するための非線形処理などを実施す ともある。
[0042] 〔画像処理部〕
画像処理部 5は、 信号処理部 4により生成されたデータに基づく各種の画 像処理を行う。 たとえば、 画像処理部 5は、 DSC (D i g i t a I S c a n Co n v e r t e r) を有し、 信号処理部 4により生成された超音波 走査に同期したデータを、 表示用のデータ (テレビ走査方式のデータ) に変 換する処理、 すなわちスキャンコンバージョン処理を行う。
[0043] また、 画像処理部 5には、 以下に説明するボリュームデータ生成部 51と MP R処理部 52が設けられている。
[0044] (ポリユームデータ生成部)
ボリュームデータ生成部 51は、 信号処理部 4の Bモード処理部 41によ リ生成された各 2次元スキヤン面 P 1〜 P nの画像データに補間処理を施し て、 ボリュームデータ (ポクセルデータ) を生成する。 このボリュームデー タ生成部 5 1は、 この発明の 「ボリュームデータ生成手段」 の一例に相当し 、 たとえば DSCやマイクロプロセッサ等を含んで構成される。
[0045] なお、 ボリュームデータに基づく擬似的な 3次元画像を表示させる場合に は、 画像処理部 5は、 このボリュームデータに対してボリュームレンダリン グ処理や M I P (M a X m u m I n t e n s i t y P r o j e c t i o n) 処理などを施す。
[0046] (M PR処理部)
M P R (M u I t i P I a n n a r Re c o n s t r u c t i o n) 処 理部 52は、 ボリュームデータ生成部 5 1によって生成されたボリュームデ ータに基づいて断面変換処理を実行することにより、 任意の断面における断 層画像の画像データを生成する。 この MP R処理部 52は、 この発明の 「第 2の断層画像生成手段」 の一例に相当し、 たとえば DSCやマイクロプロセ ッサ等を含んで構成される。 また、 信号処理部 4の Bモード処理部 4 1、 ポ リュームデータ生成部 5 1及び MP R処理部 52は、 この発明の 「画像生成 手段」 の一例として作用するものである。
[0047] 〔演算処理部〕
演算処理部 6は、 画像処理部 5の M P R処理部 52により生成された断層 画像の画像データに基づいて、 生体組織の局所的な運動の状態を示す局所運 動情報や、 より大局的な運動の状態を示す運動情報を演算するもので、 この 発明の 「演算手段」 の一例として機能するものである。
[0048] 演算処理部 6により得られる局所運動情報としては、 たとえば生体組織が 心臓である場合においては、 心臓壁の厚さの変化、 当該変化の速度、 心臓壁 の運動のストレイン ( s t r a i n ;歪み) 、 ストレインレート ( s t r a i n r a t e) . 心臓壁の内膜や外膜の回転角度、 当該回転角度の速度 ( 回転速度) 、 内膜及び外膜の相対回転角度などがある (詳細は後述する。 )
[0049] また、 運動情報としては、 たとえば、 心臓壁の捻れ運動、 当該捻れ運動の 速度、 伸縮 (ショートニング) 、 当該伸縮の速度、 心臓壁の運動のストレイ ン、 ストレインレート、 相対回転勾配などがある (詳細は後述する。 ) 。
[0050] 演算処理部 6は、 C P U等のマイクロプロセッサを含んで構成される。 こ の演算処理部 6には、 変位演算部 6 1と運動情報演算部 6 2とが設けられて いる。
[0051 ] (変位演算部)
変位演算部 6 1は、 操作部 8 2によって断層画像に指定された計測画像領 域を時系列に沿ってトラッキングすることにより、 当該計測画像領域 (にお ける生体組織) の時系列に沿った変位を演算する。 この計測画像領域の変位 は、 この発明の 「局所運動情報」 の一例に相当するものである。
[0052] なお、 時系列に沿った 2次元又は 3次元の画像間の変位を、 その画像間の 時間間隔 (フレーム間隔) で除算することにより、 変位の速度を求めること ができる。 逆に、 計測画像領域の変位の速度を、 その画像間の時間間隔を乗 算することにより、 当該画像間における変位を求めることができる。 すなわ ち、 画像間の時間間隔が既知であれば、 変位と速度とは同義と考えることが できる。 この意味において、 この発明では、 変位と速度とを同一視すること がある。
[0053] 変位演算部 6 1の動作についてより詳しく説明する。 前述のように、 超音 波診断装置 1は、 生体組織の時系列に沿った一連のボリュームデータを生成 するとともに、 そのうちの一つのボリュームデータ (或る時刻 (時相) のポ リュームデータ) に基づく断層画像の画像データを生成する。 そして、 この 断層画像に対して計測画像領域が指定される。 変位演算部 6 1は、 この計測 画像領域が、 他の時刻 (時相) のボリュームデータにおいてどれだけ変位し たかを時系列に沿って追跡するものである。 このような、 時系列に沿ったポ リユームデータにおける計測画像領域の変位の追跡処理を 「 3次元トラツキ ング」 と呼ぶことがある。
[0054] また、 変位演算部 6 1は、 断層画像に指定された計測画像領域が、 この断 層画像と同じ断面位置における他の時刻 (時相) の断層画像においてどれだ け変位したかを時系列に沿つて追跡することもできる。 このような追跡処理 を Γ 2次元トラッキング」 と呼ぶことがある。 この 2次元トラッキングは、 時系列に沿ったポリユームデータに基づいて、 当該断面位置における時系列 に沿った断層画像の画像データを生成し、 この時系列に沿った断層画像の画 像データにおいて変位を追跡することにより実行できる。 また、 時系列に沿 つたボリュームデータにおける当該断面位置内での変位を追跡することで、
2次元トラッキングを行ってもよい。
[0055] このようなトラッキング処理は、 従来と同様の方法で行うことができる。
たとえば、 2次元トラッキングは、 前述の特許文献 1に記載の方法と同様に 、 時系列に沿った複数の断層画像のそれぞれに指定された計測画像領域から 特徴点を抽出し、 その特徴点に基づいて計測点を指定する。 そして、 この計 測点を中心に所定数以上の特徴点を含む大きさのテンプレートを設定し、 こ のテンプレートを用いて 2つの断層画像 (計測画像領域) について相互相関 処理 (パターンマッチング処理) を行って各計測点の変位を演算する。
[0056] また、 3次元トラッキングにおいては、 ボリュームデータに基づいて 3次 元的なテンプレートを同様にして設定し、 この 3次元的なテンプレートを用 いて、 時刻 (時相) の異なる 2つのボリュームデータについてパターンマツ チング処理を行って各計測点の変位を演算する。
[0057] なお、 特徴点や計測点は、 計測画像領域 (たとえば後述の図 5に示す内膜 位置画像 m l ) 上にのみ指定するように構成してもよいし、 計測画像領域を 境界とする領域内 (たとえば内膜位置画像 m 1と外膜位置画像 M 1により囲 まれる心臓壁の断面に相当する画像領域) や、 計測画像領域の近傍領域など 、 計測画像領域以外の領域に指定するように構成してもよい。 いずれにして も、 指定された計測画像領域の時系列に沿った変位を演算可能な任意のトラ ッキング手法を適用することが可能である。
[0058] 2次元トラッキングや 3次元トラッキングによって求められた計測点の変 位は、 そのまま計測画像領域の変位として用いることができる。 また、 これ らの計測点の変位に基づいて、 計測画像領域の境界 (たとえば後述の図 6に 示す内膜位置画像 m 1 〜m 3や外膜位置画像 M 1 〜M 3など) の変位を演算 し、 この境界の変位を計測画像領域の変位として用いることもできる。
[0059] このように、 変位演算部 6 1は、 1つの断層画像に指定された計測画像領 域に複数の計測点を指定し、 各フレームの断層画像についてこれらの計測点 の位置をそれぞれ求める。 そして、 この各フレームの断層画像の計測点の位 置に基づいて各計測点の時系列に沿った変位を演算するとともに、 この計測 点の変位に基づいて、 指定された計測画像領域の変位を演算するように作用 するものである。
[0060] (運動情報演算部)
運動情報演算部 6 2は、 変位演算部 6 1により演算された計測画像領域の 変位に基づいて、 生体組織の (より大局的な) 運動の状態を示す運動情報を 演算する処理を行うものである。 この運動情報演算部 6 2による運動情報の 演算処理の具体例については後述することにする。
[0061 ] [動作態様]
以上のような構成を具備するこの実施形態に係る超音波診断装置 1の動作 態様の一例について、 図 4〜図 1 4を参照しつつ説明する。 ここでは、 心臓 の運動状態を評価する場合について説明する。 以下、 超音波画像の取得及び 計測画像領域の指定について図 4〜図 6を参照しつつ説明し、 次に、 計測画 像領域のトラッキング処理及び運動情報の演算処理について図 7〜図 1 4を 参照しつつ説明する。
[0062] 〔超音波画像の取得及び計測画像領域の指定〕
最初に、 運動状態の評価対象の心臓の超音波画像を取得する。 そのために 、 まず、 被検者の心臓の近傍 (一般に、 心臓の心尖の近傍) の体表に超音波 プローブを当てて、 所定の操作を行うことにより、 送受信部 3が、 制御部 9 の制御に基づいて超音波プローブ 2を制御して、 心臓の 3次元超音波スキヤ ン (図 2、 図 3に示した超音波スキャン) を行う (S 0 1 ) 。
[0063] 超音波診断装置 1は、 この 3次元超音波スキャンを反復して実行する。 こ のとき、 3次元超音波スキャンは、 1心周期 (心臓の拍動の 1周期 (たとえ ば心電図における R波から次の R波まで) ) 以上の時間反復して行うことが 望ましい。
[0064] 次に、 送受信部 3は、 超音波プローブ 2から順次送られるエコー信号を R
Fデータに変換し、 信号処理部 4に順次入力する。 信号処理部 4の Bモード 処理部 4 1は、 この R Fデータに基づいて、 各 2次元スキャン面 P 1〜P n における断層画像の画像データを順次に生成する (S O 2 ) 。 生成された画 像データは、 画像処理部 5に入力される。 なお、 ボリュームデータが先に得 られる場合には、 このボリュームデータに対して M P R処理等を施して断層 画像の画像データを生成するようにしてもよい。
[0065] 続いて、 画像処理部 5のボリュームデータ生成部 5 1は、 2次元スキャン 面 P 1〜P nにおける断層画像の画像データに対して順次に補間処理を施し て、 1回の 3次元超音波スキャンに対応する 3次元スキャン領域 Rにおける ボリュームデータを順次に生成する (S O 3 ) 。 それにより、 時系列に沿つ た複数のボリュームデータが得られる。
[0066] 次に、 M P R処理部 5 2は、 生成された複数のボリュームデータのうちの 一つに基づいて、 心臓の所定の断面位置における断層画像の画像データを生 成する。 この実施形態では、 心尖四腔像 (心尖四腔断層などとも呼ばれる。
) の画像データと、 心尖二腔像 (心尖二腔断層などとも呼ばれる。 ) の画像 データとを生成する (S O 4 ) 。 ここで、 心尖四腔像と心尖二腔像は、 それ ぞれ心臓の長軸方向に沿った断面位置における断層画像であって、 互いの断 面位置が直交している。
[0067] 制御部 9は、 ステップ S O 4で生成された画像データに基づく断層画像 ( 心尖四腔像と心尖二腔像) を表示部 8 1に表示させる (S O 5 ) 。 図 5は、 このときの表示態様の一例を示している。 同図における表示部 8 1 (の表示 画面) には、 ステップ S O 4で生成された画像データに基づく断層画像が表 示される断面位置指定画像表示部 8 1 A、 8 1 Bが設けられている。 同図の 断面位置指定画像表示部 8 1 Aには心尖四腔像が表示され、 断面位置指定画 像表示部 8 1 Bには心尖二腔像が表示されている。
[0068] また、 心電同期による超音波診断の場合には、 表示部 8 1の心電図表示部 8 1 Fに心電図が表示される。 この心電図表示部 8 1 Fには、 断面位置指定 画像表示部 8 1 A、 8 1 Bに表示された断層画像が取得された時間 (時相、 時刻) を示す時間カーソル Tが表示される。 図 5では、 心電図の R波の時相 に時間カーソル Tが配置されている。 ここで、 心電図の時間方向 (横方向) に時間カーソル Tを移動 (ドラッグアンドドロップ等) できるように構成す るとともに、 時間カーソル Tの移動先の時間 (時相) における断層画像をポ リュームデータから生成して断面位置指定画像表示部 8 1 A、 8 1 Bに表示 させるように構成することもできる。
[0069] 断面位置指定画像表示部 8 1 Bの横位置には、 断面位置指定カーソル C 1 、 C 2、 C 3が設けられている。 ユーザは、 心尖四腔像や心尖二腔像を観察 しつつ、 たとえば、 操作部 8 2のマウスを操作して断面位置指定カーソル C 1 〜C 3をそれぞれ上下方向 (心臓の長軸方向) にドラッグアンドドロップ することによって断面位置を指定する (S O 6 ) 。
[0070] 制御部 9は、 たとえば、 心尖四腔像 (及び Z又は心尖二腔像) の表示画面 における座標と、 断面位置指定カーソル C 1 〜C 3の表示画面における座標 とに基づいて、 心尖四腔像の画像データにおける、 指定された断面位置の座 標を決定し、 画像処理部 5に送る。
[0071 ] M P R処理部 5 2は、 制御部 9から送られた座標の情報と、 ステップ S O 3にて生成された複数のボリュームデータに基づき、 指定された各断面位置 において心臓の短軸方向に断面を有する断層画像の画像データをそれぞれ生 成する (S O 7 ) 。 このとき、 M P R処理部 5 2は、 複数のボリュームデー タのそれぞれについて、 指定された各断面位置における断層画像の画像デー タを生成する。
[0072] 制御部 9は、 ステップ S O 7にて生成された画像データのうち、 ステップ S 0 4と同じポリユームデータから生成された画像データに基づく断層画像 を、 表示部 8 1の断層画像表示部 8 1 C、 8 1 D、 8 1 Eに表示させる (S 0 8 ) 。 なお、 ステップ S O 7において、 ステップ S 0 8の表示処理に関わ る画像データを優先的に生成し、 その他の画像データの生成処理については 、 ステップ S 0 8以降の処理のバックグラウンドで実行するようにしてもよ い。
[0073] 図 5に示す例においては、 断面位置指定カーソル C 1〜C 3は、 それぞれ 、 心臓の心尖部レベル、 乳頭筋レベル、 心基部レベルに指定されている。 こ の場合、 断層画像表示部 8 1 Cには、 断面位置指定カーソル C 1にて指定さ れた心尖部レベルの断層画像 (心尖部短軸像) G 1が表示される。 また、 断 層画像表示部 8 1 Dには、 断面位置指定カーソル C 2にて指定された乳頭筋 レベルの断層画像 (乳頭筋短軸像) G 2が表示される。 また、 断層画像表示 部 8 1 Eには、 断面位置指定カーソル C 3にて指定された心基部レベルの断 層画像 (心基部短軸像) G 3が表示される。
[0074] ユーザは、 操作部 8 2を操作して、 各断層画像表示部 8 1 C、 8 1 D、 8
1 Eに表示された断層画像上に計測画像領域を指定する (S O 9 ) 。 この操 作は、 たとえば、 マウスをドラッグして断層画像上に計測画像領域を示す境 界を入力することで行う。
[0075] 図 6は、 図 5の心尖部短軸像 G 1、 乳頭筋短軸像 G 2及び心基部短軸像 G 3に対する計測画像領域の指定態様の一例を表している。 なお、 各短軸像 G 1〜G 3に示す内側の点線は心臓壁の内膜を示し、 外側の点線は外膜を示し ている。 ユーザは、 表示された短軸像 G 1〜G 3を観察しつつ操作部 8 2を 操作して、 内膜及び外膜をそれぞれなぞるようにして計測画像領域を示す線 を入力する。
[0076] それにより、 図 6に示すように、 心尖部短軸像 G 1には、 その心臓壁の内 膜をなぞって得られる内膜位置画像 m lと、 外膜をなぞって得られる外膜位 置画像 M 1とが入力される。 また、 乳頭筋短軸像 G 2には、 その心臓壁の内 膜をなぞって得られる内膜位置画像 m 2と、 外膜をなぞって得られる外膜位 置画像 M 2とが入力される。 また、 心基部短軸像 G 3には、 その心臓壁の内 膜をなぞって得られる内膜位置画像 m 3と、 外膜をなぞって得られる外膜位 置画像 M 3とが入力される。
[0077] 以上で、 超音波画像の取得及び計測画像領域の指定は終了となる。 [0078] 〔計測画像領域のトラッキング処理及び運動情報の演算処理〕 次に、 図 7〜図 1 4を参照し、 計測画像領域のトラッキング処理 (変位演 算処理) 及び運動情報の演算処理について説明する。 以下、 取得対象となる 運動情報ごとに説明する。 以下に説明する各処理は、 図 4のフローチャート のステップ S 0 9に続いて実行される。 なお、 以下に説明する複数の処理を 順次に行ってもよいし、 並行して行ってもよい。 また、 異なる処理において 実行される同一のプロセスは、 それぞれ個別に実行する必要はない。
[0079] (運動情報:捻れ運動)
まず、 心臓壁の捻れ運動の状態を運動情報として取得するときの処理につ いて、 図 7、 図 8を参照しつつ説明する。 断層画像表示部 8 1 C、 8 1 D、 8 1 Eに表示された断層画像上に計測画像領域が指定されると (S O 9 ) 、 変位演算部 6 1は、 時系列に沿った複数のボリュームデータのそれぞれにつ いて生成された断層画像の画像データ (S O 7 ) に基づいて内膜位置画像 m 1の 2次元トラッキングを実行することにより、 心尖部短軸像 G 1の断面に 直交する方向 (心臓の長軸方向) を軸とする内膜位置画像 m 1の回転角度 ( 局所運動情報) を演算する。 同様に、 乳頭筋短軸像 G 2及び心基部短軸像 G 3についても、 心臓の長軸方向を軸とする内膜位置画像 m 2、 m 3の回転角 度 (局所運動情報) を演算する (S 1 1 ) 。 なお、 内膜位置画像 m 1、 m 2 、 m 3に代えて、 外膜位置画像 M 1、 M 2、 M 3の回転角度を演算してもよ い。
[0080] このとき、 変位演算部 6 1は、 たとえば各時相について、 ステップ S O 9 で内膜位置画像 m l等が入力された時相 (基準時相) に対する回転角度とし て内膜位置画像 m 1、 m 2、 m 3の回転角度を演算する。 また、 時系列に沿 つて隣接するフレーム (つまり連続するフレーム) における内膜位置画像 m 1、 m 2、 m 3の回転角度を順次演算していくようにしてもよい。
[0081 ] 運動情報演算部 6 2は、 内膜位置画像 m lの回転角度と、 内膜位置画像 m 2の回転角度との差 (相対回転角度) を演算する (S 1 2 ) 。 同様に、 内膜 位置画像 m 2の回転角度と、 内膜位置画像 m 3の回転角度との差 (相対回転 角度) を演算する (S 13) 。 これらの相対回転角度は、 発明の 「差異情報
」 の一例に相当する。
[0082] ステップ S 1 2、 S 13の処理について、 図 8を参照しつつ具体的に説明 する。 断層画像表示部 81 C、 81 D、 81 Eにおいて、 たとえば反時計回 リ方向を正の回転方向 (+0方向) と定義する。 また、 内膜位置画像 mlの 回転角度を 01、 内膜位置画像 m 2の回転角度を 02、 内膜位置画像 m 3の 回転角度を 03とする。
[0083] このとき、 ステップ S 1 2で演算される相対回転角度 Δ01 2は、 Δ01 2 = 01 -02 (又は、 02— 01) によって算出される。 また、 ステップ S 13で演算される相対回転角度 Δ 023は、 Δ023 = 02_03 (又は 、 Θ 3 - Θ 2) によって算出される。
[0084] ステップ S 1 2で得られる相対回転角度 Δ 01 2は、 心尖部短軸像 G 1の 断面位置と乳頭筋短軸像 G 2の断面位置との間における心臓壁の捻れ運動の 状態 (大きさ) を反映する情報である。 つまり、 相対回転角度 Δ01 2 = 0 (01 =02) である場合、 これらの断面位置の間の任意の位置において、 心臓壁は同じ方向に同じ角度だけ回転しており、 回転方向への捻れは無いも のと考えることができる。
[0085] 一方、 | Δ01 2 |≠0である場合には、 これらの断面位置の間において 回転角度に差異があり、 心臓壁が回転角度方向に捻れていることになる。 こ の心臓壁の捻れは、 相対回転角度 Δ01 2の絶対値が大きいほど大きくなる 。 たとえば、 6> 1の符号と 02の符号とが異なる場合、 すなわち内膜位置画 像 m 1の回転方向と内膜位置画像 m2の回転方向とが逆である場合には、 相 対回転角度 Δ01 2の絶対値は比較的大きくなる。
[0086] ステップ S 13で得られる相対回転角度 Δ 023は、 同様に、 乳頭筋短軸 像 G 2の断面位置と心基部短軸像 G 3の断面位置との間における心臓壁の捻 れ運動の大きさを反映する情報である。
[0087] 制御部 9は、 ステップ S 1 2、 S 13で演算された相対回転角度 Δ 6» 1 2 、 厶6» 23を、 心臓壁の捻れ運動の大きさを示す運動情報として表示部 81 に表示させる (S 1 4 ) 。 この表示された相対回転角度 Δ 0 1 2、 Δ 0 2 3 を参照することにより、 ユーザは、 心臓壁の捻れ運動の大きさを把握するこ とができる。 ここで、 心臓壁の内膜及び外膜についてそれぞれ相対回転角度 を演算し、 この 2つの相対回転角度に基づいて捻れ運動の大きさを評価する こともできる (たとえば 2つの相対回転角度の平均値を取るなど。 ) 。
[0088] なお、 相対回転角度 Δ 0 1 2を時間で微分することにより、 内膜位置画像 m 1、 m 2の間における心臓壁の捻れ運動の速度を求めることができる。 同 様に、 相対回転角度 Δ 0 2 3を時間で微分することにより、 内膜位置画像 m 2、 m 3の間における心臓壁の捻れ運動の速度を求めることができる。 そし て、 これらの速度を表示部 8 1に表示させるように構成することが可能であ る。 ここで、 「微分」 とは、 通常の微分演算とともに、 相対回転角度を求め たフレーム間の時間間隔で当該相対回転角度を除算する処理も含むものとす る。
[0089] (運動情報:相対回転勾配)
心臓壁の相対回転勾配を運動情報として取得するときの処理について、 図 9、 図 1 0を参照しつつ説明する。 この相対回転勾配は、 心臓壁の捻れ運動 の度合いを示す運動情報である。
[0090] まず、 変位演算部 6 1が、 図 7のステップ S 1 1と同様にして、 心尖部短 軸像 G 1の内膜位置画像 m 1の回転角度 0 1と、 乳頭筋短軸像 G 2の内膜位 置画像 m 2の回転角度 0 2と、 心基部短軸像 G 3の内膜位置画像 m 3の回転 角度 0 3とをそれぞれ演算する (S 2 1 ) 。
[0091 ] 次に、 運動情報演算部 6 2が、 ステップ S 1 2、 1 3と同様にして、 内膜 位置画像 m lの回転角度 0 1と、 内膜位置画像 m 2の回転角度 0 2との相対 回転角度厶 0 1 2を演算し (S 2 2 ) 、 内膜位置画像 m 2の回転角度 0 2と 、 内膜位置画像 m 3の回転角度 6» 3と相対回転角度 Δ 6» 2 3を演算する (S 2 3 ) o
[0092] 運動情報演算部 6 2は、 続いて、 心尖部短軸像 G 1と乳頭筋短軸像 G 2と の間の距離 d 1 2を演算し (S 2 4 ) 、 乳頭筋短軸像 G 2と心基部短軸像 G 3との間の距離 d 2 3を演算する (S 2 5 ) 。 この距離 d 1 2、 d 2 3は、 たとえば、 ステップ S 0 6の後に制御部 9によって求められた、 心尖部短軸 像 G 1、 乳頭筋短軸像 G 2、 心基部短軸像 G 3の断面位置の座標に基づいて 演算することができる。
[0093] 更に、 運動情報演算部 6 2は、 図 1 0に示すように、 ステップ S 2 2で求 めた相対回転角度厶0 1 2を、 ステップ S 2 4で求めた距離 d 1 2で除算し て、 内膜位置画像 m lと内膜位置画像 m 2との間における相対回転勾配 S 6» 1 2 = Δ 6» 1 2 Z d 1 2を演算する (S 2 6 ) 。 同様に、 運動情報演算部 6 2は、 ステップ S 2 3で求めた相対回転角度厶 0 2 3を、 ステップ S 2 5で 求めた距離 d 2 3で除算して、 内膜位置画像 m 2と内膜位置画像 m 3との間 における相対回転勾配 S 0 2 3 = Δ 0 2 3 Z d 2 3を演算する (S 2 7 ) 。
[0094] 制御部 9は、 ステップ S 2 6、 S 2 7で演算された相対回転勾配 S Θ 1 2 、 S 0 2 3を、 心臓壁の捻れ運動の度合いを示す運動情報として表示部 8 1 に表示させる (S 2 8 ) 。
[0095] 相対回転勾配 1 2は、 心尖部レベルの内膜と乳頭筋レベルの内膜の間 における単位距離当たりの捻れの大きさを示している。 また、 相対回転勾配 S 0 2 3は、 乳頭筋レベルの内膜の心基部レベルの内膜と間における単位距 離当たりの捻れの大きさを示している。 つまり、 相対回転勾配 S 6» 1 2、 d 6» 2 3は、 心臓壁 (内膜) の捻れの度合いを反映した運動情報である。 ユー ザは、 表示された相対回転勾配 S 0 1 2、 δ Θ 2 3を参照することにより、 心臓壁の捻れ運動の度合いを把握することができる。 なお、 心臓壁の内膜及 び外膜についてそれぞれ相対回転勾配を演算し、 この 2つの相対回転勾配に 基づいて捻れ運動の度合いを評価することもできる (たとえば 2つの相対回 転勾配の平均値を取るなど。 ) 。
[0096] (運動情報:長軸方向への伸縮)
心臓壁の長軸方向への伸縮 (ショートニング) を運動情報として取得する ときの処理について、 図 1 1、 図 1 2を参照しつつ説明する。
[0097] まず、 変位演算部 6 1は、 時系列に沿った複数のボリュームデータ (S O 3) に基づいて、 心尖部短軸像 G 1の内膜位置画像 m 1、 乳頭筋短軸像 G 2 の内膜位置画像 m 2、 心基部短軸像 G 3の内膜位置画像 m 3の 3次元トラッ キングをそれぞれ行うことにより、 内膜位置画像 m1、 内膜位置画像 m2、 内膜位置画像 m 3のそれぞれについて、 計測画像領域が指定された断層画像 3次元的な変位 (Δ χ 1、 Δ γ 1、 Δ ζ 1) 、 (Δ χ 2、 Δ γ 2、 Δ ζ 2) 、 (A x 3、 A y 3、 A z 3) を演算する (S31 ) 。 これらの変位は、 Γ 局所運動情報」 の一例に相当する。 なお、 内膜位置画像 m1、 m2、 m3に 代えて、 外膜位置画像 M 1、 M2、 M3の 3次元的な変位を演算するように してもよい。
[0098] このとき、 変位演算部 61は、 たとえば各時相について、 ステップ SO 9 で内膜位置画像 m 1等が入力された基準時相に対する 3次元的な変位として 、 内膜位置画像 m1、 m2、 m 3の 3次元的な変位を演算する。 また、 連続 するフレームにおける内膜位置画像 m 1、 m2、 m 3の 3次元的な変位を順 次演算していくようにしてもよい。
[0099] なお、 Δ χ、 A yは、 それぞれ、 図 2、 図 3に示す X方向 (いずれかの方 向を + X方向とする。 ) 、 Y方向への変位を表す。 なお、 この X方向と Y方 向とを含む平面は、 心尖部短軸像 G 1、 乳頭筋短軸像 G 2、 心基部短軸像 G 3の断面と平行になっている。 また、 Δ ζは、 X方向及び Υ方向に直交する Ζ方向 (たとえば乳頭筋レベルから見て心尖の方向を一 Ζ方向とし、 心基部 の方向を +Ζ方向とする。 ) への変位を表す。 この Ζ方向は、 心臓の長軸方 向と平行になっている。
[0100] 変位演算部 61は、 更に、 これらの 3次元的な変位 (Δ X 1、 Δ y 1、 厶
z 1) 、 (厶 X 2、 厶 y 2、 厶 z 2) 、 (厶 x 3、 厶 y 3、 厶 z 3 ) のそれ ぞれから、 Z方向 (長軸方向) への変位 Δ ζ 1、 Δ ζ 2、 Δ ζ 3を抽出する (S 32) 。
[0101] なお、 ここでは心尖部短軸像 G 1等の断面が ΧΥ平面に平行であると仮定 したが、 心尖部短軸像 G 1等の断面が X y平面に平行でない場合であっても 、 3次元的な変位 (ベクトル) を Z方向に投影することによって、 Z方向へ の変位を容易に演算することが可能である。
[0102] 次に、 運動情報演算部 62は、 図 1 2に示すように、 内膜位置画像 m 1の Z方向への変位 Δ z 1と、 内膜位置画像 m 2の Z方向への変位 Δ z 2との差 を演算することにより、 心尖部レベルと乳頭筋レベルとの間における心臓壁 の伸縮厶 z 1 2=A z 1 _A z 2 (又は厶 z 2_厶 z 1 ) を求める (S 33 ) 。 同様に、 運動情報演算部 62は、 内膜位置画像 m2の Z方向への変位厶 z 2と、 内膜位置画像 m 3の Z方向への変位 Δ z 3との差を演算することに よリ、 乳頭筋レベルと心基部レベルとの間における心臓壁の伸縮 Δ z 23 = △ ζ 2_Δ ζ 3 (又は厶 2 3 _厶∑ 2) を求める (S 34) 。 これらの伸縮 厶 ζ 1 2、 Δ ζ 1 3は、 「差異情報」 の一例に相当する。
[0103] 制御部 9は、 ステップ S 33、 S 34で演算された心臓壁の伸縮 Δ z 1 2 、 厶 z 23を、 心臓壁の伸縮の大きさを示す運動情報として表示部 8 1に表 示させる (S 35) 。 ユーザは、 表示された心臓壁の伸縮 Δ z 1 2、 Δ z 2 3を参照することにより、 心臓壁の伸縮の大きさを把握することができる。
[0104] なお、 心臓壁の内膜及び外膜についてそれぞれ心臓壁の伸縮を演算し、 こ の 2つの伸縮の値に基づいて伸縮の大きさを評価することもできる (たとえ ば 2つの伸縮の値の平均値を取るなど。 ) 。
[0105] また、 伸縮 Δ ζ 1 2を時間で微分することにより、 内膜位置画像 m 1、 m 2の間における心臓壁の伸縮運動の速度を求めることができる。 同様に、 伸 縮 23を時間で微分することにより、 内膜位置画像 m 2、 m 3の間にお ける心臓壁の伸縮運動の速度を求めることができる。 そして、 これらの速度 を表示部 8 1に表示させるように構成することが可能である。 ここでも、 Γ 微分」 は前述の意味と同様である。
[0106] (運動情報:長軸方向のス卜レイン)
心臓壁の長軸方向のス卜レインを運動情報として取得するときの処理につ いて、 図 1 3、 図 1 4を参照しつつ説明する。 このストレインは、 心臓壁の 歪みの大きさの度合いを示す情報であり、 心臓壁の歪み状態を示すものであ る。 [0107] まず、 長軸方向への伸縮を求める場合と同様にして、 変位演算部 61が、 内膜位置画像 m1、 内膜位置画像 m 2、 内膜位置画像 m 3のそれぞれについ て、 計測画像領域が指定された断層画像 3次元的な変位 (Δ X 1、 Δ y 1、 △ z 1) 、 (Ax 2、 Ay 2、 厶 z 2) 、 (Ax 3、 Ay 3、 A z 3) を演 算し (S41) 、 これらの 3次元的な変位から、 Z方向 (長軸方向) への変 位厶 z 1、 Δ z 2、 Δ z 3をそれぞれ抽出する (S 42) 。
[0108] 次に、 運動情報演算部 62が、 前述の場合と同様にして、 心尖部レベルと 乳頭筋レベルとの間における心臓壁の伸縮 Δ Ζ 1 2=Δ ζ 1 _Δ ζ 2を演算 し (S43) 、 乳頭筋レベルと心基部レベルとの間における心臓壁の伸縮厶 ζ 23 =Δ ζ 2 _Δ ζ 3を演算する (S44) 。
[0109] また、 運動情報演算部 62は、 図 9のステップ S 24、 S 25と同様にし て、 計測画像領域が指定された心尖部短軸像 G 1、 乳頭筋短軸像 G 2、 心基 部短軸像 G 3について、 心尖部短軸像 G 1と乳頭筋短軸像 G 2との間の距離 d 1 2を演算し (S45) 、 乳頭筋短軸像 G 2と心基部短軸像 G 3との間の 距離 d 23を演算する (S46) 。
[0110] 運動情報演算部 62は、 更に、 ステップ S 43で演算した伸縮 Δ ζ 1 2を ステップ S 45で演算した距離 d 1 2で除算することにより、 心尖部レベル と乳頭筋レベルとの間における長軸方向のストレイン δ z 1 2=Δ ζ 1 2Ζ d 1 2を演算する (S47) 。 また、 運動情報演算部 62は、 ステップ S 4 4で演算した伸縮 Δ z 23をステップ S46で演算した距離 d 23で除算す ることにより、 乳頭筋レベルと心基部レベルとの間における長軸方向のス卜 レイン δ z 23 =Δ z 23Zd 23を演算する (S48) 。
[0111] 制御部 9は、 ステップ S47、 S 48で演算された心臓壁のストレイン S z 1 2、 S z 23を、 心臓壁のストレインの大きさを示す運動情報として表 示部 81に表示させる (S49) 。 ユーザは、 表示された心臓壁のストレイ ン S z 1 2、 d z 23を参照することにより、 心臓壁の歪みの大きさを把握 することができる。
[0112] なお、 心臓壁の内膜及び外膜についてそれぞれストレインを演算し、 この 2つのストレインの値に基づいて歪みの大きさを評価することもできる (た とえば 2つのストレインの値の平均値を取るなど。 ) 。
[0113] (運動情報:長軸方向のストレインレー卜)
心臓壁の長軸方向のストレインレートを運動情報として取得するときの処 理について説明する。 このストレインレートは、 心臓壁の歪み (ストレイン ) の時間変化率を示す情報であり、 心臓壁の歪み状態を示すものである。
[0114] ストレインレートを求める場合、 図 1 3のフローチャートのステップ S 4
1〜S 4 8と同様の処理を行って、 心尖部レベルと乳頭筋レベルとの間にお ける長軸方向のストレイン S z 1 2と、 乳頭筋レベルと心基部レベルとの間 における長軸方向のストレイン S z 2 3とを演算する。
[0115] ここで、 ストレイン δ z 1 2、 ストレイン δ ζ 2 3は、 2つの時相 t 1、 t 2 ( t 1≠ t 2 ) における心尖部短軸像 G 1、 乳頭筋短軸像 G 2、 心基部 短軸像 G 3について演算されるものである。 運動情報演算部 6 2は、 ストレ イン S z 1 2を時間間隔厶 t = | t 1 - t 2 |で除算することにより、 心尖 部レベルと乳頭筋レベルとの間における長軸方向のストレインレートを演算 する。 また、 ストレイン 2 3を時間間隔 A tで除算することにより、 乳 頭筋レベルと心基部レベルとの間における長軸方向のストレインレートを演 算する。 なお、 通常の微分演算を実行することにより、 ストレインからスト レインレートを算出するようにしてもよい。
[0116] 制御部 9は、 演算された心臓壁のストレインレート S z 1 2 ΖΔ t、 d z 2 3 ΖΔ tを、 心臓壁のストレインの時間変化率を示す運動情報として表示 部 8 1に表示させる。 ユーザは、 表示された心臓壁のストレインレートを参 照することにより、 心臓壁の歪みの時間変化率を把握することができる。
[0117] なお、 心臓壁の内膜及び外膜についてそれぞれストレインレートを演算し 、 この 2つのストレインレートの値に基づいて歪みの時間変化率を評価する こともできる (たとえば 2つのストレインレー卜の値の平均値を取るなど。
) o
[0118] [作用,効果など] 以上に説明したように動作する超音波診断装置 1によれば、 次のような作 用、 効果が奏される。
[0119] この超音波診断装置 1は、 まず、 生体組織 (心臓) の 2以上の断面位置 ( たとえば心尖部レベル、 乳頭筋レベル、 心基部レベルの 3つの断面位置) に ついて、 それぞれ動画像の画像データを生成する。 この動画像の画像データ は、 時系列に沿った一連の断層画像の画像データ (フレーム) である。 なお 、 画像をリアルタイム表示させる場合においては、 C P U等の動作速度など を考慮すると動画像を表示できないこともあるが、 その場合には、 たとえば 、 ボリュームデータに対して M P R処理を施すなどして得られる断層画像を 表示するのみとすることが可能である。
[0120] 次に、 超音波診断装置 1は、 2以上の断面位置のそれぞれについて、 一連 の断層画像のうちの 1つの断層画像を表示させる。 ユーザは、 操作部 8 2を 操作して、 表示された各断層画像に計測画像領域を指定する。 計測画像領域 が指定されると、 超音波診断装置 1は、 各断面位置の断層画像に指定された 計測画像領域の時系列に沿った変位を演算する。 そして、 2以上の断面位置 についてそれぞれ演算された計測画像領域の変位に基づいて、 生体組織の運 動の状態を示す運動情報を演算する。
[0121 ] このように、 1つの断面位置における計測画像領域の変位 (局所運動情報 ) によって生体組織の運動を計測していた従来の手法とは異なり、 この実施 形態に係る超音波診断装置 1は、 2以上の断面位置にそれぞれ計測画像領域 を指定し、 この 2以上の計測画像領域の変位 (局所運動情報) をそれぞれ求 めて運動情報を取得するように作用するので、 生体組織の 3次元的な運動の 計測を行うことが可能となる。
[0122] 特に、 各断面位置における計測画像領域の変位に基づいて、 異なる断面位 置の間における相対的な変位 (相対変位 (差異情報) ;上述した相対回転角 度、 伸縮など) を求め、 この相対変位に基づいて生体組織の 3次元的な運動 を計測することができる。 また、 このような相対変位に基づいて計測を行う ことにより、 断面位置の間の部分についてはデータ解析を行う必要がない ( つまり、 3次元的なデータ解析を行う必要がない) ので、 3次元的な計測を 短時間で実行できるというメリツ卜もある。
[0123] また、 2次元の断層画像に指定された計測画像領域をポリユームデータに 基づいて 3次元的に卜ラッキングすることにより、 計測画像領域の 3次元的 な変位を求めることができるため、 精度の高い計測を行うことができる。
[0124] なお、 取得目的の運動情報によって 2次元的なトラッキングと 3次元的な トラッキングとを切リ換えて行うようにすれば、 処理の効率化を図ることも できる。 また、 取得目的の運動情報に応じて、 2次元トラッキングのみを実 行可能な超音波診断装置や、 3次元トラッキングのみを実行可能な超音波診 断装置を構成することも可能である。
[0125] また、 この超音波診断装置 1によれば、 表示される疑似的な 3次元画像に 計測画像領域を指定する従来の構成とは異なり、 ポリユームデータに基づく 断層画像 (M P R画像) を表示させ、 この断層画像に対して計測画像領域の 指定を行うようになっているので、 計測画像領域を容易に指定することが可 能である。
[0126] この超音波診断装置 1によれば、 上記の運動情報以外にも、 たとえば、 心 臓壁の厚さの変化 (速度) 、 心臓壁の厚さ方向 (短軸方向) におけるストレ ィンゃストレインレー卜、 長軸方向を軸とする心臓壁の内膜や外膜の回転角 度 (回転速度) 、 長軸方向を軸とする回転方向における心臓壁のストレイン やストレインレー卜、 長軸方向を軸とする回転方向における心臓壁の内膜と 外膜との相対回転角度など、 各種の (局所) 運動情報を取得することも可能 である。 これらの運動情報は、 従来と同様に、 1つの断層画像における 2次 元トラッキングによって求めることができる。 また、 3次元トラッキングを 用いる場合であっても、 たとえば、 ボリュームデータを所定の視線方向に射 影して得られる画像 (レンダリング処理により得られる画像) によって運動 情報を取得することができる。 以下、 これらの運動情報の演算方法の一例を 簡単に説明する。
[0127] 心臓壁の厚さ (壁厚) の変化は、 時相の異なる 2つの断層画像について、 それぞれ、 心臓壁の厚さを演算し、 それらの差を求めることにより取得でき る。 ここで、 心臓壁の壁厚は、 内膜 (又は外膜) の任意の位置において、 そ の位置において内膜 (又は外膜) に接する接線に直交する直線を求め、 この 直線が外膜 (又は内膜) と交わる位置 (交点) を求めるとともに、 当該任意 の位置と交点との間の距離を演算することによって求めることができる。 ま た、 壁厚の変化速度は、 2つの断層画像の間の時間で壁厚の変化を除算した リ、 壁厚の変化に対して通常の微分処理 (時間を変数とする微分処理) を施 したりすることにより、 容易に求めることができる。
[0128] 心臓壁の厚さ方向におけるストレインは、 上記の壁厚の変化を求めるとと もに、 この壁厚の変化を、 2つの断層画像のうちの一方の断層画像 (或る時 相の断層画像) における壁厚の値で除算することにより求めることができる 。 ストレインレートは、 このストレインの値を、 2つの断層画像の時相の時 間間隔で除算する (若しくは時間で微分する) ことにより求めることができ る。
[0129] 長軸方向を軸とする心臓壁の内膜 (外膜) の回転角度は、 時相の異なる 2 つの断層画像について、 内膜 (外膜) の短軸方向における回転方向の位置を それぞれ求めるとともに、 一方の断層画像における内膜 (外膜) の位置に対 する他方の断層画像における内膜 (外膜) の位置を演算することにより求め ることができる。 また、 回転速度についても前述の要領で容易に求めること ができる。
[0130] 長軸方向を軸とする回転方向における心臓壁のストレインは、 時相の異な る 2つの断層画像について、 内膜 (外膜) の 2つの位置の回転方向における 距離をそれぞれ演算し、 この 2つの距離の差を演算する。 そして、 2つの断 層画像の一方について演算された距離で当該差の値を除算することによリ求 めることができる。 また、 ストレインレートは、 このストレインの値を、 2 つの断層画像の時相の時間間隔で除算することにより求めることができる。
[0131 ] 長軸方向を軸とする回転方向における心臓壁の内膜と外膜との相対回転角 度は、 時相の異なる 2つの断層画像における内膜の回転角度と外膜の回転角 度とを求め (上述) 、 それらの差を演算することにより求めることができる
[0132] なお、 この実施形態においては、 心臓の短軸方向に平行な計測画像領域を 指定しているが、 長軸方向に平行な断面に計測画像領域を指定することもで きる。 その場合、 長軸方向における捻れ運動や相対回転勾配については、 当 該断面の断層画像における 2次元トラッキングによって求めることができる 。 また、 短軸方向への伸縮、 ストレイン、 ストレインレートについては、 ポ リュームデータを用いて 3次元トラッキングを実行することにより求めるこ とができる。
[0133] 更に、 心臓の任意の断面に平行な計測画像領域を指定することも可能であ る。 その場合、 計測画像領域に平行な方向の変位のみから取得できる運動情 報については、 当該断面に平行な方向の断層画像における 2次元トラツキン グにより求めることができる。 また、 当該断面に直交する方向の変位が必要 な運動情報については、 ボリュームデータを用いて 3次元トラッキングを実 行することにより求めることができる。
[0134] また、 ボリュームデータを生成するための任意のスキャン態様で 3次元超 音波スキャンを行う場合においても同様の運動情報取得処理を実施すること ができる。 たとえば、 2次元のスキャン面を回転走査させる場合などにおい ても、 この実施形態と同様の処理を実行することができる。 すなわち、 生体 組織のボリュームデータを生成できさえすれば、 超音波のスキャン態様は任 意に選択できる。
[0135] [変形例]
以上に詳述した超音波診断装置 1は、 この発明に係る超音波診断装置を好 適に実施するための一具体例に過ぎないものである。 以下、 この発明に係る 超音波診断装置に関する各種の変形例を説明する。
[0136] 〔変形例 1〕
この変形例は、 生体組織に対する 3次元超音波スキャンにより得られるポ リュームデータに基づく画像に対する計測画像領域の指定操作の容易化を図 るものである。 この変形例に係る超音波診断装置は、 上記実施形態に係る超 音波診断装置 1と同様の構成を有する。 以下、 この変形例に係る処理を説明 する。
[0137] 画像処理部 5の M P R処理部 5 2が時系列に沿った一連の断層画像の画像 データを生成するまでの処理は、 上記実施形態と同様である。 なお、 上記実 施形態においては、 2以上の断面位置について、 それぞれ断層画像の画像デ ータを生成しているが、 この変形例では、 1つの断面位置についてのみ断層 画像の画像データを生成してもよい。
[0138] 制御部 9は、 一連の断層画像のうちの 1つの断層画像を表示部 8 1に表示 させる。 ユーザは、 操作部 8 2を操作して、 表示された断層画像に計測画像 領域を指定する。 これにより、 疑似的な 3次元画像を表示して計測画像領域 の指定を行う従来の構成と比較して、 計測画像領域を容易に指定することが 可能になる。
[0139] この変形例によれば、 たとえば心臓の短軸方向の断面に平行な計測画像領 域を指定する場合、 前述した運動情報のうちのたとえば心臓壁の厚さの変化 (速度) 、 心臓壁の厚さ方向におけるストレインやストレインレート、 長軸 方向を軸とする心臓壁の内膜や外膜の回転角度 (回転速度) 、 長軸方向を軸 とする回転方向における心臓壁のストレインやストレインレー卜、 長軸方向 を軸とする回転方向における心臓壁の内膜と外膜との相対回転角度などを演 算することが可能である。
[0140] 〔変形例 2〕
上記実施形態の超音波診断装置 1では、 ユーザが操作部 8 2を操作して計 測画像領域を指定するように構成されている。 この変形例は、 計測画像領域 の指定操作を自動的に行うものである。
[0141 ] この変形例に係る超音波診断装置の一例を図 1 5に示す。 同図に示す超音 波診断装置 1 0 0は、 上記実施形態の超音波診断装置 1とほぼ同様の構成を 有するが、 画像処理部 5に計測画像領域指定部 5 3を備えている点が異なつ ている。 また、 この変形例に特徴的な処理を実行するために、 上記実施形態 とは異なる医用画像処理プログラム 7 2を備えている。
[0142] 計測画像領域指定部 5 3は、 M P R処理部 5 2により生成された断層画像
(たとえば心尖部短軸像、 乳頭筋短軸像、 心基部短軸像) の画像データを解 祈し、 この断層画像に計測画像領域を指定する。
[0143] より具体的に説明すると、 計測画像領域指定部 5 3は、 たとえば一般的な 境界抽出処理を適用して、 この画像データの各画素の画素値を解析すること により、 生体組織の境界部分 (心臓壁の内膜、 外膜など) を抽出する。 そし て、 計測画像領域指定部 5 3は、 抽出した境界部分を、 当該断層画像におけ る計測画像領域として指定する。 計測画像領域指定部 5 3は、 この発明の Γ 指定手段」 の一例に相当するもので、 たとえば医用画像処理プログラム 7 2 に基づいて動作するマイクロプロセッサ等を含んで構成される。
[0144] この計測画像領域指定部 5 3が行う処理は、 図 4のフローチャートのステ ップ S O 9の手順に相当する。 なお、 計測画像領域指定部 5 3が計測画像領 域の指定処理を行うとき、 断層画像を表示部 8 1に表示させてもよいし、 表 示させなくてもよい。
[0145] また、 自動指定された計測画像領域をユーザが確認できるように、 この計 測画像領域が入力された断層画像を表示部 8 1に表示させることが望ましい 。 このとき、 操作部 8 2を用いて計測画像領域を適宜に変更できるように構 成することが望ましい。
[0146] この変形例によれば、 計測画像領域を自動的に指定するように構成されて いるので、 計測画像領域の指定が容易になる (実際、 自動指定された計測画 像領域をそのまま用いるときには、 計測画像領域の指定作業は不要になる。
) o
[0147] 〔変形例 3〕
上記実施形態の超音波診断装置 1では、 超音波振動子が 2次元的に配列さ れた 2次元超音波振動子を用いることにより、 3次元超音波スキャンを電子 的に行っている。 この変形例は、 超音波振動子が 1次元方向に配列された 1 次元超音波プローブを搭載した超音波診断装置に関するものである。 [0148] 1次元超音波プローブを用いる場合、 1次元方向 (図 2、 3における主走 査方向 X ) への超音波スキャンしか電子的に実行できないので、 3次元超音 波スキャンを行うときには副走査方向 Yへのスキャンを手動若しくは機械的 に行うようになっている。
[0149] このような 1次元超音波プローブを用いる場合にも、 3次元超音波スキヤ ンに基づくボリュームデータを生成し、 このボリュームデータに基づいて断 層画像の画像データを生成するとともに、 この断層画像を表示させて計測画 像領域を指定するように構成することが可能である。
[0150] 〔変形例 4〕
上記実施形態の超音波診断装置 1は、 心尖部レベルや乳頭筋レベル等の 2 以上の断面位置における断層画像に指定された計測画像領域の時系列に沿つ た変位を演算し、 この 2以上の断面位置における計測画像領域の変位に基づ いて生体組織の運動情報を演算するものである。 すなわち、 上記実施形態で は、 指定された計測画像領域の変位のみに基づいて運動情報を演算するよう になっている。
[0151 ] この変形例は、 指定された計測画像領域以外の計測画像領域を自動的に別 途指定するととともに、 この自動的に指定された計測画像領域の変位を加味 して運動情報を演算するものである。 以下、 この変形例に係る超音波診断装 置について説明する。 この変形例の超音波診断装置は、 図 1 5に示す超音波 診断装置 1 0 0と同様に、 計測画像領域指定部 5 3を備えている。
[0152] この変形例に係る超音波診断装置の動作を説明する。 ユーザは、 上記実施 形態と同様に、 表示部 8 1に表示された心尖部短軸像 G 1、 乳頭筋短軸像 G 2、 心基部短軸像 G 3の計測画像領域として、 たとえば内膜位置画像 m 1 、 m 2、 3と外膜位置画像1\ 1 1 、 M 2、 M 3とをそれぞれ計測画像領域とし て指定する (図 5、 図 6参照) 。 なお、 〔変形例 2〕 の自動指定処理によつ て計測画像領域を指定してもよい。
[0153] 計測画像領域指定部 5 3は、 指定された計測画像領域 m 1 〜m 3 、 M 1 〜 M 3以外の計測画像領域を指定する。 その一例として、 計測画像領域指定部 5 3は、 図 1 6に示すように、 心尖部短軸像 G 1よリも外側の位置に内膜位 置画像 m 4及び外膜位置画像 M 4を指定し、 心尖部短軸像 G 1と乳頭筋短軸 像 G 2との間の位置に内膜位置画像 m 5及び外膜位置画像 M 5を指定し、 乳 頭筋短軸像 G 2と心基部短軸像 G 3との間に内膜位置画像 m 6及び外膜位置 画像 M 6を指定する。
[0154] この計測画像領域自動指定処理についてよリ具体的に説明する。 計測画像 領域指定部 5 3は、 まず、 ユーザ等により計測画像領域が指定された心尖部 短軸像 G 1、 乳頭筋短軸像 G 2、 心基部短軸像 G 3の断面位置 (座標) に基 づいて、 新たな計測画像領域を指定する断面位置 (座標) を決定する。 この 処理は、 たとえば、 心尖部短軸像 G 1から乳頭筋短軸像 G 2と反対方向に所 定距離だけ離れた位置の座標 (第 1の Z座標) を求め、 心尖部短軸像 G 1の Z座標と乳頭筋短軸像 G 2の Z座標とに基づいてこれらの断面の中央の座標 (第 2の Z座標) を求め、 乳頭筋短軸像 G 2の Z座標と心基部短軸像 G 3の Z座標との中央の座標 (第 3の Z座標) を求める。
[0155] 次に、 M P R処理部 5 2が、 ボリュームデータに基づき、 第 1〜第 3の Z 座標において、 心尖部短軸像 G 1等と平行な方向の断層画像の画像データを それぞれ生成する。
[0156] 計測画像領域指定部 5 3は、 第 1の Z座標における断層画像の画像データ の画素値を解析するなどして心臓壁の境界部分を抽出し、 内側の境界部分を 内膜位置画像 m 4とし、 外側の境界部分を外膜位置画像 M 4とする。 同様に 、 第 2の Z座標における断層画像の画像データの画素値を解析するなどして 心臓壁の境界部分を抽出し、 内側の境界部分を内膜位置画像 m 5とし、 外側 の境界部分を外膜位置画像 M 5とし、 第 3の Z座標における断層画像の画像 データの画素値を解析するなどして心臓壁の境界部分を抽出し、 内側の境界 部分を内膜位置画像 m 6とし、 外側の境界部分を外膜位置画像 M 6とする。 そして、 これらの内膜位置画像 m 4〜m 6、 外膜位置画像 M 4〜M 6を、 そ れぞれ新たな計測画像領域として指定する。
[0157] この変形例の変位演算部 6 1は、 ユーザ等によリ指定された計測画像領域 m 1〜m 3、 M 1〜M 3と、 計測画像領域指定部 5 3により指定された計測 画像領域 m 4〜m 6、 M 4〜M 6の全てについて、 それぞれ、 時系列に沿つ た変位を演算する。
[0158] 運動情報演算部 6 2は、 計測画像領域 m 1〜m 6、 M 1〜M 6の全ての変 位に基づいて、 運動情報を演算する。 たとえば、 心臓壁の捻れ運動を評価す る場合、 内膜位置画像 m 4と内膜位置画像 m lとの相対回転角度を演算し、 内膜位置画像 m lと内膜位置画像 m 5との相対回転角度を演算し、 内膜位置 画像 m 5と内膜位置画像 m 2との相対回転角度を演算し、 内膜位置画像 m 2 と内膜位置画像 m 6との相対回転角度を演算し、 内膜位置画像 m 6と内膜位 置画像 m 3との相対回転角度を演算する。 外膜位置画像 M 1〜M 6について も同様にして相対回転角度を演算することができる。
[0159] 制御部 9は、 演算された相対回転角度に基づく運動情報を表示部 8 1に表 示させる。 このように、 この変形例によれば、 上記実施形態よりも精度の高 い運動情報を取得することができる。
[0160] 〔変形例 5〕
上記実施形態では、 計測画像領域を指定する断面位置をユーザが指定する ようになっているが (図 5の断面位置指定カーソル C 1〜C 3参照) 、 この 断面位置を自動的に指定するように構成することも可能である。
[0161 ] たとえば、 術前術後観察や経過観察のように、 過去に同一の生体組織につ いて取得した超音波画像の画像データが存在する場合においては、 指定され た断面位置を記憶しておくことにより、 過去に指定された断面位置の情報を 読み出して、 今回の断面位置として自動的に指定することができる。
[0162] また、 心尖部レベル、 乳頭筋レベル、 心基部レベルなど、 典型的な断面位 置をあらかじめ設定しておくとともに、 たとえば Bモード画像の画像データ やボリュームデータに基づいて典型的な断面位置を決定することができる。
[0163] また、 Bモード画像の画像データ等に基づいて、 生体組織の大きさ (たと えば心臓の長軸方向の長さなど) を解析し、 その大きさを複数に分割したと きの各断面位置を、 計測画像領域を指定する断面位置として指定するように 構成することも可能である。
[0164] 〔その他〕
上記の実施形態においては、 生体組織の変位を求め、 この変位を微分 (時 間間隔で除算) して速度を求めるようになっているが、 まず、 速度を求め、 その速度を積分して変位を求めるようにしてもよい。
[0165] また、 上記の実施形態においては、 生体組織の (より大局的な) 運動の状 態を示す運動情報を求めて表示するようになっているが、 各計測画像領域に おける局所運動情報を表示するように構成してもよい。 その場合において、 運動情報を演算し表示させない場合には、 局所運動情報を演算して表示する ために必要な構成のみを備えた超音波診断装置を適用することが可能である (これは、 後述の医用画像処理装置及び医用画像処理プログラムにおいても 同様である。 ) 。
[0166] 〈第 2の実施の形態〉
この発明に係る医用画像処理装置について説明する。 この医用画像処理装 置は、 たとえば、 超音波診断装置に接続されたコンピュータや、 超音波画像 の画像データを保管する P ACS (P i c t u r e A r c h i v i n a n d Commu n i c a t i o n S y s t em) 等の" τ—タへ一スに 接続されたコンピュータを含んで構成される。 図 1 7は、 この発明に係る医 用画像処理装置の一例を表している。 なお、 同図において、 第 1の実施の形 態と同様の構成部分には同じ符号が付されている。
[0167] 図 1 7に示す医用画像処理装置 1 000は、 図 1に示した超音波診断装置
1と同様の画像処理部 5、 演算処理部 6、 記憶部 7、 ユーザインターフェイ ス 8及び制御部 9を備えている。 記憶部 7は、 この発明の 「記憶手段」 の一 例として作用する。 この医用画像処理装置 1 000は、 LAN (L o c a I A r e a N e t wo r k) 等のネッ卜ワーク Nを介して超音波診断装置 2000や医用画像データベース 3000に接続されている。 この実施形態 の制御部 9は、 ネッ卜ワーク Nを通じてデータ通信を行うネッ卜ワークァダ プタを備えている。 [0168] 医用画像処理装置 1 0 0 0の動作について説明する。 この医用画像処理装 置 1 0 0 0には、 超音波診断装置 2 0 0 0や医用画像データベース 3 0 0 0 から超音波画像の画像データが入力される。
[0169] 入力された画像データが Bモード画像の画像データである場合、 ポリユー ムデータ生成部 5 1が、 この画像データに基づくボリュームデータを生成す る。 M P R処理部 5 2は、 第 1の実施の形態と同様に、 このボリュームデー タに基づいて、 時系列に沿った一連の断層画像の画像データを生成する。 こ の一連の断層画像の画像データは、 記憶部 7に記憶される。
[0170] また、 入力された画像データがボリュームデータである場合、 M P R処理 部 5 2が、 このボリュームデータに基づいて、 時系列に沿った一連の断層画 像の画像データを生成する。 この一連の断層画像の画像データは、 記憶部 7 に記憶される。
[0171 ] 医用画像処理装置 1 0 0 0は、 記憶部 7に記憶された一連の断層画像の画 像データ (及びボリュームデータ) に基づいて、 第 1の実施の形態と同様の 処理を実行する (図 4〜図 1 4参照) 。 それにより、 生体組織の 3次元的な 運動の計測を短時間で行うことができる。 また、 生体組織の運動を計測する 領域を容易に指定することが可能になる。
[0172] この実施形態の変形例として、 画像処理部 5に計測画像領域指定部 5 3を 設けた構成を適用することができる (図 1 5参照。 医用画像処理プログラム 7 2に基づく処理) 。 それにより、 第 1の実施の形態の変形例 2や変形例 4 と同様の処理を実行することができる。
[0173] 〈第 3の実施の形態〉
この発明に係る医用画像処理プログラムについて説明する。 第 1、 第 2の 実施形態で説明した医用画像処理プログラム 7 1 、 7 2は、 この発明に係る 医用画像処理プログラムの一例である。 医用画像処理プログラムは、 第 1の 実施の形態やその変形例において説明した処理をコンピュータに実行させる ものである。 この医用画像処理プログラムは、 当該コンピュータに内蔵され たハードディスクドライブ等の記憶装置にあらかじめ記憶されていてもよい し、 LAN等のネットワーク上のサーバ等にあらかじめ記憶しておき、 当該 コンピュータがこれを読み出して実行するようにしてもよい。
この医用画像処理プログラムは、 コンピュータによって読み取リが可能な 状態で任意の記憶媒体に記憶させることが可能である。 この記憶媒体として は、 たとえば、 光ディスク、 光磁気ディスク (CD— ROMZD VD— RA MZD VD— ROMZMO等) 、 磁気記憶媒体 (ハードディスク Zフロッピ 一 (登録商標) ディスク ZZ I P等) 、 半導体メモリなどがある。

Claims

請求の範囲
[1 ] 超音波プローブと、
前記超音波プローブに超音波を送受信させる送受信手段と、
前記超音波の送受信の結果として得られた受信信号に基づき、 生体組織の
2以上の断面位置のそれぞれについて、 時系列に沿った一連の断層画像の画 像データを生成する画像生成手段と、
前記 2以上の断面位置のそれぞれについて、 前記生成された画像データに 基づき、 前記一連の断層画像のうちの 1つの断層画像を表示する表示手段と 前記 2以上の断面位置のそれぞれについて、 前記表示された前記 1つの断 層画像に計測画像領域を指定する指定手段と、
前記 2以上の断面位置のそれぞれについて、 前記一連の断層画像の画像デ ータに基づき、 前記指定された計測画像領域における前記生体組織の運動の 状態を示す局所運動情報を演算するとともに、 前記 2以上の断面位置のそれ ぞれについて前記演算された局所運動情報に基づいて、 前記生体組織の運動 の状態を示す運動情報を演算する演算手段と、
を備え、
前記表示手段は、 前記演算手段によリ演算された前記運動情報を表示する ことを特徴とする超音波診断装置。
[2] 前記超音波プローブは、 前記送受信手段により、 所定の方向に沿った複数 の位置のそれぞれにおいて、 当該所定の方向に直交する方向に沿って超音波 の送受信方向を走査するとともに、 前記所定の方向及び前記直交する方向に 沿った超音波の送受信を反復し、
前記画像生成手段は、
超音波の送受信方向が前記直交する方向に走査されるときに順次に得られ た受信信号に基づいて、 前記生体組織の前記送受信方向及び前記直交する方 向を含む断面における第 1の断層画像の画像データを生成する第 1の断層画 像生成手段と、
前記複数の位置のそれぞれについて前記生成された前記第 1の断層画像の 画像データに基づいて、 前記生体組織のポリユームデータを生成するポリュ ームデータ生成手段と、
前記生成されたボリュームデータに基づいて、 前記 2以上の断面位置のそ れぞれにおける第 2の断層画像の画像データを生成する第 2の断層画像生成 手段と、
を備えるとともに、
前記 2以上の断面位置のそれぞれについて、 前記超音波の送受信を前記反 復することにより得られる複数の前記第 2の断層画像の画像データを、 前記 時系列に沿った一連の断層画像の画像データとする、
ことを特徴とする請求項 1に記載の超音波診断装置。
[3] 前記演算手段は、 前記 2以上の断面位置のうちのいずれか 2つの断面位置 における前記局所運動情報の差異を示す差異情報を演算して前記運動情報を 求め <&、
ことを特徴とする請求項 1に記載の超音波診断装置。
[4] 前記 2つの断面位置の一方の断面位置における前記一連の断層画像の断面 と、 他方の断面位置における前記一連の断層画像の断面とは、 互いに平行で あり、
前記演算手段は、
前記 2つの断面位置のそれぞれについて、 前記一連の断層画像の断面に直 交する方向を軸とする前記計測画像領域における前記生体組織の回転角度を 前記局所運動情報として演算するとともに、
前記 2つの断面位置のそれぞれについて前記演算された前記回転角度の差 を前記差異情報として演算し、 この演算された回転角度の差を前記生体組織 の捻れ運動を示す前記運動情報とする、
ことを特徴とする請求項 3に記載の超音波診断装置。
[5] 前記 2つの断面位置の一方の断面位置における前記一連の断層画像の断面 と、 他方の断面位置における前記一連の断層画像の断面とは、 互いに平行で あり、
前記演算手段は、
前記 2つの断面位置のそれぞれについて、 前記一連の断層画像の断面に直 交する方向を軸とする前記計測画像領域における前記生体組織の回転角度を 前記局所運動情報として演算するとともに、
前記 2つの断面位置のそれぞれについて前記演算された前記回転角度の差 を前記差異情報として演算し、 この演算された回転角度の差を時間で微分す ることにより、 前記生体組織の捻れ運動の速度を示す前記運動情報を演算す る、
ことを特徴とする請求項 3に記載の超音波診断装置。
[6] 前記 2つの断面位置の一方の断面位置における前記一連の断層画像の断面 と、 他方の断面位置における前記一連の断層画像の断面とは、 互いに平行で あり、
前記演算手段は、
前記 2つの断面位置のそれぞれについて、 前記一連の断層画像の断面に直 交する方向を軸とする前記計測画像領域における前記生体組織の回転角度を 前記局所運動情報として演算するとともに、
前記 2つの断面位置のそれぞれについて前記演算された前記回転角度の差 を前記差異情報として演算し、 この演算された回転角度の差を前記 2つの断 面位置の間の距離で除算して、 前記生体組織の相対回転勾配を示す前記運動 情報を求める、
ことを特徴とする請求項 3に記載の超音波診断装置。
[7] 前記演算手段は、
前記 2以上の断面位置のそれぞれについて、 前記ポリユームデータに基づ き、 前記指定手段によリ指定された計測画像領域における前記生体組織の 3 次元的な運動の状態を示す前記局所運動情報を演算するとともに、
前記 2以上の断面位置のそれぞれについて前記演算された前記 3次元的な 運動の状態を示す局所運動情報に基づいて、 前記運動情報を演算する、 ことを特徴とする請求項 2に記載の超音波診断装置。
[8] 前記演算手段は、 前記 2以上の断面位置のうちのいずれか 2つの断面位置 における前記 3次元的な運動の状態を表す局所運動情報の差異を示す差異情 報を演算して前記運動情報を求める、
ことを特徴とする請求項 7に記載の超音波診断装置。
[9] 前記 2つの断面位置の一方の断面位置における前記一連の断層画像の断面 と、 他方の断面位置における前記一連の断層画像の断面とは、 互いに平行で あり、
前記演算手段は、
前記 2つの断面位置のそれぞれについて、 前記演算された前記 3次元的な 運動の状態を示す局所運動情報に基づき、 前記計測画像領域における前記生 体組織の前記一連の断層画像の断面に直交する方向への変位を演算するとと もに、 前記 2つの断面位置のそれぞれについて前記演算された前記直交する 方向への変位の差を前記差異情報として演算し、 この演算された変位の差を 前記生体組織の前記直交する方向における伸縮運動を示す前記運動情報とす る、
ことを特徴とする請求項 8に記載の超音波診断装置。
[10] 前記 2つの断面位置の一方の断面位置における前記一連の断層画像の断面 と、 他方の断面位置における前記一連の断層画像の断面とは、 互いに平行で あり、
前記演算手段は、
前記 2つの断面位置のそれぞれについて、 前記演算された前記 3次元的な 運動の状態を示す局所運動情報に基づき、 前記計測画像領域における前記生 体組織の前記一連の断層画像の断面に直交する方向への変位を演算するとと もに、 前記 2つの断面位置のそれぞれについて前記演算された前記直交する 方向への変位の差を前記差異情報として演算し、 この演算された変位の差を 時間で微分することにより、 前記生体組織の前記直交する方向における伸縮 運動の速度を示す前記運動情報を演算する、
ことを特徴とする請求項 8に記載の超音波診断装置。
[11] 前記 2つの断面位置の一方の断面位置における前記一連の断層画像の断面 と、 他方の断面位置における前記一連の断層画像の断面とは、 互いに平行で あり、
前記演算手段は、
前記 2つの断面位置のそれぞれについて、 前記演算された前記 3次元的な 運動の状態を示す局所運動情報に基づき、 前記計測画像領域における前記生 体組織の前記一連の断層画像の断面に直交する方向への変位を演算するとと もに、 前記 2つの断面位置のそれぞれについて前記演算された前記直交する 方向への変位の差を前記差異情報として演算し、 この演算された変位の差を 前記 2つの断面位置の間の元の距離で除算し、 その商を前記生体組織の前記 直交する方向におけるストレインを示す前記運動情報とする、
ことを特徴とする請求項 8に記載の超音波診断装置。
[12] 前記 2つの断面位置の一方の断面位置における前記一連の断層画像の断面 と、 他方の断面位置における前記一連の断層画像の断面とは、 互いに平行で あり、
前記演算手段は、
前記 2つの断面位置のそれぞれについて、 前記演算された前記 3次元的な 運動の状態を示す局所運動情報に基づき、 前記計測画像領域における前記生 体組織の前記一連の断層画像の断面に直交する方向への変位を演算するとと もに、 前記 2つの断面位置のそれぞれについて前記演算された前記直交する 方向への変位の差を前記差異情報として演算し、 この演算された変位の差を 前記 2つの断面位置の間の元の距離で除算し、 その商を時間で微分すること により、 前記生体組織の前記直交する方向におけるストレインレートを示す 前記運動情報を演算する、
ことを特徴とする請求項 8に記載の超音波診断装置。
[13] 前記指定手段は、 前記表示手段に表示された前記 1つの断層画像に対して 前記指定された計測画像領域に基づいて、 前記 2以上の断面位置とは異なる 断面位置に新たな計測画像領域を指定する自動指定手段を含み、
前記演算手段は、 前記指定された新たな計測画像領域における前記生体組 織の運動の状態を示す局所運動情報を演算するとともに、 前記 2以上の断面 位置及び前記異なる断面位置のそれぞれについて前記演算された前記局所運 動情報に基づいて、 前記運動情報を演算する、
ことを特徴とする請求項 1に記載の超音波診断装置。
[14] 前記生体組織は心臓であリ、
前記指定手段によリ指定される計測画像領域は、 前記表示手段に表示され た前記 1つの断層画像において前記心臓の心臓壁に相当する画像領域である ことを特徴とする請求項 1〜請求項 1 3のいずれか一項に記載の超音波診 断装置。
[15] 超音波プローブと、
前記超音波プローブに超音波を送受信させる送受信手段と、
前記超音波の送受信の結果として得られた受信信号に基づき、 生体組織の 1以上の断面位置のそれぞれについて、 時系列に沿った一連の断層画像の画 像データを生成する画像生成手段と、
前記 1以上の断面位置のそれぞれについて、 前記生成された画像データに 基づき、 前記一連の断層画像のうちの 1つの断層画像を表示する表示手段と 前記 1以上の断面位置のそれぞれについて、 前記表示された前記 1つの断 層画像に計測画像領域を指定する指定手段と、
前記 1以上の断面位置のそれぞれについて、 前記一連の断層画像の画像デ ータに基づき、 前記指定された計測画像領域における前記生体組織の運動の 状態を示す局所運動情報を演算する演算手段と、
を備え、
前記表示手段は、 前記演算手段によリ演算された前記局所運動情報を表示 する、
ことを特徴とする超音波診断装置。
[16] 前記生体組織は心臓であリ、
前記指定される前記計測画像領域は、 前記表示された前記 1つの断層画像 における心臓壁であり、
前記演算手段は、 前記局所運動情報として、 前記心臓壁の厚さの変化、 前 記心臓壁の厚さの変化の速度、 前記心臓壁の厚さ方向におけるストレイン、 前記心臓壁の厚さ方向におけるストレインレー卜、 前記一連の断層画像の断 面に直交する方向を軸とする回転方向における前記心臓壁の内膜又は外膜の 回転角度、 前記回転方向における前記心臓壁のストレイン、 前記回転方向に おける前記心臓壁のストレインレート、 及び、 前記回転方向における前記心 臓壁の内膜と外膜との相対回転角度のうちの少なくとも 1つを演算する、 ことを特徴とする請求項 1 5に記載の超音波診断装置。
[17] 前記演算手段は、 前記表示された前記 1つの断層画像に前記指定された計 測画像領域に複数の計測点を指定し、 前記一連の断層画像のそれぞれにおけ る前記複数の計測点のそれぞれの位置を求め、 この求められた位置に基づい て前記複数の計測点のそれぞれの時系列に沿った変位又は当該変位の速度を 演算し、 前記複数の計測点のそれぞれについて前記演算された前記変位又は 速度に基づいて前記計測画像領域の変位を演算する、
ことを特徴とする請求項 1又は請求項 1 5に記載の超音波診断装置。
[18] 前記超音波プローブは、 2次元的に配列された複数の超音波振動子を備え 前記送受信手段は、 前記複数の超音波振動子を個別に又は 2以上のグルー プ毎に制御して、 所定の方向及び当該所定の方向に直交する方向に超音波を 走査させる、
ことを特徴とする請求項 1又は請求項 1 5に記載の超音波診断装置。
[19] 超音波診断装置により得られた生体組織の医用画像の画像データを処理す る医用画像処理装置であって、 生体組織の 2以上の断面位置のそれぞれにおける、 時系列に沿つた一連の 断層画像の画像データを記憶する記憶手段と、
前記 2以上の断面位置のそれぞれについて、 前記記憶された画像データに 基づき、 前記一連の断層画像のうちの 1つの断層画像を表示する表示手段と 前記 2以上の断面位置のそれぞれについて、 前記表示された前記 1つの断 層画像に計測画像領域を指定する指定手段と、
前記 2以上の断面位置のそれぞれについて、 前記一連の断層画像の画像デ ータに基づき、 前記指定された計測画像領域における前記生体組織の運動の 状態を示す局所運動情報を演算するとともに、 前記 2以上の断面位置のそれ ぞれについて前記演算された局所運動情報に基づいて、 前記生体組織の運動 の状態を示す運動情報を演算する演算手段と、
を備え、
前記表示手段は、 前記演算手段によリ演算された前記運動情報を表示する ことを特徴とする医用画像処理装置。
超音波診断装置によリ得られた生体組織の医用画像の画像データを処理す る医用画像処理装置であって、
生体組織の 1以上の断面位置のそれぞれにおける、 時系列に沿った一連の 断層画像の画像データを記憶する記憶手段と、
前記 1以上の断面位置のそれぞれについて、 前記記憶された画像データに 基づき、 前記一連の断層画像のうちの 1つの断層画像を表示する表示手段と 前記 1以上の断面位置のそれぞれについて、 前記表示された前記 1つの断 層画像に計測画像領域を指定する指定手段と、
前記 1以上の断面位置のそれぞれについて、 前記一連の断層画像の画像デ ータに基づき、 前記指定された計測画像領域における前記生体組織の運動の 状態を示す局所運動情報を演算する演算手段と、 を備え、
前記表示手段は、 前記演算手段によリ演算された前記局所運動情報を表示 する、
ことを特徴とする医用画像処理装置。
[21 ] 生体組織の 2以上の断面位置のそれぞれにおける、 時系列に沿った一連の 断層画像の画像データを記憶する記憶手段と、 表示手段とを有するコンビュ ータを、
前記 2以上の断面位置のそれぞれについて、 前記記憶された画像データに 基づき、 前記一連の断層画像のうちの 1つの断層画像を前記表示手段に表示 させるように機能させ、
前記 2以上の断面位置のそれぞれについて、 前記表示された前記 1つの断 層画像に計測領域が指定されたことに対応し、 前記一連の断層画像の画像デ ータに基づき、 前記指定された計測画像領域における前記生体組織の運動の 状態を示す局所運動情報を演算するように機能させ、
前記 2以上の断面位置のそれぞれについて前記演算された局所運動情報に 基づいて、 前記生体組織の運動の状態を示す運動情報を演算するように機能 させ、
前記演算された前記運動情報を前記表示手段に表示するように機能させる ことを特徴とする医用画像処理プログラム。
[22] 生体組織の 1以上の断面位置のそれぞれにおける、 時系列に沿った一連の 断層画像の画像データを記憶する記憶手段と、 表示手段とを有するコンビュ ータを、
前記 1以上の断面位置のそれぞれについて、 前記記憶された画像データに 基づき、 前記一連の断層画像のうちの 1つの断層画像を前記表示手段に表示 させるように機能させ、
前記 1以上の断面位置のそれぞれについて、 前記表示された前記 1つの断 層画像に計測画像領域が指定されたことに対応し、 前記一連の断層画像の画 像データに基づき、 前記指定された計測画像領域における前記生体組織の運 動の状態を示す局所運動情報を演算するように機能させ、
前記演算された前記局所運動情報を前記表示手段に表示するように機能さ せる、
ことを特徴とする医用画像処理プログラム。
PCT/JP2007/000587 2006-05-30 2007-05-30 超音波診断装置、医用画像処理装置及び医用画像処理プログラム WO2007138751A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/302,506 US8343052B2 (en) 2006-05-30 2007-05-30 Ultrasonograph, medical image processing device, and medical image processing program
CN200780024890.8A CN101484074B (zh) 2006-05-30 2007-05-30 超声波诊断装置、医用图像处理装置以及医用图像处理程序
EP07737243A EP2022404B1 (en) 2006-05-30 2007-05-30 Ultrasonograph, medical image processing device, and medical image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-149414 2006-05-30
JP2006149414A JP4745133B2 (ja) 2006-05-30 2006-05-30 超音波診断装置、医用画像処理装置及び医用画像処理プログラム

Publications (1)

Publication Number Publication Date
WO2007138751A1 true WO2007138751A1 (ja) 2007-12-06

Family

ID=38778278

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/000587 WO2007138751A1 (ja) 2006-05-30 2007-05-30 超音波診断装置、医用画像処理装置及び医用画像処理プログラム

Country Status (5)

Country Link
US (1) US8343052B2 (ja)
EP (1) EP2022404B1 (ja)
JP (1) JP4745133B2 (ja)
CN (1) CN101484074B (ja)
WO (1) WO2007138751A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100056919A1 (en) * 2008-08-29 2010-03-04 Yasuhiko Abe Ultrasonic diagnosis apparatus, image processing apparatus, and image processing method
CN102028498A (zh) * 2009-10-08 2011-04-27 株式会社东芝 超声波诊断装置及超声波图像处理装置
US8265358B2 (en) 2007-06-06 2012-09-11 Kabushiki Kaisha Toshiba Ultrasonic image processing apparatus and method for processing ultrasonic image
US8565504B2 (en) 2007-04-26 2013-10-22 Kabushiki Kaisha Toshiba Ultrasonic image processing apparatus and ultrasonic image processing method

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5468909B2 (ja) * 2008-01-31 2014-04-09 株式会社日立メディコ 医用画像診断装置
US8326007B2 (en) * 2008-05-12 2012-12-04 General Electric Company Methods and apparatus for combined 4D presentation of quantitative regional measurements and morphology
JP5259267B2 (ja) 2008-06-19 2013-08-07 株式会社東芝 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP5454844B2 (ja) * 2008-08-13 2014-03-26 株式会社東芝 超音波診断装置、超音波画像表示装置及び超音波画像表示プログラム
US8208703B2 (en) * 2008-11-05 2012-06-26 Toshiba Medical Systems Corporation Medical image analysis apparatus and image analysis control program
US8538103B2 (en) 2009-02-10 2013-09-17 Hitachi Medical Corporation Medical image processing device, medical image processing method, medical image diagnostic apparatus, operation method of medical image diagnostic apparatus, and medical image display method
WO2010092919A1 (ja) * 2009-02-13 2010-08-19 株式会社 日立メディコ 医用画像表示方法、医用画像診断装置、及び医用画像表示装置
US20100286526A1 (en) * 2009-05-11 2010-11-11 Yoko Okamura Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus and ultrasonic image processing method
JP5574742B2 (ja) * 2010-02-18 2014-08-20 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波診断装置
WO2011114830A1 (ja) * 2010-03-19 2011-09-22 株式会社 日立メディコ 超音波診断装置及び超音波画像表示方法
US20130023773A1 (en) * 2010-04-07 2013-01-24 Stc. Unm Apparatus and techniques of non-invasive analysis
US9241685B2 (en) * 2010-08-06 2016-01-26 Hitachi Medical Corporation Ultrasonic imaging apparatus and three-dimensional image display method using ultrasonic image
US20130281854A1 (en) * 2012-04-24 2013-10-24 General Electric Company Diagnostic system and method for obtaining data relating to a cardiac medical condition
JP5658296B2 (ja) * 2013-03-11 2015-01-21 株式会社東芝 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP6253053B2 (ja) * 2013-11-29 2017-12-27 富士通株式会社 データ探索装置、データ探索装置の制御方法およびデータ探索装置の制御プログラム
KR101590876B1 (ko) 2014-02-21 2016-02-02 삼성전자주식회사 움직임 벡터 평활화 방법 및 장치
EP3212089B1 (en) * 2014-10-27 2020-09-23 Koninklijke Philips N.V. Method of visualizing a sequence of ultrasound images, computer program product and ultrasound system
EP4011298A1 (en) 2014-11-18 2022-06-15 C. R. Bard, Inc. Ultrasound imaging system having automatic image presentation
EP3220828B1 (en) 2014-11-18 2021-12-22 C.R. Bard, Inc. Ultrasound imaging system having automatic image presentation
US10839509B2 (en) 2015-07-10 2020-11-17 3Scan Inc. Spatial multiplexing of histological stains
CN106308848B (zh) * 2015-07-10 2024-01-23 通用电气公司 一种用于测量超声影像的方法及装置
JP7019287B2 (ja) * 2016-03-03 2022-02-15 キヤノンメディカルシステムズ株式会社 超音波診断装置及び画像処理プログラム
US11304681B2 (en) * 2016-03-03 2022-04-19 Canon Medical Systems Corporation Ultrasonic diagnostic apparatus and image processing method
JP6711715B2 (ja) * 2016-07-19 2020-06-17 キヤノン株式会社 画像処理装置および画像処理方法
KR102655299B1 (ko) * 2016-11-15 2024-04-08 삼성메디슨 주식회사 초음파 영상장치 및 그 제어방법
KR102593439B1 (ko) * 2018-01-10 2023-10-24 삼성메디슨 주식회사 초음파 진단 장치의 제어 방법 및 초음파 진단 장치
CN112005277A (zh) * 2018-04-27 2020-11-27 惠普发展公司,有限责任合伙企业 三维体积成像
JP7099901B2 (ja) * 2018-08-06 2022-07-12 富士フイルムヘルスケア株式会社 超音波画像処理装置およびプログラム
CN112654302B (zh) * 2018-10-23 2023-11-03 深圳迈瑞生物医疗电子股份有限公司 一种心脏运动定量分析方法和超声系统
KR102660563B1 (ko) * 2018-11-15 2024-04-26 삼성메디슨 주식회사 태아 심장의 이상 여부를 판단하는 초음파 진단 장치 및 초음파 진단 장치의 동작 방법
JP7299100B2 (ja) * 2019-08-08 2023-06-27 富士フイルムヘルスケア株式会社 超音波診断装置及び超音波画像処理方法
CN113823385B (zh) * 2021-09-03 2024-03-19 青岛海信医疗设备股份有限公司 一种修改dicom图像的方法、装置、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04270983A (ja) * 1991-02-27 1992-09-28 Hitachi Medical Corp Spect断層像撮影装置
JP2002140690A (ja) * 2000-10-31 2002-05-17 Toshiba Corp 医用画像処理装置及びその方法
JP2004313291A (ja) 2003-04-14 2004-11-11 Toshiba Corp 超音波診断装置、医用画像解析装置及び医用画像解析方法
JP2006006933A (ja) * 2004-06-22 2006-01-12 General Electric Co <Ge> 医用超音波ナビゲーション・ユーザ・インタフェースのための方法及び装置
JP2006061581A (ja) * 2004-08-30 2006-03-09 Toshiba Corp 医用運動解析装置、医用運動解析方法および医用運動解析プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3707882B2 (ja) * 1995-11-21 2005-10-19 株式会社東芝 超音波診断装置
JP3382831B2 (ja) * 1997-11-11 2003-03-04 ジーイー横河メディカルシステム株式会社 超音波振動子アレイの製造方法、超音波振動子アレイ、超音波プローブおよび超音波撮像装置
JP4116122B2 (ja) * 1997-11-28 2008-07-09 株式会社東芝 超音波診断装置及び超音波画像処理装置
US6193660B1 (en) * 1999-03-31 2001-02-27 Acuson Corporation Medical diagnostic ultrasound system and method for region of interest determination
JP2003319939A (ja) * 2002-04-26 2003-11-11 Ge Medical Systems Global Technology Co Llc 超音波撮影装置
US7356172B2 (en) * 2002-09-26 2008-04-08 Siemens Medical Solutions Usa, Inc. Methods and systems for motion tracking
JP2004141514A (ja) * 2002-10-28 2004-05-20 Toshiba Corp 画像処理装置及び超音波診断装置
JP4270983B2 (ja) 2003-09-03 2009-06-03 信越ポリマー株式会社 金属線配向異方導電性コネクタ
US20050096543A1 (en) * 2003-11-03 2005-05-05 Jackson John I. Motion tracking for medical imaging
EP1744181B8 (en) * 2005-07-15 2014-04-09 Kabushiki Kaisha Toshiba Ultrasonic diagnostic apparatus and ultrasonic image processing method
JP5414157B2 (ja) * 2007-06-06 2014-02-12 株式会社東芝 超音波診断装置、超音波画像処理装置、及び超音波画像処理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04270983A (ja) * 1991-02-27 1992-09-28 Hitachi Medical Corp Spect断層像撮影装置
JP2002140690A (ja) * 2000-10-31 2002-05-17 Toshiba Corp 医用画像処理装置及びその方法
JP2004313291A (ja) 2003-04-14 2004-11-11 Toshiba Corp 超音波診断装置、医用画像解析装置及び医用画像解析方法
JP2006006933A (ja) * 2004-06-22 2006-01-12 General Electric Co <Ge> 医用超音波ナビゲーション・ユーザ・インタフェースのための方法及び装置
JP2006061581A (ja) * 2004-08-30 2006-03-09 Toshiba Corp 医用運動解析装置、医用運動解析方法および医用運動解析プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8565504B2 (en) 2007-04-26 2013-10-22 Kabushiki Kaisha Toshiba Ultrasonic image processing apparatus and ultrasonic image processing method
US8265358B2 (en) 2007-06-06 2012-09-11 Kabushiki Kaisha Toshiba Ultrasonic image processing apparatus and method for processing ultrasonic image
US20100056919A1 (en) * 2008-08-29 2010-03-04 Yasuhiko Abe Ultrasonic diagnosis apparatus, image processing apparatus, and image processing method
US9138200B2 (en) * 2008-08-29 2015-09-22 Kabushiki Kaisha Toshiba Ultrasonic diagnosis method and apparatus image processing for calculating rotational angles in a space by three-dimensional position tracking
CN102028498A (zh) * 2009-10-08 2011-04-27 株式会社东芝 超声波诊断装置及超声波图像处理装置

Also Published As

Publication number Publication date
US8343052B2 (en) 2013-01-01
EP2022404A1 (en) 2009-02-11
EP2022404B1 (en) 2011-09-07
EP2022404A4 (en) 2010-08-18
CN101484074B (zh) 2010-12-22
JP2007319190A (ja) 2007-12-13
JP4745133B2 (ja) 2011-08-10
US20090198133A1 (en) 2009-08-06
CN101484074A (zh) 2009-07-15

Similar Documents

Publication Publication Date Title
WO2007138751A1 (ja) 超音波診断装置、医用画像処理装置及び医用画像処理プログラム
JP4202697B2 (ja) 超音波診断装置、超音波画像表示装置および超音波画像表示方法
US10792009B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image display apparatus, and medical image diagnostic apparatus
US20190046153A1 (en) Ultrasonic diagnostic apparatus
JP5624258B2 (ja) 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP6160487B2 (ja) 超音波診断装置およびその制御方法
US8454514B2 (en) Ultrasound diagnostic apparatus and a medical image-processing apparatus
JP5100343B2 (ja) 超音波診断装置、及び超音波診断装置の制御プログラム
US8197410B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus and ultrasonic image processing method
JP5448328B2 (ja) 超音波診断装置及び画像データ生成装置
JP5231768B2 (ja) 超音波診断装置および超音波診断装置のデータ処理プログラム
CN109310399B (zh) 医学超声图像处理设备
US9592028B2 (en) Ultrasonic diagnostic apparatus
US9877698B2 (en) Ultrasonic diagnosis apparatus and ultrasonic image processing apparatus
JP2012250083A (ja) 超音波診断装置および超音波診断装置のデータ処理プログラム
EP2253275A1 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus and ultrasonic image processing method
JPWO2010116965A1 (ja) 医用画像診断装置、関心領域設定方法、医用画像処理装置、及び関心領域設定プログラム
JP6835587B2 (ja) 医用4dイメージングにおける動き適応型可視化
US11039777B2 (en) Ultrasonic diagnostic apparatus and control method
JP4764209B2 (ja) 超音波信号解析装置、超音波信号解析方法、超音波解析プログラム、超音波診断装置、及び超音波診断装置の制御方法
JP2004313291A (ja) 超音波診断装置、医用画像解析装置及び医用画像解析方法
JP4870449B2 (ja) 超音波診断装置及び超音波画像処理方法
JP2008073423A (ja) 超音波診断装置、診断パラメータ計測装置及び診断パラメータ計測方法
JP4598652B2 (ja) 超音波診断装置
JP2008289548A (ja) 超音波診断装置及び診断パラメータ計測装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780024890.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07737243

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2007737243

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12302506

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE