WO2014136899A1 - 医用画像診断装置、医用画像処理装置及び制御プログラム - Google Patents

医用画像診断装置、医用画像処理装置及び制御プログラム Download PDF

Info

Publication number
WO2014136899A1
WO2014136899A1 PCT/JP2014/055825 JP2014055825W WO2014136899A1 WO 2014136899 A1 WO2014136899 A1 WO 2014136899A1 JP 2014055825 W JP2014055825 W JP 2014055825W WO 2014136899 A1 WO2014136899 A1 WO 2014136899A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
medical image
unit
ultrasonic
identification information
Prior art date
Application number
PCT/JP2014/055825
Other languages
English (en)
French (fr)
Inventor
啓之 大内
阿部 康彦
Original Assignee
株式会社東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社東芝
Priority to CN201480011999.8A priority Critical patent/CN105025806B/zh
Publication of WO2014136899A1 publication Critical patent/WO2014136899A1/ja
Priority to US14/824,624 priority patent/US9855024B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5284Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving retrospective matching to a physiological signal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5292Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves using additional data, e.g. patient information, image labeling, acquisition parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • Embodiments described herein relate generally to a medical image diagnostic apparatus, a medical image processing apparatus, and a control program.
  • This stress echo method is a diagnostic method in which a stress load such as exercise load or drug load is applied to a subject and the motor function of the myocardium is evaluated using ultrasonic image data collected before and after the stress load.
  • a technique for obtaining motion information such as tissue displacement and strain in the heart in order to objectively and quantitatively evaluate cardiac function. This is to estimate the motion of the heart by collecting ultrasonic image data of the heart in time series, performing pattern matching of the local region on the ultrasonic image, and tracking (tracking) the local region. is there. Furthermore, heart motion information is collected before and after stress load, and these are compared to evaluate the heart's motor function.
  • the problem to be solved by the present invention is to provide a medical image diagnostic apparatus, a medical image processing apparatus, and a control program capable of calculating a comparison result more accurately.
  • the medical image diagnostic apparatus includes an identification information changing unit and a comparison result calculating unit.
  • the identification information changing unit is given to a plurality of points corresponding to the tissue contour in the first medical image data included in the first medical image data group each including a plurality of medical image data having different time phases. Change identification information.
  • the comparison result calculation unit includes the first medical image data group including a plurality of pieces of medical image data having different time phases and identification information after the change of the plurality of points in the first medical image data.
  • the motion information representing the motion of the tissue in each medical image data included in the data group and the second medical image data group is compared between corresponding time phases, and a comparison result is calculated.
  • FIG. 1 is a block diagram illustrating a configuration example of the ultrasonic diagnostic apparatus according to the first embodiment.
  • FIG. 2 is a diagram illustrating an example of an initial contour set by the operator.
  • FIG. 3A is a diagram illustrating an example of a polar map of a volume data group before stress load.
  • FIG. 3B is a diagram illustrating an example of a polar map of a volume data group after stress loading.
  • FIG. 4 is a diagram for explaining processing of the alignment unit 181 according to the first embodiment.
  • FIG. 5 is a diagram for explaining processing of the alignment unit 181 according to the first embodiment.
  • FIG. 6 is a flowchart for explaining processing of the ultrasonic diagnostic apparatus according to the first embodiment.
  • FIG. 1 is a block diagram illustrating a configuration example of the ultrasonic diagnostic apparatus according to the first embodiment.
  • FIG. 2 is a diagram illustrating an example of an initial contour set by the operator.
  • FIG. 3A is a diagram illustrating an example of a polar
  • FIG. 7 is a block diagram illustrating a configuration example of an ultrasonic diagnostic apparatus according to the second embodiment.
  • FIG. 8 is a diagram for explaining processing of the synchronization unit 184 according to the second embodiment.
  • FIG. 9 is a diagram for explaining processing of the synchronization unit 184 according to the second embodiment.
  • FIG. 10 is a diagram for explaining processing of the synchronization unit 184 according to the second embodiment.
  • FIG. 11 is a diagram for explaining processing of the synchronization unit 184 according to the second embodiment.
  • FIG. 1 is a block diagram illustrating a configuration example of the ultrasonic diagnostic apparatus according to the first embodiment.
  • the ultrasound diagnostic apparatus 1 according to the first embodiment includes an ultrasound probe 11, an input device 12, a monitor 13, an electrocardiograph 14, and a device body 100.
  • the ultrasonic probe 11 includes a plurality of piezoelectric vibrators, and the plurality of piezoelectric vibrators generate ultrasonic waves based on a drive signal supplied from a transmission / reception unit 110 included in the apparatus main body 100 described later.
  • the ultrasonic probe 11 receives a reflected wave from the subject P and converts it into an electrical signal.
  • the ultrasonic probe 11 includes a matching layer provided on the piezoelectric vibrator, a backing material that prevents propagation of ultrasonic waves from the piezoelectric vibrator to the rear, and the like.
  • the ultrasonic probe 11 is detachably connected to the apparatus main body 100.
  • the transmitted ultrasonic waves are transmitted from the ultrasonic probe 11 to the subject P
  • the transmitted ultrasonic waves are reflected one after another at the discontinuous surface of the acoustic impedance in the body tissue of the subject P
  • the ultrasonic probe is used as a reflected wave signal.
  • 11 is received by a plurality of piezoelectric vibrators.
  • the amplitude of the received reflected wave signal depends on the difference in acoustic impedance at the discontinuous surface where the ultrasonic wave is reflected.
  • the reflected wave signal when the transmitted ultrasonic pulse is reflected by the moving blood flow or the surface of the heart wall depends on the velocity component of the moving object in the ultrasonic transmission direction due to the Doppler effect. And undergoes a frequency shift.
  • a 1D array probe in which a plurality of piezoelectric vibrators are arranged in a row is connected to the apparatus main body 100 as an ultrasonic probe 11 for two-dimensional scanning of the subject P.
  • the 1D array probe as the ultrasonic probe 11 is a sector probe that performs sector scanning, a convex probe that performs offset sector scanning, a linear probe that performs linear scanning, or the like.
  • a mechanical 4D probe or a 2D array probe may be connected to the apparatus main body 100 as the ultrasonic probe 11 for three-dimensional scanning of the subject P.
  • the mechanical 4D probe is capable of two-dimensional scanning using a plurality of piezoelectric vibrators arranged in a line like a 1D array probe, and swings the plurality of piezoelectric vibrators at a predetermined angle (swing angle). By doing so, three-dimensional scanning is possible.
  • the 2D array probe can be three-dimensionally scanned by a plurality of piezoelectric vibrators arranged in a matrix and can be two-dimensionally scanned by focusing and transmitting ultrasonic waves.
  • the input device 12 includes a mouse, a keyboard, a button, a panel switch, a touch command screen, a foot switch, a trackball, a joystick, and the like, receives various setting requests from an operator of the ultrasonic diagnostic apparatus, The various setting requests received are transferred.
  • the monitor 13 displays a GUI (Graphical User Interface) for an operator of the ultrasonic diagnostic apparatus to input various setting requests using the input device 12, and displays ultrasonic image data generated in the apparatus main body 100. Or display.
  • GUI Graphic User Interface
  • the electrocardiograph 14 acquires an electrocardiogram (ECG) of the subject P as a biological signal of the subject P to be ultrasonically scanned.
  • the electrocardiograph 14 transmits the acquired electrocardiogram waveform to the apparatus main body 100.
  • the apparatus main body 100 is an apparatus that generates ultrasonic image data based on a reflected wave signal received by the ultrasonic probe 11.
  • the apparatus main body 100 shown in FIG. 1 is an apparatus that can generate two-dimensional ultrasonic image data based on two-dimensional reflected wave data received by the ultrasonic probe 11.
  • the apparatus main body 100 shown in FIG. 1 is an apparatus that can generate three-dimensional ultrasonic image data based on three-dimensional reflected wave data received by the ultrasonic probe 11.
  • the three-dimensional ultrasound image data may be referred to as “volume data”.
  • the apparatus main body 100 includes a transmission / reception unit 110, a B-mode processing unit 120, a Doppler processing unit 130, an image generation unit 140, an image memory 150, an internal storage unit 160, and an image processing unit. 170 and a control unit 180.
  • the transmission / reception unit 110 includes a pulse generator, a transmission delay unit, a pulser, and the like, and supplies a drive signal to the ultrasonic probe 11.
  • the pulse generator repeatedly generates rate pulses for forming transmission ultrasonic waves at a predetermined rate frequency.
  • the transmission delay unit generates a delay time for each piezoelectric vibrator necessary for focusing the ultrasonic wave generated from the ultrasonic probe 11 into a beam and determining transmission directivity. Give for each rate pulse.
  • the pulser applies a drive signal (drive pulse) to the ultrasonic probe 11 at a timing based on the rate pulse. That is, the transmission delay unit arbitrarily adjusts the transmission direction of the ultrasonic wave transmitted from the piezoelectric vibrator surface by changing the delay time given to each rate pulse.
  • the transmission / reception unit 110 has a function capable of instantaneously changing a transmission frequency, a transmission drive voltage, and the like in order to execute a predetermined scan sequence based on an instruction from the control unit 180 described later.
  • the change of the transmission drive voltage is realized by a linear amplifier type transmission circuit capable of instantaneously switching the value or a mechanism for electrically switching a plurality of power supply units.
  • the transmission / reception unit 110 includes a preamplifier, an A / D (Analog / Digital) converter, a reception delay unit, an adder, and the like.
  • the transmission / reception unit 110 performs various processing on the reflected wave signal received by the ultrasonic probe 11 and reflects it. Generate wave data.
  • the preamplifier amplifies the reflected wave signal for each channel.
  • the A / D converter A / D converts the amplified reflected wave signal.
  • the reception delay unit gives a delay time necessary for determining the reception directivity.
  • the adder performs an addition process on the reflected wave signal processed by the reception delay unit to generate reflected wave data. By the addition processing of the adder, the reflection component from the direction corresponding to the reception directivity of the reflected wave signal is emphasized, and a comprehensive beam for ultrasonic transmission / reception is formed by the reception directivity and the transmission directivity.
  • the transmission / reception unit 110 transmits a two-dimensional ultrasonic beam from the ultrasonic probe 11 when the subject P is two-dimensionally scanned. Then, the transmission / reception unit 110 generates two-dimensional reflected wave data from the two-dimensional reflected wave signal received by the ultrasonic probe 11. Further, the transmitter / receiver 110 transmits a three-dimensional ultrasonic beam from the ultrasonic probe 11 when the subject P is three-dimensionally scanned. Then, the transmission / reception unit 110 generates three-dimensional reflected wave data from the three-dimensional reflected wave signal received by the ultrasonic probe 11.
  • the form of the output signal from the transmission / reception unit 110 is selected from various forms such as a signal including phase information called an RF (Radio Frequency) signal or amplitude information after the envelope detection processing. Is possible.
  • RF Radio Frequency
  • the B-mode processing unit 120 receives the reflected wave data from the transmission / reception unit 110, performs logarithmic amplification, envelope detection processing, and the like, and generates data (B-mode data) in which the signal intensity is expressed by brightness. .
  • the Doppler processing unit 130 performs frequency analysis on velocity information from the reflected wave data received from the transmission / reception unit 110, extracts blood flow, tissue, and contrast agent echo components due to the Doppler effect, and obtains moving body information such as velocity, dispersion, and power. Data extracted for multiple points (Doppler data) is generated.
  • the B-mode processing unit 120 and the Doppler processing unit 130 can process both two-dimensional reflected wave data and three-dimensional reflected wave data. That is, the B-mode processing unit 120 generates two-dimensional B-mode data from the two-dimensional reflected wave data, and generates three-dimensional B-mode data from the three-dimensional reflected wave data.
  • the Doppler processing unit 130 generates two-dimensional Doppler data from the two-dimensional reflected wave data, and generates three-dimensional Doppler data from the three-dimensional reflected wave data.
  • the image generation unit 140 generates ultrasonic image data from the data generated by the B mode processing unit 120 and the Doppler processing unit 130. That is, the image generation unit 140 generates two-dimensional B-mode image data in which the intensity of the reflected wave is represented by luminance from the two-dimensional B-mode data generated by the B-mode processing unit 120. Further, the image generation unit 140 generates two-dimensional Doppler image data representing moving body information from the two-dimensional Doppler data generated by the Doppler processing unit 130.
  • the two-dimensional Doppler image data is velocity image data, distributed image data, power image data, or image data obtained by combining these.
  • the image generation unit 140 can also generate a Doppler waveform obtained by plotting blood flow and tissue velocity information in time series from the Doppler data generated by the Doppler processing unit 130.
  • the image generation unit 140 generally converts (scan converts) a scanning line signal sequence of ultrasonic scanning into a scanning line signal sequence of a video format represented by a television or the like, and displays ultrasonic waves for display. Generate image data. Specifically, the image generation unit 140 generates ultrasonic image data for display by performing coordinate conversion in accordance with the ultrasonic scanning mode by the ultrasonic probe 11. In addition to the scan conversion, the image generation unit 140 may perform various image processing, such as image processing (smoothing processing) for regenerating an average luminance image using a plurality of image frames after scan conversion, Image processing (edge enhancement processing) using a differential filter is performed in the image. The image generation unit 140 synthesizes character information, scales, body marks, and the like of various parameters with the ultrasonic image data.
  • image processing smoothing processing
  • Image processing edge enhancement processing
  • the B mode data and the Doppler data are ultrasonic image data before the scan conversion process, and the data generated by the image generation unit 140 is display ultrasonic image data after the scan conversion process.
  • the B-mode data and Doppler data are also called raw data.
  • the image generation unit 140 generates three-dimensional B-mode image data by performing coordinate transformation on the three-dimensional B-mode data generated by the B-mode processing unit 120. In addition, the image generation unit 140 performs coordinate conversion on the three-dimensional Doppler data generated by the Doppler processing unit 130 to generate three-dimensional Doppler image data. That is, the image generation unit 140 generates “3D B-mode image data or 3D Doppler image data” as “3D ultrasound image data (volume data)”.
  • the image generation unit 140 performs a rendering process on the volume data in order to generate various two-dimensional image data for displaying the volume data on the monitor 13.
  • the rendering process performed by the image generation unit 140 includes a process of generating MPR image data from volume data by performing a cross-section reconstruction method (MPR: Multi Planer Reconstruction).
  • MPR Multi Planer Reconstruction
  • the rendering process performed by the image generation unit 140 includes a process of performing “Curved MPR” on the volume data and a process of performing “Maximum Intensity Projection” on the volume data.
  • the rendering processing performed by the image generation unit 140 includes volume rendering (VR) processing.
  • the image memory 150 is a memory that stores image data for display generated by the image generation unit 140.
  • the image memory 150 can also store data generated by the B-mode processing unit 120 and the Doppler processing unit 130.
  • the B-mode data and Doppler data stored in the image memory 150 can be called by an operator after diagnosis, for example, and become ultrasonic image data for display via the image generation unit 140.
  • the image generation unit 140 associates the ultrasonic image data and the time of the ultrasonic scanning performed for generating the ultrasonic image data with the electrocardiographic waveform transmitted from the electrocardiograph 14.
  • An image processing unit 170 and a control unit 180 which will be described later, refer to data stored in the image memory 150 to acquire a cardiac time phase at the time of ultrasonic scanning performed to generate ultrasonic image data. Can do.
  • the internal storage unit 160 stores a control program for performing ultrasound transmission / reception, image processing, and display processing, diagnostic information (for example, patient ID, doctor's findings, etc.), various data such as a diagnostic protocol and various body marks. To do.
  • the internal storage unit 160 is also used for storing image data stored in the image memory 150 as necessary.
  • the data stored in the internal storage unit 160 can be transferred to an external device via an interface (not shown).
  • the external device is, for example, a high-performance workstation for image processing, a PC (Personal Computer) used by a doctor who performs image diagnosis, a storage medium such as a CD or a DVD, a printer, or the like.
  • the image processing unit 170 is installed in the apparatus main body 100 in order to provide exercise information of a tissue that moves periodically. For example, the image processing unit 170 acquires ultrasonic image data of the heart stored in the image memory 150 and performs heart wall motion analysis (Wall Motion Tracking, WMT) by image processing to obtain heart wall motion information. calculate. Then, the image processing unit 170 stores the generated exercise information in the image memory 150 or the internal storage unit 160. The process in which the image processing unit 170 calculates exercise information will be described later.
  • WMT Heart Motion Tracking
  • the control unit 180 controls the entire processing of the ultrasonic diagnostic apparatus. Specifically, the control unit 180 is based on various setting requests input from the operator via the input device 12, various control programs and various data read from the internal storage unit 160, and the transmission / reception unit 110, B mode. The processing of the processing unit 120, the Doppler processing unit 130, the image generation unit 140, and the image processing unit 170 is controlled. In addition, the control unit 180 controls the monitor 13 to display the ultrasonic image data for display stored in the image memory 150 or the internal storage unit 160. In addition, the control unit 180 performs control so that the processing result of the image processing unit 170 is displayed on the monitor 13 or is output to an external device.
  • the image processing unit 170 can generate exercise information of a tissue that moves periodically.
  • the image data to be processed by the image processing unit 170 may be a two-dimensional ultrasound image data group or a three-dimensional ultrasound image data group.
  • a technique for performing heart wall motion analysis for example, a known technique such as the technique disclosed in Japanese Patent Application Laid-Open No. 2010-194298 can be applied.
  • the image processing unit 170 includes an acquisition unit 171, a setting unit 172, a tracking unit 173, and an exercise information calculation unit 174.
  • the acquisition unit 171 acquires an ultrasound image data group including a plurality of ultrasound image data for at least one heartbeat.
  • the operator performs a two-dimensional scan or a three-dimensional scan of a region including the heart of the subject P with a sector probe, and a moving image of two-dimensional or three-dimensional ultrasound image data in which the myocardium is depicted. Take data.
  • This moving image data is, for example, a group of ultrasonic image data collected in the B mode.
  • the image generation unit 140 generates myocardial moving image data and stores the generated moving image data in the image memory 150.
  • the operator sets a section for one heartbeat from the R wave to the next R wave in the electrocardiogram as the section to be processed. Note that the present embodiment is applicable even when the section to be processed is set as a section for two heartbeats or a section for three heartbeats.
  • the acquisition unit 171 acquires a volume data group from the image memory 150.
  • This volume data group includes ultrasonic volume data of a plurality of frames included in a section for one heartbeat set by the operator.
  • the setting unit 172 sets a plurality of constituent points at positions corresponding to the tissue contour in at least one ultrasonic image data included in the ultrasonic image data group.
  • the outline of the tissue is, for example, the outline of the intima of the heart and the outline of the epicardium of the heart.
  • the setting unit 172 sets a plurality of constituent points constituting the contour at positions corresponding to the initial contour of the heart based on information manually set by the operator.
  • the operator designates an arbitrary cardiac phase for the volume data group acquired by the acquisition unit 171.
  • the arbitrary cardiac time phase specified here is an arbitrary frame among the frames included in the interval for one heartbeat, and is, for example, the end diastole time phase (first R wave time phase).
  • the setting unit 172 causes the image generation unit 140 to perform MPR processing on the volume data of the heart at the designated cardiac time phase to set the initial contour.
  • the reference MPR cross section reference MPR cross section
  • the present invention is not limited to this and may be, for example, the end systole time phase.
  • the operator uses a long-axis apex section (apical four-chamber view, A4C) as the first reference MPR section (MPR1) and the second reference MPR section (MPR2). Specifies that the long-axis two-chamber view (A2C) is displayed. Then, the operator inputs an initial contour for each of the displayed long-axis apex section and long-axis two-chamber section. Since not only the intima and outer membranes of the heart but also papillary muscles and chordae are displayed on the MPR section, the operator observes the displayed reference MPR section in the end diastole phase. However, the initial contour is specified so that the papillary muscles and chords drawn are not included.
  • the setting unit 172 When the initial contour is input to a plurality of reference MPR cross sections, the setting unit 172 generates a three-dimensional initial contour from the input two-dimensional initial contour by a known method. Specifically, the setting unit 172 generates a three-dimensional initial contour P_endo from the initial contour of the intima of the heart designated on MPR1 and MPR2. In addition, the setting unit 172 generates a three-dimensional initial contour P_epi from the initial contour of the epicardium of the heart specified on MPR1 and MPR2.
  • the setting unit 172 assigns addresses to a plurality of constituent points constituting the three-dimensional initial contours of the intima and epicardium of the heart.
  • This address is a number assigned to identify each constituent point, and is defined based on the position of each constituent point in the intima of the heart, for example.
  • the address is not limited to a number, and may be identification information that can identify the position of each constituent point, such as a character or a symbol.
  • the setting unit 172 defines the position of each constituent point of the intima of the heart as P_endo (t, h, d), and sets the position of each constituent point of the epicardium of the heart as P_epi (t, h, d). It is defined as Here, t represents a frame (heart time phase) included in a section for one heartbeat, h represents an address number in the major axis direction, and d represents an address number in the circumferential direction.
  • t 0.
  • FIG. 2 is a diagram showing an example of the initial contour set by the operator.
  • the case where an initial outline is set with respect to the endocardial outline 21 of the heart is illustrated.
  • Each component point shown in FIG. 2 is arranged at the intersection of the contour 21 of the intima of the heart, each cross section passing through the long axis direction 22, and each cross section (short axis cross section) orthogonal to the long axis direction 22.
  • the plane 23 is MPR1 (A4C)
  • the plane 24 is MPR2 (A2C).
  • the position of the constituent point at the reference position is represented as P_endo (0, 0, d).
  • the setting unit 172 also sets the reference position in the circumferential direction and the reference position in the long axis direction for the contour of the epicardium of the heart, and gives an address.
  • the initial contour may be specified in the setting unit 172 using two or more reference MPR sections.
  • the long-axis apex section and the long-axis two-chamber section are used as the reference MPR section.
  • a long-axis three-chamber cross section may be used, or a short-axis cross section (SAXA, SAXM, SAXB, etc.) orthogonal to the long-axis cross section, Furthermore, a cross section defined by these cross sections and a predetermined positional relationship may be used.
  • the process of displaying a plurality of reference MPR sections is not limited to the manual operation as described above. For example, automatic section detection that automatically detects and displays an arbitrary section from volume data. May be automatically displayed.
  • the designation of the initial contour is not limited to the above-described manual operation, and dictionary data of the intima contour shape and the epicardial contour shape (for example, statistical data of contours set in the past) is used.
  • the setting unit 172 may specify automatically or semi-automatically.
  • the initial contour may be designated automatically or semi-automatically using a boundary detection method for detecting a boundary in the image.
  • the tracking unit 173 performs a process including pattern matching using ultrasonic image data in which a plurality of constituent points are set and other ultrasonic image data, and thereby a plurality of ultrasonic waves included in the ultrasonic image data group. The positions of a plurality of constituent points in the image data are tracked.
  • the tracking unit 173 performs other processing by processing including pattern matching.
  • the tracking unit 173 also tracks the position of each constituent point P_epi (t, h, d) of the heart's outer membrane in the same manner as the position of each constituent point of the heart's intima. As a result, the tracking unit 173 obtains coordinate information of each constituent point constituting the intima and epicardium of the heart for each frame included in the section for one heartbeat.
  • the motion information calculation unit 174 calculates motion information representing tissue motion for each of the plurality of ultrasonic image data using the positions of the plurality of component points in the plurality of ultrasonic image data included in each ultrasonic image data group. To do.
  • examples of the motion information calculated by the tracking unit 173 include parameters such as a moving distance (Displacement) for each frame of each constituent point and a velocity (Velocity) defined by time differentiation of the moving distance.
  • the exercise information is not limited to these parameters, and may be any parameter that can be calculated using the coordinate information of a plurality of constituent points in each frame included in the interval for one heartbeat.
  • strain which is the rate of change in distance between two points
  • strain rate (Strain Rate) defined by strain time differentiation
  • the operator can set arbitrary parameters such as “time until certain exercise information reaches a peak value”.
  • the motion information calculation unit 174 calculates “time differential value of local area change rate of the intima surface” as motion information.
  • the calculated exercise information is given to each constituent point used for the calculation.
  • motion information calculated only from each constituent point of the intima of the heart is defined as V_endo (t, h, d), and motion calculated only from each constituent point of the epicardium of the heart
  • V_epi motion information calculated only from each constituent point of the epicardium of the heart
  • the motion information calculated from the constituent points of the intima and adventitia is defined as V (t, h, d).
  • the exercise information calculation unit 174 stores the calculated exercise information in the image memory 150 for each volume data group.
  • the image processing unit 170 calculates the intima and epicardial motion information of the heart for the ultrasound image data group by the processing of the acquisition unit 171, the setting unit 172, the tracking unit 173, and the motion information calculation unit 174. To do.
  • the ultrasonic diagnostic apparatus 1 provides a comparison result when comparing motion information calculated for two different ultrasonic image data groups by the process described below. It is configured to be able to calculate accurately.
  • the image The processing unit 170 performs the above processing on at least two different ultrasound image data groups.
  • the image processing unit 170 corresponds to the tissue contour in the volume data of any cardiac phase for each of the volume data group before the stress load of the subject P and the volume data group after the stress load. Set multiple component points in position. Then, the image processing unit 170 performs, for each volume data group, processing including pattern matching using the volume data in which a plurality of constituent points are set and other volume data, thereby being included in each volume data group. The positions of a plurality of points in a plurality of ultrasonic image data are tracked. Then, for each volume data group, the image processing unit 170 uses the positions of the plurality of component points in the plurality of ultrasound image data included in each ultrasound image data group, for each of the plurality of ultrasound image data. Calculate exercise information.
  • the addresses and anatomical positions of the component points set for the two ultrasound image data groups to be compared are set. It is not always the case. For example, when a plurality of constituent points are set, if the anatomical position of the reference MPR cross section for accepting the setting of the initial contour does not match in the two ultrasound image data groups, the two ultrasound image data groups Deviation occurs between the address assigned to each component point and the anatomical position.
  • FIG. 3A is a diagram showing an example of a polar map of a volume data group before stress loading
  • FIG. 3B is a diagram showing an example of a polar map of a volume data group after stress loading.
  • the left ventricular myocardium having a short-axis cross section is represented by “ant-sept (front “September”, “ant” (front wall), “lat” (side wall), “post” (rear wall), “inf” (lower wall), and “sept” (septum).
  • the MPR1 position 26 set in the volume data group before stress loading and the MPR1 position 26 set in the volume data group after stress loading are anatomical cross-sectional positions. May be different. In this case, a deviation occurs between the value of the position d in the circumferential direction set based on MPR1 and the anatomical position.
  • the ultrasound diagnostic apparatus 1 according to the first embodiment will be described below in order to accurately calculate the comparison result when comparing the motion information calculated for two different ultrasound image data groups.
  • the process of the control unit 180 is executed.
  • the embodiment is not limited to the case where the stress echo method is performed.
  • This method is widely applied when motion information calculated from sound wave image data groups is compared.
  • exercise information calculated from an ultrasound image data group of a subject and an ultrasound image data group of another person for example, a representative ultrasound image data group of a normal healthy person It may be applied when compared.
  • control unit 180 includes an alignment unit 181, a comparison result calculation unit 182, and an output control unit 183.
  • the alignment unit 181 (identification information changing unit) is included in the addresses of a plurality of constituent points in the first ultrasonic image data included in the first ultrasonic image data group and in the second ultrasonic image data group.
  • the first ultrasound image data group includes the first ultrasound image data and the addresses of the plurality of constituent points in the second ultrasound image data in the same time phase among the plurality of ultrasound image data. Positioning of each ultrasound image data and each ultrasound image data included in the second ultrasound image data group is performed.
  • the alignment unit 181 has a plurality of points corresponding to the tissue contours in the first ultrasound image data included in the first ultrasound image data group each including a plurality of ultrasound image data having different time phases. The identification information given to is changed.
  • the alignment unit 181 acquires two volume data groups to be compared from the image memory 150. Then, the alignment unit 181 changes the reference position that defines the address of each constituent point set in each acquired volume data group.
  • the alignment unit 181 causes the monitor 13 to display information indicating a reference position serving as a reference among the positions of a plurality of constituent points for each of the volume data included in two different volume data groups. Then, the alignment unit 181 receives an instruction to change each reference position from the operator, and changes the addresses of the plurality of component points in each volume data according to the reference position changed by the instruction. Perform position alignment. In addition, every time the reference position is changed by an instruction, the alignment unit 181 displays ultrasonic image data representing a cross section including the changed reference position on the monitor 13.
  • FIG. 4 is a diagram for explaining processing of the alignment unit 181 according to the first embodiment.
  • FIG. 4 shows an example of a display image displayed on the monitor 13 by the processing of the alignment unit 181.
  • the display image displayed on the monitor 13 is a polar map 28 after stress loading, a display area 29 for displaying a tomographic image before stress loading, and a display for displaying a tomographic image after stress loading.
  • the polar map 28 may be a map before stress load.
  • a polar map before stress loading and a polar map after stress loading may be displayed on the monitor 13 respectively.
  • the marker 32 is generated by the image generation unit 140 and displayed on the monitor 13. Then, the alignment unit 181 causes the image generation unit 140 to generate a tomographic image having a long-axis cross section including the position of the marker 31 and displays the tomographic image on the display area 29.
  • the alignment unit 181 causes the image generation unit 140 to generate a tomographic image having a long-axis cross section including the position of the marker 32 and displays the tomographic image on the display region 30.
  • the tomographic image of the display area 29 corresponds to the tomographic image of MPR1 before stress loading
  • the tomographic image of the display area 30 corresponds to the tomographic image of MPR1 after stress loading.
  • the left ventricle (LV in the figure) depicted in the display region 30 is depicted narrower than the left ventricle depicted in the display region 29, the operator displays a tomographic image of the display region 30. It can be determined that the position is anatomically different from the tomographic image of the region 29.
  • the alignment unit 181 receives an instruction to change the positions of the marker 31 and the marker 32 from the operator.
  • the operator receives an instruction to move the position of the marker 32 in the direction of the arrow by a mouse drag-and-drop operation.
  • FIG. 5 is a diagram for explaining processing of the alignment unit 181 according to the first embodiment.
  • FIG. 5 illustrates an example of a display image when an instruction to change the position of the marker 32 is received with respect to the display image illustrated in FIG.
  • the marker 33 after movement is displayed, the marker 32 before movement may not be displayed, but here, for convenience of explanation, a case where both are displayed is illustrated.
  • the alignment unit 181 moves the position of the marker 32 to the position of the marker 33 in accordance with an instruction received from the operator, and changes the reference position to the position of the marker 33 after the movement. That is, the alignment unit 181 rotates the reference position in the circumferential direction of the short-axis cross section according to the number of addresses that the position of the marker 33 has moved. Accordingly, the alignment unit 181 causes the image generation unit 140 to generate a tomographic image having a long-axis cross section including the position of the marker 33 after movement, and displays the tomographic image on the display region 30.
  • the operator refers to the display area 29 and the display area 30 and repeatedly changes the position of the marker 33 until it is determined that the tomographic image in the display area 29 and the tomographic image in the display area 30 match. To do. Then, as shown in FIG. 5, the operator changes the reference position using the position of the marker 33 when it is determined that the tomographic image of the display area 29 and the tomographic image of the display area 30 match. The instruction to confirm is made. In addition, although the case where the position of the marker 32 representing the reference position after the stress load is moved is illustrated here, the position of the marker 31 representing the reference position before the stress load may be moved.
  • the alignment unit 181 When the alignment unit 181 receives an instruction to confirm the change of the reference position, the alignment unit 181 changes the address of the configuration point according to the number of changed addresses. For example, when the moved marker 33 has moved in a direction that increases by an ⁇ address with respect to the marker 32 before the movement, the alignment unit 181 changes d of each component point to d + ⁇ , The address of each constituent point in the circumferential direction is moved by ⁇ address.
  • the alignment unit 181 obtains the remainder when (d ⁇ + 100) is divided by 100 as a calculation formula.
  • the alignment unit 181 obtains the address to be changed in the other short-axis cross section by obtaining the position in the other short-axis cross section of the reference position changed in the short-axis cross section.
  • the alignment unit 181 may change the address of the component point based on the changed marker position each time the marker position is changed by the operator.
  • the comparison result calculation unit 182 compares motion information of ultrasonic image data of the same time phase included in the first and second ultrasonic image data groups, and calculates a comparison parameter.
  • the comparison parameter is an example of a comparison result.
  • the comparison result calculation unit 182 calculates a comparison parameter for the exercise information having the same address aligned by the alignment unit 181. Specifically, the comparison result calculation unit 182 calculates a comparison parameter using exercise information obtained in at least one or more predetermined cardiac phases.
  • the predetermined cardiac time phase referred to here is, for example, a time phase in which motion information peaks during early diastole, but is not limited to this, and a time phase or contraction in which motion information peaks during systole. Examples include a terminal phase, a time phase in which motion information peaks in the late diastole, and a time phase in which motion information peaks in one cardiac cycle.
  • the comparison result calculation unit 182 calculates the comparison parameter using the peak value in the early expansion of the time differential value of the local area change rate of the endocardial surface in the time phase in which the motion information peaks in the early expansion.
  • the peak value in the early diastole is an index representing the dilatability of the myocardium, and a smaller value means that the speed of dilatation of the myocardium is reduced.
  • the absolute value of the peak value is stressed to increase the heart's pumping function in the normal myocardial region. Larger than before loading.
  • the dilatation speed at that site is reduced, so the absolute value of the peak value is smaller than before the stress load. . That is, by comparing the peak value in the early diastole before and after the stress load, it is possible to distinguish between a normal part of the heart and a part of reduced diastolic ability.
  • the comparison result calculation unit 182 identifies the time phase in which the volume in the intima is the smallest as the end systolic time phase from the time change of each constituent point of the endocardium obtained by the tracking unit 173. Then, the comparison result calculation unit 182 identifies the period from the identified end systolic time phase to the next R wave as the diastole. And the comparison result calculation part 182 detects the peak value in an expansion period, and detects the thing of an early time phase among the detected maximum value and the 2nd largest value as a peak value of an expansion early stage.
  • the end systole time phase may be the end systole time phase at the end of the T wave detected from the ECG signal. This process may be executed by the exercise information calculation unit 174.
  • the comparison result calculation unit 182 calculates the comparison parameter by using at least one of the following formulas (1) to (3).
  • Expression (1) represents a ratio after stress loading before stress loading
  • Expression (2) represents a difference before and after stress loading
  • Expression (3) represents stress before stress loading.
  • V_endo_1_max (h, d) represents a peak value in early expansion before stress load
  • V_endo_2_max (h, d) represents a peak value in early expansion after stress load
  • the comparison result calculation unit 182 automatically calculates a comparison parameter for an arbitrary expression designated in advance among the expressions (1) to (3).
  • the comparison result calculation unit 182 receives an instruction to specify at least one of the expressions (1) to (3) from the operator, and the comparison parameter based on the specified expression Calculate only.
  • the comparison result calculation unit 182 may perform the above-described comparison parameter calculation after averaging the motion information V_endo_1_max and V_endo_2_max (h, d) in the spatial direction. For example, the comparison result calculation unit 182 performs an averaging process on each piece of motion information in the circumferential direction, and then calculates a comparison parameter. This is because the influence of the positional deviation on the comparison parameter can be reduced by performing the averaging process in the direction in which the anatomical positional deviation may occur.
  • the peak value of exercise information in the early expansion can be detected not only by the above method but also by a manual method.
  • the start and end time phases of the section are designated on the ECG displayed on the screen. From the top of the R wave to the end of the T wave is the ventricular systole, and from the end of the T wave to the top of the next R wave is the diastole.
  • left atrial contraction occurs in the P wave. Therefore, the start time phase of the section in which the peak value is to be detected designates the vicinity of the end of the T wave, and the end time phase designates an arbitrary time phase between the vicinity of the end of the T wave and the P wave. Thereby, the peak value at the early stage of expansion can be detected.
  • the output control unit 183 outputs a comparison parameter. For example, the output control unit 183 determines a color corresponding to the size of the comparison parameter, and displays the comparison parameter in color using the coordinate information of each constituent point and information indicating the color assigned to the constituent point. Therefore, the image generation unit 140 generates a color image for the purpose. Then, the output control unit 183 displays the generated color image on the monitor 13 by superimposing the generated color image on, for example, a volume image (plastic bag, rendering image), an MPR image, a polar map, or the like.
  • the output control unit 183 sets the change rate sign “+” to a warm color (for example, red) and “ ⁇ ” to a cold color.
  • the color (for example, blue) and the magnitude of the change rate are expressed by hue (or brightness). For this reason, if a stress load is applied to a patient who performs normal wall motion before stress load, the heart pump function increases in the normal myocardium, so the comparison parameter becomes 0 or more and is displayed in a warm color system. Is done. On the other hand, when myocardial ischemia is induced and a region where wall motion is reduced appears, the comparison parameter in that region becomes a negative value, so that it is displayed in a cool color system. As a result, it is possible to easily distinguish between a normal myocardium and a portion where wall motion is reduced.
  • the output form in which the output control unit 183 outputs the comparison parameter is not limited to the color image described above.
  • the output control unit 183 may display and output the comparison parameter as a numerical value on the monitor 13, or may generate and display a graph representing a temporal change of the comparison parameter as a graph. Further, for example, the output control unit 183 may store the comparison parameter in various recording media or may transmit the comparison parameter to an external device.
  • FIG. 6 is a flowchart for explaining processing of the ultrasonic diagnostic apparatus according to the first embodiment.
  • the process illustrated in FIG. 6 is started, for example, by designating an ultrasound image data group to be processed.
  • the acquisition unit 171 acquires an ultrasonic image data group to be processed (step S101). Then, the setting unit 172 sets a plurality of constituent points at positions corresponding to the tissue contour in at least one ultrasound image data included in the ultrasound image data group (step S102).
  • the tracking unit 173 performs a process including pattern matching using the ultrasonic image data in which a plurality of constituent points are set and other ultrasonic image data, and thereby includes a plurality of pieces included in the ultrasonic image data group.
  • the positions of a plurality of constituent points in the ultrasonic image data are tracked (step S103).
  • the motion information calculation unit 174 uses the positions of the plurality of constituent points in the plurality of ultrasound image data included in each ultrasound image data group, and the motion information that represents the tissue motion for each of the plurality of ultrasound image data. Is calculated (step S104).
  • the alignment unit 181 performs alignment of each ultrasound image data included in each of two different ultrasound image data groups (step S105). For example, the alignment unit 181 causes the monitor 13 to display information indicating a reference position serving as a reference among the positions of a plurality of component points for each of volume data included in two different volume data groups. Then, the alignment unit 181 receives an instruction to change each reference position from the operator, and changes the addresses of the plurality of component points in each volume data according to the reference position changed by the instruction. Perform position alignment. In addition, every time the reference position is changed by an instruction, the alignment unit 181 displays ultrasonic image data representing a cross section including the changed reference position on the monitor 13.
  • the comparison result calculation unit 182 compares the motion information of the ultrasound image data of the same time phase included in the two ultrasound image data groups, and calculates a comparison parameter (step S106). Then, the output control unit 183 outputs the calculated comparison parameter (step S107) and ends the process.
  • each process from step S101 to step S107 illustrated in FIG. 6 may not be executed as a series of processes as illustrated.
  • each process from step S101 to step S104 which is a process in which the image processing unit 170 calculates motion information for the ultrasonic image data group, and the two ultrasonic image data groups different from each other by the control unit 180 are aligned.
  • the processes in steps S105 to S106 that are performed and compared may be performed at different timings.
  • step S106 which is a process for the comparison result calculation unit 182 to calculate the comparison parameter
  • step S105 is not necessarily executed after the process of step S105.
  • motion information of ultrasound image data of the same time phase may be compared for two different ultrasound image data groups to calculate a comparison parameter.
  • the comparison result calculation unit 182 may calculate the comparison parameter again for the two ultrasonic image data groups subjected to alignment. That is, the comparison result calculation unit 182 may calculate the comparison parameter for the two ultrasonic image data groups that have been aligned each time alignment is performed by the alignment unit 181.
  • the alignment unit 181 includes the tissue contour in the first ultrasonic image data included in the first ultrasonic image data group that includes a plurality of ultrasonic image data having different time phases.
  • the identification information given to a plurality of points corresponding to is changed.
  • the comparison result calculation unit 182 includes, among the second ultrasonic image data group including the identification information after the change of the plurality of points in the first ultrasonic image data and the plurality of ultrasonic image data having different time phases.
  • the identification information given to the plurality of points corresponding to the tissue contour in the second ultrasonic image data corresponding to the time phase of the first ultrasonic image data is made to correspond, and the first information is based on this correspondence.
  • the motion information representing the motion of the tissue in each ultrasound image data included in the ultrasound image data group and the second ultrasound image data group is compared between corresponding time phases, and a comparison result is calculated. Then, the output control unit 183 outputs the comparison result. Thereby, the operator can change an address so that an arbitrary tomographic image becomes a reference position for a certain ultrasonic image data group.
  • the ultrasonic diagnostic apparatus 1 uses the first and second ultrasonic image data groups each including a plurality of ultrasonic image data for at least one heartbeat as the first ultrasonic image data group. Addresses of a plurality of points set at positions corresponding to the tissue contour in the first ultrasound image data included in the ultrasound image data group, and a plurality of ultrasound images included in the second ultrasound image data group Based on the first ultrasonic image data and the addresses of a plurality of points in the second ultrasonic image data of the same time phase among the data, each ultrasonic image data included in the first ultrasonic image data group, Alignment with each ultrasound image data included in the second ultrasound image data group is performed.
  • the ultrasonic diagnostic apparatus 1 compares the movement information representing the movement of the tissue in the ultrasonic image data of the same time phase included in the first and second ultrasonic image data groups after the alignment is performed. Then, the comparison result is calculated. For this reason, the ultrasonic diagnostic apparatus 1 according to the first embodiment can calculate the comparison result more accurately.
  • the ultrasonic diagnostic apparatus 1 includes the addresses of a plurality of constituent points in the first ultrasonic image data included in the first ultrasonic image data group, and the second ultrasonic image data.
  • the first ultrasonic image data and the second ultrasonic image data having the same time phase as the first ultrasonic image data are aligned with the addresses of the plurality of constituent points.
  • the ultrasound diagnostic apparatus 1 calculates a comparison parameter for the two ultrasound image data groups that have been aligned. For this reason, the ultrasound diagnostic apparatus 1 can calculate the comparison result more accurately when comparing the motion information calculated for two different ultrasound image data groups.
  • the ultrasonic diagnostic apparatus 1 is configured such that the reference position serving as a reference among the positions of the plurality of constituent points for each of the ultrasonic image data included in two different ultrasonic image data groups. Is displayed on the monitor 13.
  • the ultrasonic diagnostic apparatus 1 receives an instruction to change each reference position from the operator using the displayed marker, and changes the addresses of a plurality of constituent points in each ultrasonic image data according to the reference position changed by the instruction. By doing so, each ultrasonic image data is aligned. For this reason, the operator can position each ultrasonic image data group with a simple operation.
  • the ultrasonic diagnostic apparatus 1 monitors the ultrasonic image data representing a cross section including the changed reference position every time the reference position is changed by an instruction from the operator. To display. For this reason, the operator can change the reference position for the two ultrasonic image data groups to be processed while confirming the tomographic image at the reference position. Can be easily specified.
  • FIG. 7 is a block diagram illustrating a configuration example of the ultrasonic diagnostic apparatus according to the second embodiment.
  • the ultrasonic diagnostic apparatus 1 according to the second embodiment is different from the ultrasonic diagnostic apparatus 1 shown in FIG. 1 in that it has a synchronization unit 184 and a comparison result calculation unit 182. Part of the process is different. Therefore, in the second embodiment, only differences from the first embodiment will be described, and description of similar points will be omitted.
  • the synchronization unit 184 corresponds to a predetermined period included in one ultrasonic image data group, and a predetermined period included in the other ultrasonic image data group, out of two different ultrasonic image data groups. Synchronize with the time period.
  • the synchronization unit 184 synchronizes at least one or more predetermined cardiac time phases among two different volume data groups after the alignment by the alignment unit 181 is performed.
  • the predetermined cardiac phase mentioned here is a predetermined interval, and corresponds to a period such as a systole, a diastole, or a single cardiac cycle.
  • the synchronization unit 184 makes it possible to compare the motion information between the corresponding cardiac phases even if the motion information of the cardiac phase frames that completely coincide with each other does not exist. For example, when comparing motion information of cardiac phase frames of 30% diastolic period, the ultrasound image data group of the frames does not always exist. In this case, the synchronization unit 184 complements the 30% diastolic frame by the synchronization process described below, thereby enabling comparison of 30% diastolic cardiac phases.
  • FIG. 8 to 11 are diagrams for explaining processing of the synchronization unit 184 according to the second embodiment.
  • FIG. 8 illustrates the frame rate of the volume data group before stress load and the frame rate of the volume data group after stress load.
  • FIG. 9 illustrates a case where the two volume data groups shown in FIG. 8 are synchronized in the R-ES section.
  • FIG. 10 illustrates a case where the two volume data groups shown in FIG. 8 are synchronized in the RR section.
  • FIG. 11 illustrates a case where the two volume data groups shown in FIG. 8 are synchronized in the R-ES section and the ES-R section, respectively.
  • the R-ES section is a section from the R wave in the electrocardiogram to the next end systole (ES).
  • the RR section is a section from the R wave to the next R wave.
  • the ES-R section is a section from the end systole to the next R wave.
  • the synchronization unit 184 synchronizes two different ultrasonic image data groups in a predetermined section of one cardiac cycle, as illustrated in FIGS. 9 to 11.
  • the synchronization unit 184 synchronizes the frame rate after stress loading with the frame rate before stress loading for the R-ES interval in one cardiac cycle.
  • the comparison result calculation unit 182 can compare them.
  • the synchronization unit 184 associates the frame closest to the frame before stress load or corresponds to the frame before stress load. Or interpolate frames.
  • the synchronization unit 184 calculates an average value or weighted average value of motion information of frames before and after the interpolation time, and uses this as an interpolation frame.
  • the synchronization unit 184 may synchronize the frame rate after stress loading with the frame rate before stress loading for the RR section of one cardiac cycle. Further, for example, as shown in FIG. 11, the synchronization unit 184 synchronizes the frame rate after stress loading with the frame rate before stress loading for each of the R-ES interval and ES-R interval in one cardiac cycle. 10 and FIG. 11, the synchronization unit 184 also has the stress if the same time frame does not exist in the volume data group after the stress load, as described in FIG. 9. A frame closest to the frame before the load may be associated, or a frame corresponding to the frame before the stress load may be interpolated.
  • the synchronization unit 184 synchronizes a predetermined cardiac phase such as the R-ES interval, the RR interval, the ES-R interval, etc., among two different volume data groups. Then, the synchronization unit 184 outputs the two synchronized volume data groups to the comparison result calculation unit 182.
  • the comparison result calculation unit 182 compares the motion information of the ultrasound image data in the same period included in two different ultrasound image data groups, A comparison parameter is calculated.
  • the comparison result calculation unit 182 calculates time-series comparison parameters across a plurality of frames included in a predetermined cardiac time phase synchronized by the synchronization unit 184. Specifically, the comparison result calculation unit 182 calculates the comparison parameter by using at least one of the following formulas (4) to (6).
  • V_endo_2 (t2, h, d) / V_endo_1 (t1, h, d) (4) V_endo_2 (t2, h, d) ⁇ V_endo_1 (t1, h, d) (5) ⁇ V_endo_2 (t2, h, d) ⁇ V_endo_1 (t1, h, d) ⁇ / V_endo_1 (t1, h, d) (6)
  • t2 corresponds to the time phase synchronized with t1 by the synchronization unit 184 among the time phases of V_endo_2.
  • the comparison result calculation unit 182 selects at least one of the above formulas (1) to (3), and compares the comparison parameters across each frame included in the predetermined cardiac phase synchronized by the synchronization unit 184. Is calculated.
  • the ultrasonic diagnostic apparatus 1 synchronizes the predetermined cardiac phase after the alignment, and straddles each frame included in the synchronized predetermined cardiac phase.
  • the comparison parameter can be calculated.
  • the number assigned to each constituent point has been described as an address.
  • the present invention is not limited to this.
  • identification information that can identify the position of each constituent point such as a character or a symbol, may be used. good.
  • the address is identification information given to a plurality of points corresponding to the outline of the tissue.
  • the address is assigned to each constituent point according to a predetermined rule (rule).
  • the ultrasonic diagnostic apparatus 1 may change the assigned address (identification information) for one ultrasonic image data group.
  • the operator moves the marker 32 in the direction of the arrow while visually confirming (comparing) the tomographic images of the display area 29 and the display area 30.
  • the alignment for aligning the later address with the address before stress loading has been described.
  • the operator can change the address without necessarily comparing the tomographic images of the display area 29 and the display area 30.
  • the alignment unit 181 receives an instruction from the operator to move the position of the marker 32 in the direction of the arrow.
  • the alignment unit 181 moves the position of the marker 32 to the position of the marker 33 in accordance with an instruction received from the operator, and changes the reference position to the position of the marker 33 after the movement (see FIG. 5).
  • the alignment unit 181 causes the image generation unit 140 to generate a tomographic image having a long-axis cross section including the position of the marker 33 after movement, and displays the tomographic image on the display region 30.
  • the operator can change the position of the marker 33 repeatedly until it is determined that an arbitrary tomographic image is displayed in the display area 30. Then, upon receiving an instruction to confirm the change of the reference position from the operator, the alignment unit 181 changes the address of the component point according to the number of changed addresses. Note that the calculation formula used for changing the address is the same as the above-described calculation formula, and thus description thereof is omitted.
  • the organ to which the above image processing method is applied is not limited to the heart, but may be an arterial blood vessel such as a carotid artery that repeatedly expands and contracts in synchronization with the cardiac cycle.
  • the image processing method described above is applicable to two-dimensional or three-dimensional moving image data of medical image data capable of tracking a region of interest by template matching processing, such as an X-ray diagnostic apparatus, an X-ray CT apparatus, or an MRI apparatus. May be applied. That is, the image processing method described in the first and second embodiments may be performed by a medical image diagnostic apparatus other than the ultrasonic diagnostic apparatus. Further, the above image processing method may be executed by an image processing apparatus installed independently of the medical image diagnostic apparatus.
  • each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated.
  • the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or a part of the distribution / integration is functionally or physically distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.
  • all or a part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.
  • image processing methods described in the above embodiments and modifications can be realized by executing an image processing program prepared in advance on a computer such as a personal computer or a workstation.
  • This image processing program can be distributed via a network such as the Internet.
  • the image processing program can also be executed by being recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, and a DVD, and being read from the recording medium by the computer. .
  • the comparison result can be calculated more accurately.

Abstract

 医用画像診断装置(1)は、識別情報変更部(181)と、比較結果算出部(182)とを備える。識別情報変更部(181)は、時相が異なる複数の医用画像データをそれぞれ含む第1の医用画像データ群に含まれる第1の医用画像データにおける組織の輪郭に対応する複数の点に対して付与された識別情報を変更する。比較結果算出部(182)は、前記第1の医用画像データにおける前記複数の点の変更後の識別情報と、時相が異なる複数の医用画像データをそれぞれ含む第2の医用画像データ群のうち前記第1の医用画像データの時相に対応する第2の医用画像データにおける組織の輪郭に対応する複数の点に対して付与された識別情報とを対応させ、この対応に基づいて前記第1の医用画像データ群及び前記第2の医用画像データ群に含まれる各医用画像データにおける前記組織の運動を表す運動情報を対応する時相間で比較し、比較結果を算出する。

Description

医用画像診断装置、医用画像処理装置及び制御プログラム
 本発明の実施形態は、医用画像診断装置、医用画像処理装置及び制御プログラムに関する。
 従来、超音波診断装置を用いて心機能を診断する方法の一つとして、ストレスエコー法という診断方法が行なわれている。このストレスエコー法は、運動負荷や薬物負荷等のストレス負荷を被検体に対して与え、ストレス負荷の前後で収集した超音波画像データを用いて心筋の運動機能を評価する診断方法である。
 また、心機能を客観的かつ定量的に評価するために、心臓における組織の変位や歪み等の運動情報を求める技術がある。これは、心臓の超音波画像データを時系列的に収集し、超音波画像上で局所領域のパターンマッチングを行って、局所領域を追跡(トラッキング)することで、心臓の動きを推定するものである。更に、心臓の運動情報をストレス負荷の前後において収集し、これらを比較することで、心臓の運動機能を評価することも行われている。
特開2006-026151号公報 特開2009-106548号公報
 本発明が解決しようとする課題は、比較結果をより正確に算出することができる医用画像診断装置、医用画像処理装置及び制御プログラムを提供することである。
 実施形態に係る医用画像診断装置は、識別情報変更部と、比較結果算出部とを備える。識別情報変更部は、時相が異なる複数の医用画像データをそれぞれ含む第1の医用画像データ群に含まれる第1の医用画像データにおける組織の輪郭に対応する複数の点に対して付与された識別情報を変更する。比較結果算出部は、前記第1の医用画像データにおける前記複数の点の変更後の識別情報と、時相が異なる複数の医用画像データをそれぞれ含む第2の医用画像データ群のうち前記第1の医用画像データの時相に対応する第2の医用画像データにおける組織の輪郭に対応する複数の点に対して付与された識別情報とを対応させ、この対応に基づいて前記第1の医用画像データ群及び前記第2の医用画像データ群に含まれる各医用画像データにおける前記組織の運動を表す運動情報を対応する時相間で比較し、比較結果を算出する。
図1は、第1の実施形態に係る超音波診断装置の構成例を示すブロック図である。 図2は、操作者により設定される初期輪郭の一例を示す図である。 図3Aは、ストレス負荷前のボリュームデータ群のポーラーマップの一例を示す図である。 図3Bは、ストレス負荷後のボリュームデータ群のポーラーマップの一例を示す図である。 図4は、第1の実施形態に係る位置合わせ部181の処理を説明するための図である。 図5は、第1の実施形態に係る位置合わせ部181の処理を説明するための図である。 図6は、第1の実施形態に係る超音波診断装置の処理を説明するためのフローチャートである。 図7は、第2の実施形態に係る超音波診断装置の構成例を示すブロック図である。 図8は、第2の実施形態に係る同期部184の処理を説明するための図である。 図9は、第2の実施形態に係る同期部184の処理を説明するための図である。 図10は、第2の実施形態に係る同期部184の処理を説明するための図である。 図11は、第2の実施形態に係る同期部184の処理を説明するための図である。
 以下、図面を参照して、実施形態に係る医用画像診断装置、医用画像処理装置及び制御プログラムを説明する。
(第1の実施形態)
 図1は、第1の実施形態に係る超音波診断装置の構成例を示すブロック図である。図1に示すように、第1の実施形態に係る超音波診断装置1は、超音波プローブ11と、入力装置12と、モニタ13と、心電計14と、装置本体100とを有する。
 超音波プローブ11は、複数の圧電振動子を有し、これら複数の圧電振動子は、後述する装置本体100が有する送受信部110から供給される駆動信号に基づき超音波を発生する。また、超音波プローブ11は、被検体Pからの反射波を受信して電気信号に変換する。また、超音波プローブ11は、圧電振動子に設けられる整合層と、圧電振動子から後方への超音波の伝播を防止するバッキング材等を有する。なお、超音波プローブ11は、装置本体100と着脱自在に接続される。
 超音波プローブ11から被検体Pに超音波が送信されると、送信された超音波は、被検体Pの体内組織における音響インピーダンスの不連続面で次々と反射され、反射波信号として超音波プローブ11が有する複数の圧電振動子にて受信される。受信される反射波信号の振幅は、超音波が反射される不連続面における音響インピーダンスの差に依存する。なお、送信された超音波パルスが、移動している血流や心臓壁等の表面で反射された場合の反射波信号は、ドプラ効果により、移動体の超音波送信方向に対する速度成分に依存して、周波数偏移を受ける。
 例えば、本実施形態では、被検体Pの2次元走査用に、複数の圧電振動子が一列で配置された1Dアレイプローブが超音波プローブ11として装置本体100と接続される。例えば、超音波プローブ11としての1Dアレイプローブは、セクタ走査を行なうセクタプローブや、オフセットセクタ走査を行なうコンベックスプローブ、リニア走査を行なうリニアプローブ等である。或いは、例えば、本実施形態では、被検体Pの3次元走査用に、メカニカル4Dプローブや2Dアレイプローブが超音波プローブ11として装置本体100と接続されても良い。メカニカル4Dプローブは、1Dアレイプローブのように一列で配列された複数の圧電振動子を用いて2次元走査が可能であるとともに、複数の圧電振動子を所定の角度(揺動角度)で揺動させることで3次元走査が可能である。また、2Dアレイプローブは、マトリックス状に配置された複数の圧電振動子により3次元走査が可能であるとともに、超音波を集束して送信することで2次元走査が可能である。
 入力装置12は、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボール、ジョイスティック等を有し、超音波診断装置の操作者からの各種設定要求を受け付け、装置本体100に対して受け付けた各種設定要求を転送する。
 モニタ13は、超音波診断装置の操作者が入力装置12を用いて各種設定要求を入力するためのGUI(Graphical User Interface)を表示したり、装置本体100において生成された超音波画像データ等を表示したりする。
 心電計14は、超音波走査される被検体Pの生体信号として、被検体Pの心電波形(ECG: Electrocardiogram)を取得する。心電計14は、取得した心電波形を装置本体100に送信する。
 装置本体100は、超音波プローブ11が受信した反射波信号に基づいて超音波画像データを生成する装置である。図1に示す装置本体100は、超音波プローブ11が受信した2次元の反射波データに基づいて2次元の超音波画像データを生成可能な装置である。また、図1に示す装置本体100は、超音波プローブ11が受信した3次元の反射波データに基づいて3次元の超音波画像データを生成可能な装置である。以下、3次元の超音波画像データを「ボリュームデータ」と記載する場合がある。
 装置本体100は、図1に示すように、送受信部110と、Bモード処理部120と、ドプラ処理部130と、画像生成部140と、画像メモリ150と、内部記憶部160と、画像処理部170と、制御部180とを有する。
 送受信部110は、パルス発生器、送信遅延部、パルサ等を有し、超音波プローブ11に駆動信号を供給する。パルス発生器は、所定のレート周波数で、送信超音波を形成するためのレートパルスを繰り返し発生する。また、送信遅延部は、超音波プローブ11から発生される超音波をビーム状に集束し、かつ送信指向性を決定するために必要な圧電振動子ごとの遅延時間を、パルス発生器が発生する各レートパルスに対し与える。また、パルサは、レートパルスに基づくタイミングで、超音波プローブ11に駆動信号(駆動パルス)を印加する。すなわち、送信遅延部は、各レートパルスに対し与える遅延時間を変化させることで、圧電振動子面から送信される超音波の送信方向を任意に調整する。
 なお、送受信部110は、後述する制御部180の指示に基づいて、所定のスキャンシーケンスを実行するために、送信周波数、送信駆動電圧等を瞬時に変更可能な機能を有している。特に、送信駆動電圧の変更は、瞬間にその値を切り替え可能なリニアアンプ型の発信回路、又は、複数の電源ユニットを電気的に切り替える機構によって実現される。
 また、送受信部110は、プリアンプ、A/D(Analog/Digital)変換器、受信遅延部、加算器等を有し、超音波プローブ11が受信した反射波信号に対して各種処理を行って反射波データを生成する。プリアンプは、反射波信号をチャネル毎に増幅する。A/D変換器は、増幅された反射波信号をA/D変換する。受信遅延部は、受信指向性を決定するために必要な遅延時間を与える。加算器は、受信遅延部によって処理された反射波信号の加算処理を行なって反射波データを生成する。加算器の加算処理により、反射波信号の受信指向性に応じた方向からの反射成分が強調され、受信指向性と送信指向性とにより超音波送受信の総合的なビームが形成される。
 送受信部110は、被検体Pを2次元走査する場合、超音波プローブ11から2次元の超音波ビームを送信させる。そして、送受信部110は、超音波プローブ11が受信した2次元の反射波信号から2次元の反射波データを生成する。また、送受信部110は、被検体Pを3次元走査する場合、超音波プローブ11から3次元の超音波ビームを送信させる。そして、送受信部110は、超音波プローブ11が受信した3次元の反射波信号から3次元の反射波データを生成する。
 なお、送受信部110からの出力信号の形態は、RF(Radio Frequency)信号と呼ばれる位相情報が含まれる信号である場合や、包絡線検波処理後の振幅情報である場合等、種々の形態が選択可能である。
 Bモード処理部120は、送受信部110から反射波データを受信し、対数増幅、包絡線検波処理等を行なって、信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。
 ドプラ処理部130は、送受信部110から受信した反射波データから速度情報を周波数解析し、ドプラ効果による血流や組織、造影剤エコー成分を抽出し、速度、分散、パワー等の移動体情報を多点について抽出したデータ(ドプラデータ)を生成する。
 なお、第1の実施形態に係るBモード処理部120及びドプラ処理部130は、2次元の反射波データ及び3次元の反射波データの両方について処理可能である。すなわち、Bモード処理部120は、2次元の反射波データから2次元のBモードデータを生成し、3次元の反射波データから3次元のBモードデータを生成する。また、ドプラ処理部130は、2次元の反射波データから2次元のドプラデータを生成し、3次元の反射波データから3次元のドプラデータを生成する。
 画像生成部140は、Bモード処理部120及びドプラ処理部130が生成したデータから超音波画像データを生成する。すなわち、画像生成部140は、Bモード処理部120が生成した2次元のBモードデータから、反射波の強度を輝度で表した2次元Bモード画像データを生成する。また、画像生成部140は、ドプラ処理部130が生成した2次元のドプラデータから、移動体情報を表す2次元ドプラ画像データを生成する。2次元ドプラ画像データは、速度画像データ、分散画像データ、パワー画像データ、又は、これらを組み合わせた画像データである。また、画像生成部140は、ドプラ処理部130が生成したドプラデータから、血流や組織の速度情報を時系列に沿ってプロットしたドプラ波形を生成することも可能である。
 ここで、画像生成部140は、一般的には、超音波走査の走査線信号列を、テレビ等に代表されるビデオフォーマットの走査線信号列に変換(スキャンコンバート)し、表示用の超音波画像データを生成する。具体的には、画像生成部140は、超音波プローブ11による超音波の走査形態に応じて座標変換を行なうことで、表示用の超音波画像データを生成する。また、画像生成部140は、スキャンコンバート以外に種々の画像処理として、例えば、スキャンコンバート後の複数の画像フレームを用いて、輝度の平均値画像を再生成する画像処理(平滑化処理)や、画像内で微分フィルタを用いる画像処理(エッジ強調処理)等を行なう。また、画像生成部140は、超音波画像データに、種々のパラメータの文字情報、目盛り、ボディーマーク等を合成する。
 すなわち、Bモードデータ及びドプラデータは、スキャンコンバート処理前の超音波画像データであり、画像生成部140が生成するデータは、スキャンコンバート処理後の表示用の超音波画像データである。なお、Bモードデータ及びドプラデータは、生データ(Raw Data)とも呼ばれる。
 更に、画像生成部140は、Bモード処理部120が生成した3次元のBモードデータに対して座標変換を行なうことで、3次元Bモード画像データを生成する。また、画像生成部140は、ドプラ処理部130が生成した3次元のドプラデータに対して座標変換を行なうことで、3次元ドプラ画像データを生成する。すなわち、画像生成部140は、「3次元のBモード画像データや3次元ドプラ画像データ」を「3次元超音波画像データ(ボリュームデータ)」として生成する。
 更に、画像生成部140は、ボリュームデータをモニタ13にて表示するための各種の2次元画像データを生成するために、ボリュームデータに対してレンダリング処理を行なう。画像生成部140が行なうレンダリング処理としては、断面再構成法(MPR:Multi Planer Reconstruction)を行なってボリュームデータからMPR画像データを生成する処理がある。また、画像生成部140が行なうレンダリング処理としては、ボリュームデータに対して「Curved MPR」を行なう処理や、ボリュームデータに対して「Maximum Intensity Projection」を行なう処理がある。また、画像生成部140が行なうレンダリング処理としては、ボリュームレンダリング(VR:Volume Rendering)処理がある。
 画像メモリ150は、画像生成部140が生成した表示用の画像データを記憶するメモリである。また、画像メモリ150は、Bモード処理部120やドプラ処理部130が生成したデータを記憶することも可能である。画像メモリ150が記憶するBモードデータやドプラデータは、例えば、診断の後に操作者が呼び出すことが可能となっており、画像生成部140を経由して表示用の超音波画像データとなる。
 なお、画像生成部140は、超音波画像データと当該超音波画像データを生成するために行なわれた超音波走査の時間とを、心電計14から送信された心電波形に対応付けて画像メモリ150に格納する。後述する画像処理部170及び制御部180は、画像メモリ150に格納されたデータを参照することで、超音波画像データを生成するために行なわれた超音波走査時の心時相を取得することができる。
 内部記憶部160は、超音波送受信、画像処理及び表示処理を行なうための制御プログラムや、診断情報(例えば、患者ID、医師の所見等)や、診断プロトコルや各種ボディーマーク等の各種データを記憶する。また、内部記憶部160は、必要に応じて、画像メモリ150が記憶する画像データの保管等にも使用される。また、内部記憶部160が記憶するデータは、図示しないインターフェースを経由して、外部装置へ転送することができる。なお、外部装置は、例えば、画像処理用の高性能なワークステーションや、画像診断を行なう医師が使用するPC(Personal Computer)、CDやDVD等の記憶媒体、プリンター等である。
 画像処理部170は、周期的に運動する組織の運動情報を提供するために、装置本体100に設置される。例えば、画像処理部170は、画像メモリ150に格納された心臓の超音波画像データを取得して、画像処理による心臓の壁運動解析(Wall Motion Tracking、WMT)を行って心臓壁の運動情報を算出する。そして、画像処理部170は、生成した運動情報を、画像メモリ150や内部記憶部160に格納する。なお、画像処理部170が運動情報を算出する処理については、後述する。
 制御部180は、超音波診断装置の処理全体を制御する。具体的には、制御部180は、入力装置12を介して操作者から入力された各種設定要求や、内部記憶部160から読込んだ各種制御プログラム及び各種データに基づき、送受信部110、Bモード処理部120、ドプラ処理部130、画像生成部140及び画像処理部170の処理を制御する。また、制御部180は、画像メモリ150や内部記憶部160が記憶する表示用の超音波画像データをモニタ13にて表示するように制御する。また、制御部180は、画像処理部170の処理結果をモニタ13に表示するように制御したり、外部装置に出力したりするように制御する。
 ここで、第1の実施形態に係る画像処理部170が運動情報を算出する処理について説明する。なお、以下では、画像処理部170が心臓の壁運動解析を行って心臓壁の運動情報を算出する場合について説明するが、実施形態はこれに限定されるものではない。例えば、画像処理部170は、周期的に運動する組織の運動情報を生成可能である。また、画像処理部170の処理対象となる画像データは、2次元超音波画像データ群であっても、3次元超音波画像データ群であっても良い。また、心臓の壁運動解析を行う技術としては、例えば、特開2010-194298号公報に開示の技術等、公知の技術が適用可能である。
 具体的には、第1の実施形態に係る画像処理部170は、図1に示すように、取得部171と、設定部172と、追跡部173と、運動情報算出部174とを有する。
 取得部171は、少なくとも1心拍分の複数の超音波画像データを含む超音波画像データ群を取得する。例えば、操作者は、セクタプローブにより、被検体Pの心臓を含む領域を2次元走査、又は、3次元走査を行なって、心筋が描出された2次元又は3次元の超音波画像データの動画像データの撮影を行なう。この動画像データは、例えば、Bモードで収集された超音波画像データ群である。これにより、画像生成部140は、心筋の動画像データを生成し、生成した動画像データを画像メモリ150に格納する。そして、操作者は、処理対象の区間として、例えば、心電図におけるR波から次のR波までの1心拍分の区間を設定する。なお、本実施形態は、処理対象の区間が2心拍分の区間や3心拍分の区間として設定される場合であっても適用可能である。
 例えば、取得部171は、ボリュームデータ群を画像メモリ150から取得する。このボリュームデータ群は、操作者が設定した1心拍分の区間に含まれる複数のフレームの超音波ボリュームデータを含む。
 設定部172は、超音波画像データ群に含まれる少なくとも1つの超音波画像データにおける組織の輪郭に対応する位置に複数の構成点を設定する。なお、周期的に運動する心臓壁の運動情報を提供する場合には、組織の輪郭は、例えば、心臓の内膜の輪郭と、心臓の外膜の輪郭である。本実施形態では、設定部172は、操作者が用手的に設定した情報により、心臓の初期輪郭に対応する位置に、輪郭を構成する構成点を複数設定する。
 まず、操作者は、取得部171によって取得されたボリュームデータ群について、任意の心時相を指定する。ここで指定される任意の心時相は、1心拍分の区間に含まれるフレームのうちの任意のフレームであり、例えば、拡張末期時相(最初のR波時相)である。そして、操作者によって任意の心時相が指定されると、設定部172は、指定された心時相における心臓のボリュームデータのMPR処理を画像生成部140に対して実行させ、初期輪郭の設定において基準となるMPR断面(基準MPR断面)をモニタ13に表示させる。なお、ここでは、任意の心時相として拡張末期時相が指定される場合を説明したが、これに限定されるものではなく、例えば、収縮末期時相等であっても良い。
 例えば、操作者は、1つ目の基準MPR断面(MPR1)として長軸心尖断面(心尖部四腔像、apical four-chamber view、A4C)を、2つ目の基準MPR断面(MPR2)として長軸二腔断面(apical two-chamber view、A2C)をそれぞれ表示させる旨を指定する。そして、操作者は、表示された長軸心尖断面と長軸二腔断面とに対してそれぞれ初期輪郭を入力する。なお、MPR断面上には心臓の内膜や外膜のみならず、乳頭筋や腱索等も表示されているので、操作者は、拡張末期時相において、表示された基準MPR断面を観察しながら、描出されている乳頭筋や腱索等が含まれないように初期輪郭を指定する。
 設定部172は、複数の基準MPR断面に対して初期輪郭が入力されると、既知の方法によって、入力された2次元的な初期輪郭から3次元の初期輪郭を生成する。具体的には、設定部172は、MPR1及びMPR2上で指定された心臓の内膜の初期輪郭から、3次元の初期輪郭P_endoを生成する。また、設定部172は、MPR1及びMPR2上で指定された心臓の外膜の初期輪郭から、3次元の初期輪郭P_epiを生成する。
 そして、設定部172は、心臓の内膜及び外膜の3次元における初期輪郭を構成する複数の構成点に対して、アドレスをそれぞれ付与する。このアドレスは、各構成点を識別するために付与される番号であり、例えば、心臓の内膜における各構成点の位置に基づいて定義される。なお、アドレスは、番号に限らず、例えば、文字、記号等、各構成点の位置を識別可能な識別情報であっても良い。
 例えば、設定部172は、心臓の内膜の各構成点の位置をP_endo(t、h、d)と定義し、心臓の外膜の各構成点の位置を、P_epi(t、h、d)と定義する。ここで、tは、1心拍分の区間に含まれるフレーム(心時相)を表し、hは、長軸方向のアドレス番号を表し、dは、円周方向のアドレス番号を表す。なお、ここでは最初のR波時相を用いて初期断面を設定しているので、t=0である。
 図2は、操作者により設定される初期輪郭の一例を示す図である。図2に示す例では、心臓の内膜の輪郭21に対して初期輪郭を設定する場合を例示する。図2に示す各構成点は、心臓の内膜の輪郭21と、長軸方向22を通る各断面と、長軸方向22に直交する各断面(短軸断面)との交点に配置される。なお、平面23は、MPR1(A4C)であり、平面24は、MPR2(A2C)である。
 図2に示すように、設定部172は、初期輪郭とMPR1が交差する位置のうち一方を円周方向の基準位置として、その位置の構成点のdを0とする。つまり、この基準位置にある構成点の位置は、P_endo(0、h、0)と表される。そして、設定部172は、基準位置の構成点から円周方向にある構成点を順に、d=1,2,3・・・とアドレス番号を設定する。また、設定部172は、3次元の初期輪郭のうち、心尖部25から最も遠い環状輪郭の位置を長軸方向の基準位置として、その位置の構成点のhを0とする。つまり、この基準位置にある構成点の位置は、P_endo(0、0、d)と表される。そして、設定部172は、基準位置の構成点から心尖方向にある構成点を順に、h=1,2,3・・・とアドレス番号を設定する。また、設定部172は、心臓の外膜の輪郭についても同様に、円周方向の基準位置と長軸方向の基準位置とを設定し、アドレスを付与する。
 なお、ここでは、2つの基準MPR断面を用いて初期輪郭が指定される場合を説明したが、実施形態はこれに限定されるものではない。例えば、設定部172に2つ以上の基準MPR断面を用いて初期輪郭が指定されても良い。また、ここでは基準MPR断面として、長軸心尖断面と長軸二腔断面とが用いられる場合を説明したが、これに限定されるものではない。例えば、心内腔中心軸を通る他の長軸断面として、長軸三腔断面(A3C)が用いられても良いし、長軸断面と直交する短軸断面(SAXA、SAXM、SAXB等)、更には、これらの断面と所定の位置関係によって定義される断面が用いられても良い。また、複数の基準MPR断面を表示する処理は、上記のような用手的な操作に限定されるものではなく、例えば、ボリュームデータから任意の断面を自動的に検出して表示する自動断面検出により自動的に表示されてもよい。また、初期輪郭の指定は、上記の用手的な操作に限定されるものではなく、内膜輪郭形状及び外膜輪郭形状の辞書データ(例えば、過去に設定された輪郭の統計データ)を用いて、設定部172が自動的もしくは半自動的に指定することとしても良い。更に、初期輪郭の指定は、画像中の境界を検出する境界検出方法等を用いて自動的もしくは半自動的に行っても良い。
 追跡部173は、複数の構成点が設定された超音波画像データと他の超音波画像データとを用いてパターンマッチングを含む処理を行うことで、超音波画像データ群に含まれる複数の超音波画像データにおける複数の構成点の位置を追跡する。
 例えば、追跡部173は、ボリュームデータ群に含まれるフレームt=0のボリュームデータに対して、初期輪郭に対応する位置に複数の構成点が設定されると、パターンマッチングを含む処理によって、他のフレームtにおける各構成点の位置を追跡する。具体的には、追跡部173は、複数の構成点が設定済みのフレームのボリュームデータと、そのフレームと隣り合うフレームのボリュームデータとの間で、繰り返しパターンマッチングを行う。すなわち、追跡部173は、t=0のボリュームデータにおける心臓の内膜の各構成点P_endo(0、h、d)を起点として、t=1,2,3・・・の各フレームのボリュームデータにおける各構成点P_endo(t、h、d)の位置を追跡する。また、追跡部173は、心臓の外膜の各構成点P_epi(t、h、d)の位置についても心臓の内膜の各構成点の位置と同様に追跡する。この結果、追跡部173は、1心拍分の区間に含まれる各フレームについて、心臓の内膜及び外膜を構成する各構成点の座標情報を求める。
 運動情報算出部174は、各超音波画像データ群に含まれる複数の超音波画像データにおける複数の構成点の位置を用いて、複数の超音波画像データごとに組織の運動を表す運動情報を算出する。
 ここで、追跡部173によって算出される運動情報としては、例えば、各構成点の1フレームごとの移動距離(Displacement)、移動距離の時間微分によって定義される速度(Velocity)等のパラメータが挙げられる。しかしながら、運動情報は、これらのパラメータに限定されるものではなく、1心拍分の区間に含まれる各フレームにおける複数の構成点の座標情報を用いて算出可能なパラメータであれば良い。具体的には、2点間の距離の変化率である歪み(Strain)、歪みの時間微分によって定義される歪み速度(Strain Rate)、心臓内膜面の局所の面積、t=0からの面積の変化率、心臓の内膜の構成点と外膜の構成点とから定義される体積、体積の変化率等、種々のパラメータが挙げられる。更には、「ある運動情報がピーク値となるまでの時間」等、操作者が任意のパラメータを設定することも可能である。
 以下では、一例として、運動情報算出部174が「内膜面の局所面積変化率の時間微分値」を運動情報として算出する場合を説明する。なお、算出された運動情報は、算出に用いた各構成点に与えられる。具体的には、例えば、心臓の内膜の各構成点のみから算出される運動情報は、V_endo(t、h、d)と定義され、心臓の外膜の各構成点のみから算出される運動情報は、V_epi(t、h、d)と定義される。また、内膜及び外膜の各構成点から算出される運動情報は、V(t、h、d)と定義される。そして、運動情報算出部174は、算出した運動情報をボリュームデータ群ごとに画像メモリ150に格納する。
 このように、画像処理部170は、取得部171、設定部172、追跡部173及び運動情報算出部174の処理により、超音波画像データ群について、心臓の内膜及び外膜の運動情報を算出する。
 以上、第1の実施形態に係る超音波診断装置の全体構成について説明した。かかる構成のもと、第1の実施形態に係る超音波診断装置1は、以下に説明する処理により、異なる2つの超音波画像データ群について算出された運動情報を比較する場合に、比較結果を正確に算出することが可能となるように構成されている。
 例えば、第1の実施形態に係る超音波診断装置1において、ストレス負荷の前後で収集された超音波画像データ群を用いて組織の運動機能を評価するストレスエコー法が行われる場合には、画像処理部170は、少なくとも異なる2つの超音波画像データ群について上記の処理を実行することとなる。
 具体的に、画像処理部170は、被検体Pのストレス負荷前のボリュームデータ群、及び、ストレス負荷後のボリュームデータ群のそれぞれについて、任意の心時相のボリュームデータにおいて組織の輪郭に対応する位置に複数の構成点を設定する。そして、画像処理部170は、各ボリュームデータ群について、複数の構成点が設定されたボリュームデータと他のボリュームデータとを用いてパターンマッチングを含む処理を行うことで、各ボリュームデータ群に含まれる複数の超音波画像データにおける複数の点の位置を追跡する。そして、画像処理部170は、各ボリュームデータ群について、各超音波画像データ群に含まれる複数の超音波画像データにおける複数の構成点の位置を用いて、複数の超音波画像データごとに組織の運動情報を算出する。
 ところで、異なる2つの超音波画像データ群について算出された運動情報が比較される場合に、比較対象となる2つの超音波画像データ群について設定された各構成点のアドレスと解剖学的な位置が一致しているとは限らない。例えば、複数の構成点が設定される場合に、初期輪郭の設定を受け付ける基準MPR断面の解剖学的な位置が2つの超音波画像データ群において一致していなければ、2つの超音波画像データ群の各構成点に付与されるアドレスと解剖学的な位置にズレが生じてしまう。
 図3Aは、ストレス負荷前のボリュームデータ群のポーラーマップの一例を示す図であり、図3Bは、ストレス負荷後のボリュームデータ群のポーラーマップの一例を示す図である。ここで、ポーラーマップ(polar map、極座標表示)とは、心臓の内膜の輪郭21のうち、h=0から心尖部25までの短軸断面を、心尖部25を中心として重ね合わせた表示態様である。すなわち、図3A及び図3Bに例示のポーラーマップは、図2に示した心臓の内膜の輪郭21を、長軸方向22の心尖側から見た図に対応する。また、図3A及び図3Bには、MPR1(A4C)の位置26(長軸心尖断面の位置)と、MPR2(A2C)の位置27(長軸二腔断面の位置)とを示す。
 なお、ポーラーマップにおいては、図3A及び図3Bに示すように、アメリカ心エコー図学会やアメリカ心臓協会が推奨する分割領域を用いて、短軸断面の左心室心筋を、「ant-sept(前壁中隔)、ant(前壁)、lat(側壁)、post(後壁)、inf(下壁)、sept(中隔)」の6つのセグメントに分けて表示される。
 図3A及び図3Bに示すように、ストレス負荷前のボリュームデータ群において設定されたMPR1位置26と、ストレス負荷後のボリュームデータ群において設定されたMPR1位置26とでは、解剖学的な断面の位置が異なる場合がある。この場合、MPR1を基準として設定された円周方向の位置dの値と解剖学的な位置にズレが生じてしまう。
 そこで、第1の実施形態に係る超音波診断装置1は、異なる2つの超音波画像データ群について算出された運動情報を比較する場合に、比較結果を正確に算出するために、以下に説明する制御部180の処理を実行する。
 以下、第1の実施形態では、異なる2つの超音波画像データ群について算出された運動情報を比較する場合として、ストレスエコー法が行われる場合を説明することとし、説明に用いる各種パラメータを下記のように定義する。
 ストレス負荷前の心臓の内膜の構成点P_endo_1(t、h、d)
 ストレス負荷後の心臓の内膜の構成点P_endo_2(t、h、d)
 ストレス負荷前の心臓の外膜の構成点P_epi_1(t、h、d)
 ストレス負荷後の心臓の外膜の構成点P_epi_2(t、h、d)
 ストレス負荷前の心臓の内膜の運動情報V_endo_1(t、h、d)
 ストレス負荷後の心臓の内膜の運動情報V_endo_2(t、h、d)
 ストレス負荷前の心臓の外膜の運動情報V_epi_1(t、h、d)
 ストレス負荷後の心臓の外膜の運動情報V_epi_2(t、h、d)
 なお、実施形態は、ストレスエコー法が行われる場合のみならず、例えば、治療前と治療後、治療直後と治療数ヶ月後、或いは前回の健康診断時と今回の健康診断時等、2つの超音波画像データ群から算出された運動情報が比較される場合に広く適用されるものである。また、例えば、被検体の超音波画像データ群と、他者の超音波画像データ群(例えば、基準となる健常者の代表的な超音波画像データ群等)とからそれぞれ算出された運動情報が比較される場合に適用されても良い。
 第1の実施形態に係る制御部180は、図1に示すように、位置合わせ部181と、比較結果算出部182と、出力制御部183とを有する。
 位置合わせ部181(識別情報変更部)は、第1の超音波画像データ群に含まれる第1の超音波画像データにおける複数の構成点のアドレスと、第2の超音波画像データ群に含まれる複数の超音波画像データのうち第1の超音波画像データと同一時相の第2の超音波画像データにおける複数の構成点のアドレスとに基づいて、第1の超音波画像データ群に含まれる各超音波画像データと第2の超音波画像データ群に含まれる各超音波画像データとの位置合わせを行う。
 言い換えると、位置合わせ部181は、時相が異なる複数の超音波画像データをそれぞれ含む第1の超音波画像データ群に含まれる第1の超音波画像データにおける組織の輪郭に対応する複数の点に対して付与された識別情報を変更する。
 例えば、位置合わせ部181は、比較対象となる2つのボリュームデータ群を画像メモリ150から取得する。そして、位置合わせ部181は、取得した各ボリュームデータ群に設定された各構成点のアドレスを定義する基準位置を変更する。
 具体的には、位置合わせ部181は、異なる2つのボリュームデータ群にそれぞれ含まれるボリュームデータそれぞれについて、複数の構成点の位置のうち基準となる基準位置を示す情報をモニタ13に表示させる。そして、位置合わせ部181は、操作者から各基準位置を変更する指示を受け付け、指示によって変更された基準位置に応じて各ボリュームデータにおける複数の構成点のアドレスを変更することで、各ボリュームデータの位置合わせを行う。また、位置合わせ部181は、指示によって基準位置が変更されるごとに、変更された基準位置を含む断面を表す超音波画像データをモニタ13に表示させる。
 図4は、第1の実施形態に係る位置合わせ部181の処理を説明するための図である。図4には、位置合わせ部181の処理によってモニタ13に表示される表示画像の一例を示す。図4に示す例では、モニタ13に表示される表示画像は、ストレス負荷後のポーラーマップ28と、ストレス負荷前の断層像を表示する表示領域29と、ストレス負荷後の断層像を表示する表示領域30とを含む。なお、ポーラーマップ28は、ストレス負荷前のものであっても良い。また、ストレス負荷前のポーラーマップと、ストレス負荷後のポーラーマップとをそれぞれモニタ13に表示させても良い。
 図4に示すように、位置合わせ部181は、ポーラーマップ28上に、基準MPR断面(d=0)の位置を表すマーカを表示させる。具体的に、位置合わせ部181は、ストレス負荷前の構成点P_endo_1(t1、h、0)の位置を示すマーカ31と、ストレス負荷後の構成点P_endo_2(t2、h、0)の位置を示すマーカ32とを画像生成部140に生成させ、モニタ13に表示させる。そして、位置合わせ部181は、マーカ31の位置を含む長軸断面の断層像を画像生成部140に生成させ、表示領域29に表示させる。また、位置合わせ部181は、マーカ32の位置を含む長軸断面の断層像を画像生成部140に生成させ、表示領域30に表示させる。このとき、表示領域29の断層像は、ストレス負荷前のMPR1の断層像に対応し、表示領域30の断層像は、ストレス負荷後のMPR1の断層像に対応する。ここで、表示領域30に描出された左心室(図中LV)は、表示領域29に描出された左心室に比べて狭く描出されているので、操作者は、表示領域30の断層像が表示領域29の断層像とは解剖学的に異なる位置であると判断できる。
 ここで、位置合わせ部181は、操作者からマーカ31及びマーカ32の位置を変更する指示を受け付ける。例えば、操作者がマウスのドラッグアンドドロップ操作によってマーカ32の位置を矢印の方向へ移動させる指示を受け付ける。
 図5は、第1の実施形態に係る位置合わせ部181の処理を説明するための図である。図5には、図4に例示の表示画像に対してマーカ32の位置を変更する指示を受け付けた場合の表示画像の一例を示す。なお、図5において、移動後のマーカ33が表示されていれば、移動前のマーカ32は表示されなくても良いが、ここでは説明の便宜上、両者を表示した場合を例示する。
 図5に示すように、位置合わせ部181は、操作者から受け付けた指示に応じて、マーカ32の位置をマーカ33の位置に移動させ、移動後のマーカ33の位置に基準位置を変更する。つまり、位置合わせ部181は、マーカ33の位置が移動したアドレス数に応じて、基準位置を短軸断面の円周方向に回転させる。これに伴い、位置合わせ部181は、移動後のマーカ33の位置を含む長軸断面の断層像を画像生成部140に生成させ、表示領域30に表示させる。これにより、操作者は、表示領域29及び表示領域30を参照し、表示領域29の断層像と表示領域30の断層像とが一致していると判断されるまで、繰り返しマーカ33の位置を変更する。そして、操作者は、図5に示すように、表示領域29の断層像と表示領域30の断層像とが一致していると判断される場合のマーカ33の位置を用いて、基準位置の変更を確定する指示を行う。なお、ここでは、ストレス負荷後の基準位置を表すマーカ32の位置を移動させる場合を例示したが、ストレス負荷前の基準位置を表すマーカ31の位置を移動させても良い。
 位置合わせ部181は、基準位置の変更を確定する指示を受け付けると、変更されたアドレス数に応じて構成点のアドレスを変更する。例えば、移動後のマーカ33が移動前のマーカ32に対してαアドレス分増加する方向へ移動していた場合には、位置合わせ部181は、各構成点のdをd+αに変更することで、円周方向にある各構成点のアドレスをαアドレス分移動させる。
 例えば、dが0番から99番までの100個のアドレスであり、5アドレス分減少する方向へ移動していた場合には、位置合わせ部181は、d=50のアドレスをd’=50-5=45として求める。また、位置合わせ部181は、d=0のアドレスを5アドレス分減少させると、d’=0-5=-5となるが、0番の隣は99番なので、95番となる。なお、位置合わせ部181は、計算式としては、(d-α+100)を100で割ったときの余りを求めることとする。
 なお、ここでは、ある短軸断面において、円周方向にある各構成点のアドレスを変更する(回転させる)場合を例示したが、この操作によって、他の短軸断面についてもアドレスを変更できる。すなわち、位置合わせ部181は、この短軸断面において変更された基準位置の、他の短軸断面における位置を求めることで、他の短軸断面において変更するアドレスが求まるからである。
 また、ここでは、操作者が、マーカの位置を変更した後に、基準位置の変更を確定する指示を行うことで、位置合わせ部181に構成点のアドレスを変更させる場合を説明したが、実施形態はこれに限定されるものではない。例えば、マーカの位置を変更する操作そのものが確定する指示を含んでいても良い。すなわち、位置合わせ部181は、マーカの位置が操作者によって変更されるごとに、変更されたマーカの位置に基づいて構成点のアドレスを変更しても良い。
 比較結果算出部182は、第1及び第2の超音波画像データ群に含まれる同一時相の超音波画像データの運動情報を比較し、比較パラメータを算出する。なお、比較パラメータは、比較結果の一例である。
 例えば、比較結果算出部182は、位置合わせ部181によって位置合わせが行われた同一アドレスを有する運動情報について、比較パラメータを算出する。具体的には、比較結果算出部182は、少なくとも1つ以上の所定の心時相で得られる運動情報を用いて比較パラメータを算出する。ここで言う所定の心時相とは、例えば、拡張早期において運動情報がピークになる時相であるが、これに限定されるものではなく、収縮期において運動情報がピークになる時相、収縮末期時相、拡張後期において運動情報がピークになる時相、一心周期において運動情報がピークになる時相等が挙げられる。
 ここで、比較結果算出部182が、拡張早期において運動情報がピークになる時相において、心臓内膜面の局所面積変化率の時間微分値の拡張早期におけるピーク値を用いて比較パラメータを算出する場合を説明する。この拡張早期におけるピーク値は、心筋の拡張能を表す指標であり、この値が小さくなることは、心筋が拡張するスピードが遅くなることを意味する。具体的には、ストレス負荷前に正常な拡張運動をしている被検体に対して負荷を与えていくと、正常心筋部位では心臓のポンプ機能を増大させるために、ピーク値の絶対値がストレス負荷前に比べて大きくなる。これに対して、ストレス負荷を与えることで心筋虚血等が誘発され拡張能が低下する部位では、その部位における拡張速度が低下するため、ピーク値の絶対値はストレス負荷前に比べて小さくなる。すなわち、拡張早期におけるピーク値をストレス負荷の前後で比較することで、心臓の正常部位と拡張能低下部位とを区別することが可能となる。
 ここで、拡張早期における運動情報のピーク値を検出する処理について説明する。例えば、比較結果算出部182は、追跡部173によって求められた心臓内膜の各構成点の時間変化から、内膜内の体積が最も小さくなる時相を収縮末期時相として特定する。そして、比較結果算出部182は、特定した収縮末期時相から次のR波までの間を拡張期として特定する。そして、比較結果算出部182は、拡張期におけるピーク値を検出し、検出した最大値と2番目に大きい値のうち、早い時相のものを、拡張早期のピーク値として検出する。なお、最大値と2番目に大きい値のうち早い時相のものを拡張早期のピーク値とするのは、拡張後期の左心房収縮によって起こる左室壁の動きを表すピーク値を検出してしまう可能性があるからである。また、収縮末期時相は、ECG信号から検出したT波の終わりの時相を収縮末期としても良い。なお、この処理は、運動情報算出部174によって実行されても良い。
 例えば、比較結果算出部182は、下記の式(1)から式(3)のうち少なくとも一つを用いることで、比較パラメータを算出する。ここで、式(1)は、ストレス負荷前に対するストレス負荷後の比率を表し、式(2)は、ストレス負荷前及びストレス負荷後における差分を表し、式(3)は、ストレス負荷前に対するストレス負荷後の変化率を表す。
 V_endo_2_max(h、d)/V_endo_1_max(h、d)・・・(1)
 V_endo_2_max(h、d)-V_endo_1_max(h、d)・・・(2)
 {V_endo_2_max(h、d)-V_endo_1_max(h、d)}/V_endo_1_max(h、d)・・・(3)
 式(1)から(3)において、V_endo_1_max(h、d)は、ストレス負荷前の拡張早期におけるピーク値を示し、V_endo_2_max(h、d)は、ストレス負荷後の拡張早期におけるピーク値を示す。
 例えば、比較結果算出部182は、式(1)から式(3)のうち、予め指定した任意の式について自動的に比較パラメータを算出する。或いは、例えば、比較結果算出部182は、比較パラメータを算出する度に、式(1)から式(3)の少なくとも一つを指定する指示を操作者から受け付けて、指定された式による比較パラメータのみを算出する。
 なお、例えば、比較結果算出部182は、運動情報V_endo_1_max及びV_endo_2_max(h、d)の両方について空間方向に平均してから、上述した比較パラメータの算出を行っても良い。例えば、比較結果算出部182は、円周方向の各運動情報について平均化処理を行ってから、比較パラメータの算出を行う。これは、解剖学的な位置ずれが起こる可能性のある方向に平均化処理を行うことで、比較パラメータにおける位置ずれの影響を軽減することができるからである。
 また、拡張早期における運動情報のピーク値は、上記の方法のみならず、用手的な方法によっても検出可能である。例えば、操作者がピーク値を検出したい区間として、例えば、画面上に表示されているECG上で、区間のスタートとエンドの時相を指定する。R波の頂点からT波の終わりまでが心室の収縮期で、T波の終わりから次のR波の頂点までが拡張期に相当する。また、P波では左心房収縮が起こる。よって、ピーク値を検出したい区間のスタート時相はT波の終わり付近を指定し、エンド時相はT波の終わり付近からP波の間の任意の時相を指定する。これにより、拡張早期のピーク値を検出することができる。
 出力制御部183は、比較パラメータを出力する。例えば、出力制御部183は、比較パラメータの大きさに対応する色を決定し、各構成点の座標情報と、その構成点に割り当てられた色を示す情報を用いて、比較パラメータをカラー表示するためのカラー画像を画像生成部140に生成させる。そして、出力制御部183は、生成されたカラー画像を、例えば、ボリューム像(プラスチックバッグ、レンダリング画像)、MPR画像、ポーラーマップ等に重畳させてモニタ13に表示させる。
 例えば、出力制御部183は、上記の式(3)を用いて比較パラメータが算出された場合、変化率の符号の「+」を暖色系の色(例えば赤色)、「-」を寒色系の色(例えば青色)、変化率の大きさを色相(あるいは輝度であっても良い)で表現する。このため、ストレス負荷前は正常な壁運動を行う患者に対して、ストレス負荷を与えてゆくと、正常な心筋では心臓のポンプ機能が増大するため、比較パラメータは0以上となり、暖色系で表示される。これに対して、心筋虚血が誘発され壁運動の低下部位が出現すると、その領域での比較パラメータが負の値になるため寒色系で表示される。これにより、正常な心筋と壁運動の低下部位とを容易に区別することができる。
 なお、出力制御部183が比較パラメータを出力する出力形態は、上記のカラー画像に限定されるものではない。例えば、出力制御部183は、比較パラメータを数値としてモニタ13に表示出力しても良いし、比較パラメータの時間変化を表すグラフを生成してグラフとして表示出力しても良い。また、例えば、出力制御部183は、比較パラメータを各種記録媒体に格納しても良いし、外部装置に送信しても良い。
 図6は、第1の実施形態に係る超音波診断装置の処理を説明するためのフローチャートである。図6に示す処理は、例えば、処理対象となる超音波画像データ群が指定されることで開始される。
 図6に示すように、第1の実施形態に係る超音波診断装置1において、取得部171は、処理対象となる超音波画像データ群を取得する(ステップS101)。そして、設定部172は、超音波画像データ群に含まれる少なくとも1つの超音波画像データにおける組織の輪郭に対応する位置に複数の構成点を設定する(ステップS102)。
 続いて、追跡部173は、複数の構成点が設定された超音波画像データと他の超音波画像データとを用いてパターンマッチングを含む処理を行うことで、超音波画像データ群に含まれる複数の超音波画像データにおける複数の構成点の位置を追跡する(ステップS103)。そして、運動情報算出部174は、各超音波画像データ群に含まれる複数の超音波画像データにおける複数の構成点の位置を用いて、複数の超音波画像データごとに組織の運動を表す運動情報を算出する(ステップS104)。
 続いて、位置合わせ部181は、異なる2つの超音波画像データ群それぞれに含まれる各超音波画像データの位置合わせを行う(ステップS105)。例えば、位置合わせ部181は、異なる2つのボリュームデータ群にそれぞれ含まれるボリュームデータそれぞれについて、複数の構成点の位置のうち基準となる基準位置を示す情報をモニタ13に表示させる。そして、位置合わせ部181は、操作者から各基準位置を変更する指示を受け付け、指示によって変更された基準位置に応じて各ボリュームデータにおける複数の構成点のアドレスを変更することで、各ボリュームデータの位置合わせを行う。また、位置合わせ部181は、指示によって基準位置が変更されるごとに、変更された基準位置を含む断面を表す超音波画像データをモニタ13に表示させる。
 比較結果算出部182は、2つの超音波画像データ群に含まれる同一時相の超音波画像データの運動情報を比較し、比較パラメータを算出する(ステップS106)。そして、出力制御部183は、算出された比較パラメータを出力し(ステップS107)、処理を終了する。
 なお、上記の処理は一例であり、必ずしも上記の順序で実行されなくても良い。例えば、図6に示したステップS101からステップS107までの各処理は、図示のように一連の処理として実行されなくても良い。具体的に、画像処理部170が超音波画像データ群について運動情報を算出する処理であるステップS101からステップS104までの各処理と、制御部180が異なる2つの超音波画像データ群について位置合わせを行って比較する処理であるステップS105からステップS106の各処理とは、それぞれ異なるタイミングで行われて良い。
 また、例えば、比較結果算出部182が比較パラメータを算出する処理であるステップS106の処理は、必ずしもステップS105の処理の後に実行されなくても良い。具体的には、位置合わせ部181によって位置合わせが行われる前に、異なる2つの超音波画像データ群について同一時相の超音波画像データの運動情報を比較し、比較パラメータを算出しても良い。その後に、位置合わせ部181が位置合わせを行うと、比較結果算出部182は、位置合わせが行われた2つの超音波画像データ群について、比較パラメータを再び算出しても良い。すなわち、比較結果算出部182は、位置合わせ部181によって位置合わせが行われるごとに、位置合わせが行われた2つの超音波画像データ群について比較パラメータを算出しても良い。
 すなわち、超音波診断装置1において、位置合わせ部181は、時相が異なる複数の超音波画像データをそれぞれ含む第1の超音波画像データ群に含まれる第1の超音波画像データにおける組織の輪郭に対応する複数の点に対して付与された識別情報を変更する。そして、比較結果算出部182は、第1の超音波画像データにおける複数の点の変更後の識別情報と、時相が異なる複数の超音波画像データを含む第2の超音波画像データ群のうち第1の超音波画像データの時相に対応する第2の超音波画像データにおける組織の輪郭に対応する複数の点に対して付与された識別情報を対応させ、この対応に基づいて第1の超音波画像データ群及び第2の超音波画像データ群に含まれる各超音波画像データにおける前記組織の運動を表す運動情報を対応する時相間で比較し、比較結果を算出する。そして、出力制御部183は、比較結果を出力する。これにより、操作者は、ある超音波画像データ群について、任意の断層像が基準位置となるように、アドレスを変更することができる。
 上述してきたように、第1の実施形態に係る超音波診断装置1は、少なくとも1心拍分の複数の超音波画像データをそれぞれ含む第1及び第2の超音波画像データ群について、第1の超音波画像データ群に含まれる第1の超音波画像データにおける組織の輪郭に対応する位置に設定された複数の点のアドレスと、第2の超音波画像データ群に含まれる複数の超音波画像データのうち第1の超音波画像データと同一時相の第2の超音波画像データにおける複数の点のアドレスとに基づいて、第1の超音波画像データ群に含まれる各超音波画像データと第2の超音波画像データ群に含まれる各超音波画像データとの位置合わせを行う。そして、超音波診断装置1は、位置合わせが行われた後に、第1及び第2の超音波画像データ群に含まれる同一時相の超音波画像データにおける前記組織の運動を表す運動情報を比較し、比較結果を算出する。このため、第1の実施形態に係る超音波診断装置1は、比較結果をより正確に算出することができる。
 例えば、異なる2つの超音波画像データ群について算出された運動情報が比較される場合に、比較対象となる2つの超音波画像データ群について設定された各構成点のアドレスが一致しているとは限らない。このため、これら2つの超音波画像データ群をそのまま用いて比較パラメータを算出しても、比較パラメータを正確に算出することは難しかった。
 これに対して、第1の実施形態に係る超音波診断装置1は、第1の超音波画像データ群に含まれる第1の超音波画像データにおける複数の構成点のアドレスと、第2の超音波画像データ群に含まれる複数の超音波画像データのうち第1の超音波画像データと同一時相の第2の超音波画像データにおける複数の構成点のアドレスとの位置合わせを行う。そして、超音波診断装置1は、位置合わせを行った2つの超音波画像データ群について、比較パラメータを算出する。このため、超音波診断装置1は、異なる2つの超音波画像データ群について算出された運動情報を比較する場合に、比較結果をより正確に算出することができる。
 また、例えば、第1の実施形態に係る超音波診断装置1は、異なる2つの超音波画像データ群にそれぞれ含まれる超音波画像データそれぞれについて、複数の構成点の位置のうち基準となる基準位置を示すマーカをモニタ13に表示させる。そして、超音波診断装置1は、表示したマーカによって操作者から各基準位置を変更する指示を受け付け、指示によって変更された基準位置に応じて各超音波画像データにおける複数の構成点のアドレスを変更することで、各超音波画像データの位置合わせを行う。このため、操作者は、簡易な操作で各超音波画像データ群の位置合わせを行うことができる。
 また、例えば、第1の実施形態に係る超音波診断装置1は、操作者からの指示によって基準位置が変更されるごとに、変更された基準位置を含む断面を表す超音波画像データをモニタ13に表示させる。このため、操作者は、処理対象となる2つの超音波画像データ群について、基準位置の断層像を確認しながら基準位置を変更させることができるので、基準位置の断層像同士が一致する位置を容易に指定することができる。
(第2の実施形態)
 第1の実施形態では、超音波診断装置1が異なる2つの超音波画像データ群に含まれる同一時相のフレームの運動情報から比較パラメータを算出する場合を説明した。そこで、第2の実施形態では、超音波診断装置1が、複数フレームに跨る時系列の比較パラメータを算出する場合を説明する。
 図7は、第2の実施形態に係る超音波診断装置の構成例を示すブロック図である。図7に示すように、第2の実施形態に係る超音波診断装置1は、図1に示した超音波診断装置1と比較して、同期部184を有する点と、比較結果算出部182における処理の一部が相違する。そこで、第2の実施形態では、第1の実施形態と相違する点について説明することとし、同様の点については説明を省略する。
 第2の実施形態に係る同期部184は、異なる2つの超音波画像データ群のうち、一方の超音波画像データ群に含まれる所定期間と、もう一方の超音波画像データ群において所定期間に対応する期間とを同期させる。
 例えば、同期部184は、位置合わせ部181による位置合わせが行われた後に、異なる2つのボリュームデータ群のうち、少なくとも1つ以上の所定の心時相について同期を行う。ここで言う所定の心時相とは、所定の区間であり、収縮期、拡張期、一心周期等の期間に対応する。なお、同期部184は、必ずしも完全に一致する心時相のフレームの運動情報が存在しなくても、対応する心時相間で運動情報を比較することを可能にする。例えば、拡張期30%の心時相のフレームの運動情報を比較する場合には、そのフレームの超音波画像データ群が存在するとは限らない。この場合、同期部184は、以下に説明する同期処理によって拡張期30%のフレームを補完することで、拡張期30%の心時相の比較を可能にする。
 図8から図11は、第2の実施形態に係る同期部184の処理を説明するための図である。図8には、ストレス負荷前のボリュームデータ群のフレームレートと、ストレス負荷後のボリュームデータ群のフレームレートとを例示する。また、図9には、図8に示した2つのボリュームデータ群をR-ES区間で同期させた場合を例示する。また、図10には、図8に示した2つのボリュームデータ群をR-R区間で同期させた場合を例示する。また、図11には、図8に示した2つのボリュームデータ群をR-ES区間及びES-R区間でそれぞれ同期させた場合を例示する。なお、R-ES区間とは、心電図におけるR波から次の収縮末期(ES:End Systole)までの区間を示す。また、R-R区間とは、R波から次のR波までの区間を示す。また、ES-R区間とは、収縮末期から次のR波までの区間を示す。
 図8に示すように、異なる2つの超音波画像データ群において、複数フレームに跨って同一の時間に同一時相のフレームが存在するとは限らない。例えば、ストレス負荷前とストレス負荷後で被検体Pの心拍数が変化した場合や、超音波画像データ群を収集するフレームレートが異なる場合等には、複数フレームに跨って同一の時間に同一時相のフレームが存在するとは限らない。具体的には、図8に示す例では、2つのボリュームデータ群について、一心周期の最初のR波の時間を一致させたとしても、その後、複数フレームに跨って同一の時間に一致するフレームは存在しない。そこで、第2の実施形態に係る同期部184は、図9から図11に示すように、異なる2つの超音波画像データ群を、一心周期のうちの所定区間について同期させる。
 図9に示すように、例えば、同期部184は、一心周期のうちのR-ES区間について、ストレス負荷前のフレームレートにストレス負荷後のフレームレートを同期させる。これにより、ストレス負荷前の各フレームに対して、同一の時間に同一時相のフレームがストレス負荷後のボリュームデータ群にあれば、比較結果算出部182によって比較可能となる。また、同一の時間に同一時相のフレームがストレス負荷後のボリュームデータ群に無ければ、同期部184は、ストレス負荷前のフレームに最も近いフレームを対応付けたり、ストレス負荷前のフレームに対応するフレームを補間したりする。フレームを補間する場合には、例えば、同期部184は、補間する時間の前後のフレームの運動情報の平均値又は重み付け平均値を算出し、これを補間フレームとして利用する。
 また、例えば、同期部184は、図10に示すように、一心周期のうちのR-R区間について、ストレス負荷前のフレームレートにストレス負荷後のフレームレートを同期させても良い。また、例えば、同期部184は、図11に示すように、一心周期のうちのR-ES区間及びES-R区間それぞれについて、ストレス負荷前のフレームレートにストレス負荷後のフレームレートを同期させる。なお、同期部184は、図10及び図11に示した場合にも、図9で説明したように、同一の時間のフレームがストレス負荷後のボリュームデータ群に無ければ、同期部184は、ストレス負荷前のフレームに最も近いフレームを対応付けたり、ストレス負荷前のフレームに対応するフレームを補間したりしても良い。
 このように、同期部184は、異なる2つのボリュームデータ群のうち、R-ES区間、R-R区間、ES-R区間等の所定の心時相について同期を行う。そして、同期部184は、同期を行った2つのボリュームデータ群を比較結果算出部182へ出力する。
 第2の実施形態に係る比較結果算出部182は、同期部184による同期が行われた後に、異なる2つの超音波画像データ群に含まれる同一期間の超音波画像データの運動情報を比較し、比較パラメータを算出する。
 例えば、比較結果算出部182は、同期部184によって同期された所定の心時相に含まれる複数フレームに跨って時系列の比較パラメータを算出する。具体的に、比較結果算出部182は、下記の式(4)から式(6)のうち少なくとも一つを用いることで、比較パラメータを算出する。
 V_endo_2(t2、h、d)/V_endo_1(t1、h、d)・・・(4)
 V_endo_2(t2、h、d)-V_endo_1(t1、h、d)・・・(5)
 {V_endo_2(t2、h、d)-V_endo_1(t1、h、d)}/V_endo_1(t1、h、d)・・・(6)
 なお、t2は、V_endo_2が有する時相のうち、同期部184によってt1に同期された時相に対応する。比較結果算出部182は、上記の式(1)から式(3)までのうち少なくとも一つを選択し、同期部184によって同期された所定の心時相に含まれる各フレームに跨って比較パラメータを算出する。
 このように、第2の実施形態に係る超音波診断装置1は、位置合わせが行われた後に、所定の心時相について同期を行い、同期した所定の心時相に含まれる各フレームに跨って比較パラメータを算出することで、時系列の比較パラメータを算出することができる。
(第3の実施形態)
 さて、これまで第1及び第2の実施形態について説明したが、上述した実施形態以外にも、種々の異なる形態にて実施されてもよい。
(アドレス)
 例えば、上記の実施形態では、各構成点に付与された番号をアドレスとして説明したが、これに限らず、例えば、文字、記号等、各構成点の位置を識別可能な識別情報であっても良い。すなわち、アドレスは、組織の輪郭に対応する複数の点に対して付与された識別情報である。また、上記の実施形態において、アドレスは、図2で説明したように、所定のルール(規則)に従って各構成点に付与される。
(識別情報の変更)
 例えば、上記の実施形態では、超音波診断装置1が異なる2つの超音波画像データ群の位置合わせを行う場合を説明したが、実施形態はこれに限定されるものではない。例えば、超音波診断装置1は、1つの超音波画像データ群に対して付与済みのアドレス(識別情報)を変更する場合であっても良い。
 具体的には、図4に示した例では、操作者が、表示領域29及び表示領域30の各断層像を目視確認(比較)しながらマーカ32を矢印の方向へ移動させることで、ストレス負荷後のアドレスをストレス負荷前のアドレスに合わせる位置合わせについて説明した。しかしながら、操作者は、必ずしも表示領域29及び表示領域30の各断層像を比較しなくとも、アドレスを変更することが可能である。
 一例として、図4のモニタ13の表示領域に、ポーラーマップ28及び表示領域30が表示される場合に、アドレスが変更される場合を説明する。この場合、例えば、位置合わせ部181は、操作者からマーカ32の位置を矢印の方向へ移動させる指示を受け付ける。位置合わせ部181は、操作者から受け付けた指示に応じて、マーカ32の位置をマーカ33の位置に移動させ、移動後のマーカ33の位置に基準位置を変更する(図5参照)。これに伴い、位置合わせ部181は、移動後のマーカ33の位置を含む長軸断面の断層像を画像生成部140に生成させ、表示領域30に表示させる。これにより、操作者は、表示領域30に任意の断層像が表示されると判断されるまで、繰り返しマーカ33の位置を変更することができる。そして、位置合わせ部181は、操作者から基準位置の変更を確定する指示を受け付けると、変更されたアドレス数に応じて構成点のアドレスを変更する。なお、アドレスの変更に用いる計算式は、上述した計算式と同様であるので、説明を省略する。
(2次元画像の位置合わせ)
 また、例えば、上述した実施形態では、超音波プローブ11によって収集された3次元のボリュームデータについて位置合わせを行う場合を説明したが、必ずしも3次元のボリュームデータでなくても良い。例えば、異なる2つの2次元の短軸画像が取得される場合に、各短軸画像上に基準位置を示すマーカを表示させ、位置合わせを行っても良い。
(対応する時相間での比較)
 また、例えば、上記の実施形態では、同一時相における超音波画像データの運動情報を比較する場合を説明したが、これは完全に一致する時相のフレームの比較のみを指すものではない。すなわち、比較対象である異なる2つの超音波画像データ群において、完全に一致する時相のフレームが存在しなくとも、対応する時相間で運動情報を比較することが可能である。例えば、時相の近いフレーム同士を比較したり、同期部184による同期処理によって補完したフレームを用いて比較したりしても良い。
(心臓以外の臓器への適用)
 また、上記の画像処理方法が適用される臓器は、心臓に限らず、心周期に同期して拡張と収縮を繰り返す頸動脈等の動脈血管であっても良い。
(医用画像診断装置への適用)
 また、上記の画像処理方法は、X線診断装置や、X線CT装置、MRI装置等、テンプレートマッチング処理により関心領域の追跡が可能な医用画像データの2次元又は3次元の動画像データに対して適用される場合であっても良い。すなわち、上記の第1及び第2の実施形態で説明した画像処理方法は、超音波診断装置以外の医用画像診断装置で行なわれる場合であっても良い。また、上記の画像処理方法は、医用画像診断装置とは独立に設置された画像処理装置により実行される場合であっても良い。
(その他)
 また、上記の実施形態において、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。更に、各装置にて行なわれる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、或いは、ワイヤードロジックによるハードウェアとして実現され得る。
 また、上記の実施形態及び変形例で説明した画像処理方法は、あらかじめ用意された画像処理プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この画像処理プログラムは、インターネット等のネットワークを介して配布することができる。また、この画像処理プログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。
 以上、説明した少なくともひとつの実施形態によれば、比較結果をより正確に算出することができる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、請求の範囲に記載された発明とその均等の範囲に含まれるものである。

Claims (8)

  1.  時相が異なる複数の医用画像データをそれぞれ含む第1の医用画像データ群に含まれる第1の医用画像データにおける組織の輪郭に対応する複数の点に対して付与された識別情報を変更する識別情報変更部と、
     前記第1の医用画像データにおける前記複数の点の変更後の識別情報と、時相が異なる複数の医用画像データをそれぞれ含む第2の医用画像データ群のうち前記第1の医用画像データの時相に対応する第2の医用画像データにおける組織の輪郭に対応する複数の点に対して付与された識別情報とを対応させ、この対応に基づいて前記第1の医用画像データ群及び前記第2の医用画像データ群に含まれる各医用画像データにおける前記組織の運動を表す運動情報を対応する時相間で比較し、比較結果を算出する比較結果算出部と、
     前記比較結果を出力する出力制御部と、
     を備える、医用画像診断装置。
  2.  前記比較結果算出部は、前記第1の医用画像データ群及び前記第2の医用画像データ群にそれぞれ含まれる前記運動情報のうち、同じ識別情報に対応する運動情報を比較する、請求項1に記載の医用画像診断装置。
  3.  前記識別情報変更部は、前記第1及び第2の医用画像データそれぞれについて、前記複数の点の位置のうち基準となる基準位置を示す情報を表示部に表示させるとともに、操作者から各基準位置を変更する指示を受け付け、当該指示によって変更された前記基準位置に応じて各医用画像データにおける前記複数の点の識別情報を変更することで、各医用画像データの位置合わせを行う、請求項1に記載の医用画像診断装置。
  4.  前記識別情報変更部は、更に、前記医用画像データがボリュームデータである場合には、前記指示によって前記基準位置が変更されるごとに、変更された基準位置を含む断面を表す医用画像データを前記表示部に表示させる、請求項3に記載の医用画像診断装置。
  5.  前記第1の医用画像データ群に含まれる所定期間と、前記第2の医用画像データ群において当該所定期間に対応する期間とを同期させる同期部を更に備え、
     前記比較結果算出部は、前記同期部による同期が行われた後に、前記第1及び第2の医用画像データ群に含まれる同じ期間の医用画像データの運動情報を比較し、比較結果を算出する、請求項1に記載の医用画像診断装置。
  6.  前記医用画像診断装置は、超音波画像診断装置である、請求項1~5のいずれか1つに記載の医用画像診断装置。
  7.  時相が異なる複数の医用画像データを含む第1の医用画像データ群に含まれる第1の医用画像データにおける組織の輪郭に対応する複数の点に対して付与された識別情報を変更する識別情報変更部と、
     前記第1の医用画像データにおける前記複数の点の変更後の識別情報と、時相が異なる複数の医用画像データをそれぞれ含む第2の医用画像データ群のうち前記第1の医用画像データの時相に対応する第2の医用画像データにおける組織の輪郭に対応する複数の点に対して付与された識別情報とを対応させ、この対応に基づいて前記第1の医用画像データ群及び前記第2の医用画像データ群に含まれる各医用画像データにおける前記組織の運動を表す運動情報を対応する時相間で比較し、比較結果を算出する比較結果算出部と、
     前記比較結果を出力する出力制御部と、
     を備える、医用画像処理装置。
  8.  時相が異なる複数の超音波画像データを含む第1の超音波画像データ群に含まれる第1の超音波画像データにおける組織の輪郭に対応する複数の点に対して付与された識別情報を変更する識別情報変更手順と、
     前記第1の超音波画像データにおける前記複数の点の変更後の識別情報と、時相が異なる複数の超音波画像データをそれぞれ含む第2の超音波画像データ群のうち前記第1の超音波画像データの時相に対応する第2の超音波画像データにおける組織の輪郭に対応する複数の点に対して付与された識別情報とを対応させ、この対応に基づいて前記第1の超音波画像データ群及び前記第2の超音波画像データ群に含まれる各超音波画像データにおける前記組織の運動を表す運動情報を対応する時相間で比較し、比較結果を算出する比較結果算出手順と、
     前記比較結果を出力する出力制御手順と、
     をコンピュータに実行させる、制御プログラム。
PCT/JP2014/055825 2013-03-06 2014-03-06 医用画像診断装置、医用画像処理装置及び制御プログラム WO2014136899A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201480011999.8A CN105025806B (zh) 2013-03-06 2014-03-06 医用图像诊断装置、医用图像处理装置以及医用图像处理方法
US14/824,624 US9855024B2 (en) 2013-03-06 2015-08-12 Medical diagnostic imaging apparatus, medical image processing apparatus, and control method for processing motion information

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-044777 2013-03-06
JP2013044777A JP6125281B2 (ja) 2013-03-06 2013-03-06 医用画像診断装置、医用画像処理装置及び制御プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/824,624 Continuation US9855024B2 (en) 2013-03-06 2015-08-12 Medical diagnostic imaging apparatus, medical image processing apparatus, and control method for processing motion information

Publications (1)

Publication Number Publication Date
WO2014136899A1 true WO2014136899A1 (ja) 2014-09-12

Family

ID=51491407

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/055825 WO2014136899A1 (ja) 2013-03-06 2014-03-06 医用画像診断装置、医用画像処理装置及び制御プログラム

Country Status (4)

Country Link
US (1) US9855024B2 (ja)
JP (1) JP6125281B2 (ja)
CN (1) CN105025806B (ja)
WO (1) WO2014136899A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109978811A (zh) * 2017-12-27 2019-07-05 财团法人工业技术研究院 医疗图像差异比对方法及其系统

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5557091B2 (ja) * 2010-03-30 2014-07-23 日本電気株式会社 画像処理装置、画像読取装置、画像処理方法及び画像処理プログラム
WO2015124388A1 (en) * 2014-02-19 2015-08-27 Koninklijke Philips N.V. Motion adaptive visualization in medical 4d imaging
JP6382050B2 (ja) * 2014-09-29 2018-08-29 キヤノンメディカルシステムズ株式会社 医用画像診断装置、画像処理装置、画像処理方法及び画像処理プログラム
JP6418881B2 (ja) * 2014-10-08 2018-11-07 ザイオソフト株式会社 パラメータ処理装置、パラメータ処理方法、及びパラメータ処理プログラム
KR101797042B1 (ko) * 2015-05-15 2017-11-13 삼성전자주식회사 의료 영상 합성 방법 및 장치
JP6493877B2 (ja) * 2015-08-25 2019-04-03 富士フイルム株式会社 基準点評価装置、方法およびプログラム、並びに位置合せ装置、方法およびプログラム
WO2017057113A1 (ja) * 2015-10-01 2017-04-06 富士フイルム株式会社 音響波診断装置およびその制御方法
JP7019287B2 (ja) * 2016-03-03 2022-02-15 キヤノンメディカルシステムズ株式会社 超音波診断装置及び画像処理プログラム
US11304681B2 (en) 2016-03-03 2022-04-19 Canon Medical Systems Corporation Ultrasonic diagnostic apparatus and image processing method
JP6600266B2 (ja) * 2016-03-15 2019-10-30 株式会社日立製作所 超音波診断装置
US10235551B2 (en) * 2016-05-06 2019-03-19 Qualcomm Incorporated Biometric system with photoacoustic imaging
US10366269B2 (en) * 2016-05-06 2019-07-30 Qualcomm Incorporated Biometric system with photoacoustic imaging
US10363018B2 (en) 2016-07-19 2019-07-30 Toshiba Medical Systems Corporation Medical processing apparatus and medical processing method
US20180192996A1 (en) * 2017-01-10 2018-07-12 Canon Medical Systems Corporation Ultrasonic diagnostic device, image processing device, and image processing method
JP7239275B2 (ja) * 2018-04-27 2023-03-14 キヤノンメディカルシステムズ株式会社 超音波診断装置及び穿刺支援プログラム
WO2020044523A1 (ja) * 2018-08-30 2020-03-05 オリンパス株式会社 記録装置、画像観察装置、観察システム、観察システムの制御方法、及び観察システムの作動プログラム
JP7299100B2 (ja) * 2019-08-08 2023-06-27 富士フイルムヘルスケア株式会社 超音波診断装置及び超音波画像処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007202957A (ja) * 2006-02-06 2007-08-16 Toshiba Corp 壁運動測定装置及び医用画像診断装置
JP2011104432A (ja) * 2011-03-07 2011-06-02 Toshiba Corp 超音波診断装置および超音波画像処理装置
JP2011177494A (ja) * 2010-02-04 2011-09-15 Toshiba Corp 画像処理装置、超音波診断装置、及び画像処理方法
JP2012055765A (ja) * 2011-12-22 2012-03-22 Toshiba Corp 超音波診断装置及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4614548B2 (ja) * 2001-01-31 2011-01-19 パナソニック株式会社 超音波診断装置
DE10340544B4 (de) * 2003-09-01 2006-08-03 Siemens Ag Vorrichtung zur visuellen Unterstützung einer elektrophysiologischen Katheteranwendung im Herzen
JP4733938B2 (ja) * 2004-07-16 2011-07-27 株式会社東芝 超音波診断装置および超音波画像処理装置
JP2006197967A (ja) * 2005-01-18 2006-08-03 Toshiba Corp 超音波診断装置及び超音波画像表示装置
JP5148094B2 (ja) * 2006-09-27 2013-02-20 株式会社東芝 超音波診断装置、医用画像処理装置及びプログラム
WO2008044572A1 (fr) * 2006-10-04 2008-04-17 Hitachi Medical Corporation dispositif de diagnostic d'images médicales
JP5448328B2 (ja) * 2007-10-30 2014-03-19 株式会社東芝 超音波診断装置及び画像データ生成装置
US8165371B2 (en) * 2008-07-21 2012-04-24 Siemens Medical Solutions Usa, Inc. Enhanced contrast MR system accommodating vessel dynamic fluid flow
JP5624314B2 (ja) * 2009-01-30 2014-11-12 株式会社東芝 超音波診断装置、超音波画像処理装置、医用画像診断装置及び医用画像処理装置
JP5624481B2 (ja) * 2010-02-03 2014-11-12 株式会社東芝 超音波診断装置及び医用画像処理装置
JP2015512292A (ja) * 2012-03-23 2015-04-27 ウルトラサウンド・メディカル・デバイシーズ・インコーポレイテッドUltrasound Medical Devices, Inc. マルチプルイメージデータループを獲得して分析する方法及びシステム
FR3010218B1 (fr) * 2013-09-03 2016-12-30 Univ Joseph Fourier - Grenoble 1 Procede de traitement d'image base sur la technique des elements finis pour la resolution directe de problemes inverses en mecanique des structures.

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007202957A (ja) * 2006-02-06 2007-08-16 Toshiba Corp 壁運動測定装置及び医用画像診断装置
JP2011177494A (ja) * 2010-02-04 2011-09-15 Toshiba Corp 画像処理装置、超音波診断装置、及び画像処理方法
JP2011104432A (ja) * 2011-03-07 2011-06-02 Toshiba Corp 超音波診断装置および超音波画像処理装置
JP2012055765A (ja) * 2011-12-22 2012-03-22 Toshiba Corp 超音波診断装置及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109978811A (zh) * 2017-12-27 2019-07-05 财团法人工业技术研究院 医疗图像差异比对方法及其系统

Also Published As

Publication number Publication date
CN105025806B (zh) 2017-09-08
JP6125281B2 (ja) 2017-05-10
JP2014171556A (ja) 2014-09-22
US20150342571A1 (en) 2015-12-03
US9855024B2 (en) 2018-01-02
CN105025806A (zh) 2015-11-04

Similar Documents

Publication Publication Date Title
JP6125281B2 (ja) 医用画像診断装置、医用画像処理装置及び制御プログラム
JP5624258B2 (ja) 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP5597492B2 (ja) 超音波診断装置、画像処理装置およびプログラム
JP6382036B2 (ja) 超音波診断装置及び画像処理装置
JP5586203B2 (ja) 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
WO2013146710A1 (ja) 超音波診断装置、画像処理装置及び画像処理方法
WO2013147262A1 (ja) 超音波診断装置、画像処理装置及び画像処理方法
JP5944633B2 (ja) 超音波診断装置、画像処理装置及びプログラム
US9888905B2 (en) Medical diagnosis apparatus, image processing apparatus, and method for image processing
JP5897674B2 (ja) 超音波診断装置、画像処理装置及び画像処理プログラム
JP7080590B2 (ja) 医用処理装置、超音波診断装置、および医用処理プログラム
US11191524B2 (en) Ultrasonic diagnostic apparatus and non-transitory computer readable medium
JP6815259B2 (ja) 超音波診断装置、医用画像処理装置及び医用画像処理プログラム
JP6863774B2 (ja) 超音波診断装置、画像処理装置及び画像処理プログラム
US11712219B2 (en) Ultrasonic wave diagnostic apparatus, medical information processing apparatus, and computer program product
JP5784085B2 (ja) 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP4795672B2 (ja) 超音波診断装置
JP5624581B2 (ja) 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP4745455B2 (ja) 超音波診断装置、超音波画像処理装置、及び超音波信号処理プログラム
JP6502070B2 (ja) 超音波診断装置、医用画像処理装置及び医用画像処理方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480011999.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14760823

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14760823

Country of ref document: EP

Kind code of ref document: A1