WO2014081006A1 - 超音波診断装置、画像処理装置および画像処理方法 - Google Patents

超音波診断装置、画像処理装置および画像処理方法 Download PDF

Info

Publication number
WO2014081006A1
WO2014081006A1 PCT/JP2013/081486 JP2013081486W WO2014081006A1 WO 2014081006 A1 WO2014081006 A1 WO 2014081006A1 JP 2013081486 W JP2013081486 W JP 2013081486W WO 2014081006 A1 WO2014081006 A1 WO 2014081006A1
Authority
WO
WIPO (PCT)
Prior art keywords
blood flow
image
images
image data
unit
Prior art date
Application number
PCT/JP2013/081486
Other languages
English (en)
French (fr)
Inventor
侑子 金山
Original Assignee
株式会社 東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社 東芝
Priority to CN201380003273.5A priority Critical patent/CN104114102B/zh
Publication of WO2014081006A1 publication Critical patent/WO2014081006A1/ja
Priority to US14/719,626 priority patent/US20150250446A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/468Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/485Diagnostic techniques involving measuring strain or elastic properties
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/481Diagnostic techniques involving the use of contrast agent, e.g. microbubbles introduced into the bloodstream

Definitions

  • Embodiments described herein relate generally to an ultrasonic diagnostic apparatus, an image processing apparatus, and an image processing method for imaging a state in a subject by transmitting and receiving ultrasonic signals to and from the subject.
  • Ultrasound diagnosis allows you to observe heart beats and fetal movements in real time with a simple operation by simply placing an ultrasound probe from the body surface, and because it is highly safe, it can be repeatedly examined. Furthermore, the system related to ultrasonic diagnosis is smaller than other diagnostic devices such as an X-ray diagnostic apparatus, X-ray CT (Computed Tomography) apparatus, or MRI (Magnetic Resonance Imaging) apparatus, and moves to the bedside. All inspections can be performed easily. Ultrasonic diagnosis is not affected by exposure unlike X-rays, and can be used in obstetrics, home medical care, and the like.
  • Symptoms of arthritis often vary from place to place within a joint.
  • An object is to provide an ultrasonic diagnostic apparatus, an image processing apparatus, and an image processing method for selecting image data suitable for diagnosis from a plurality of image data obtained by transmission and reception of ultrasonic waves.
  • FIG. 1 is a block diagram showing a main configuration of the ultrasonic diagnostic apparatus according to the first embodiment.
  • FIG. 2 is a flowchart showing the operation of the ultrasonic diagnostic apparatus according to the embodiment.
  • FIG. 3 is a diagram for explaining a technique for extracting the contour of the joint cavity in the embodiment.
  • FIG. 4 is a diagram showing an example of a time area curve in the embodiment.
  • FIG. 5 is a diagram showing a plot of image similarity (mean square error) in the same embodiment.
  • FIG. 6 is a diagram showing a display example of candidate images in the embodiment.
  • FIG. 7 is a flowchart showing the operation of the ultrasonic diagnostic apparatus according to the second embodiment.
  • FIG. 8 is a diagram showing an example of a time area curve in the embodiment.
  • FIG. 9 is a diagram illustrating an example of an ultrasonic image in which motion artifacts appear in the embodiment.
  • FIG. 10 is a diagram for explaining a method of selecting image data in the embodiment.
  • FIG. 11 is a diagram for explaining the effect of the embodiment.
  • FIG. 12 is a diagram for explaining the effect of the embodiment.
  • FIG. 13 is a block diagram showing a main configuration of an ultrasonic diagnostic apparatus according to the third embodiment.
  • FIG. 14 is a flowchart showing the operation of the ultrasonic diagnostic apparatus according to the third embodiment.
  • FIG. 15 is a diagram for explaining a method of selecting image data according to the embodiment.
  • FIG. 16 is a diagram for explaining a method of selecting image data according to the embodiment.
  • FIG. 17 is a block diagram showing a main configuration of an image processing apparatus according to the fourth embodiment.
  • FIG. 18 is a flowchart showing the operation of the image processing apparatus according to the embodiment.
  • FIG. 19 is a flowchart showing the operation of the ultrasonic diagnostic apparatus according to the fifth embodiment.
  • FIG. 20 is a flowchart showing the operation of the ultrasonic diagnostic apparatus according to the sixth embodiment.
  • FIG. 1 is a block diagram showing a main configuration of the ultrasonic diagnostic apparatus according to the present embodiment.
  • the ultrasonic diagnostic apparatus includes an apparatus main body 1, an ultrasonic probe 2, an input device 3, and a monitor 4.
  • the apparatus main body 1 includes an ultrasonic transmission unit 11, an ultrasonic reception unit 12, a B-mode processing unit 13, a Doppler processing unit 14, an image generation unit 15, an image memory 16, an image composition unit 17, and a control.
  • a processor 18, a storage unit 19, and an interface unit 20 are provided.
  • the ultrasonic transmitter 11 and the ultrasonic receiver 12 incorporated in the apparatus main body 1 may be configured by hardware such as an integrated circuit, but may be a software program modularized in software. .
  • the ultrasonic probe 2 has one ultrasonic transducer array corresponding to a two-dimensional scan or a two-dimensional array of ultrasonic transducers compatible with a three-dimensional scan.
  • the ultrasonic probe 2 generates ultrasonic waves based on a drive signal from the ultrasonic transmission unit 11 and converts a reflected wave from the subject into an electric signal, and a matching layer provided in the piezoelectric vibrator. And a backing material for preventing the propagation of ultrasonic waves from the piezoelectric vibrator to the rear.
  • the ultrasonic waves When ultrasonic waves are transmitted from the ultrasonic probe 2 to the subject P, the ultrasonic waves are reflected one after another at the discontinuous surface of the acoustic impedance of the body tissue of the subject P and received as an echo signal by the ultrasonic probe 2. Is done. The amplitude of this echo signal depends on the difference in acoustic impedance at the discontinuous surface that is to be reflected.
  • the echo signal when the transmitted ultrasonic pulse is reflected by the moving blood flow or the surface of the heart wall depends on the velocity component of the moving body in the ultrasonic transmission direction due to the Doppler effect. Receive a shift.
  • the input device 3 is connected to the device main body 1, and various switches for taking various instructions, conditions, ROI (Region OfRegInterest) setting instructions, various image quality condition setting instructions, etc. from the operator into the device main body 1. , Buttons, trackball, mouse, keyboard and the like.
  • the monitor 4 displays in-vivo morphological information and a blood flow image as an image based on the video signal supplied from the apparatus main body 1.
  • the ultrasonic transmission unit 11 includes a pulse generator 11A, a transmission delay unit 11B, a pulsar 11C, and the like.
  • the pulser 11C repeatedly generates a rate pulse for forming a transmission ultrasonic wave at a predetermined rate frequency frfHz (period: 1 / fr second).
  • the transmission delay unit 11B provides each rate pulse with a delay time necessary for focusing the ultrasonic wave into a beam for each channel and determining the transmission directivity.
  • the transmission direction or the delay time for determining the transmission direction is stored in the storage unit 19, and the transmission delay unit 11B refers to the delay time stored in the storage unit 19 at the time of transmission.
  • the pulser 11C applies a drive pulse to the ultrasonic probe 2 at a timing based on the rate pulse that has passed through the transmission delay unit 11B.
  • the ultrasonic receiving unit 12 includes a preamplifier 12A, an A / D converter (not shown), a reception delay unit 12B, an adder 12C, and the like.
  • the preamplifier 12A amplifies the echo signal captured via the ultrasonic probe 2 for each channel.
  • the reception delay unit 12B gives a delay time necessary for determining the reception directivity to the echo signal amplified by the preamplifier 12A.
  • the reception delay unit 12B determines the reception direction or the delay time for determining the reception direction with reference to the storage unit 19 in the same manner as when transmitting ultrasonic waves.
  • the adder 12C performs addition processing of the signal that has passed through the reception delay unit 12B.
  • the ultrasonic transmission unit 11 and the ultrasonic reception unit 12 transmit and receive an ultrasonic signal to the subject P and also receive and transmit an ultrasonic signal (echo signal) reflected in the subject P. Function.
  • the B-mode processing unit 13 performs various processes such as logarithmic amplification and envelope detection processing on the echo signal received from the ultrasonic receiving unit 12, and generates B-mode image data whose signal intensity is expressed by brightness. Generate.
  • the B mode processing unit 13 transmits the generated B mode image data to the image generating unit 15.
  • the B-mode image is a morphological image representing the internal form of the subject.
  • the Doppler processing unit 14 performs frequency analysis on velocity information from the echo signal received from the ultrasound receiving unit 12, extracts blood flow, tissue, and contrast agent echo components due to the Doppler effect, and spatial distribution such as average velocity, dispersion, and power. That is, a blood flow image is generated.
  • the Doppler processing unit 14 transmits the obtained blood flow image to the image generation unit 15.
  • the image generation unit 15 converts B-mode image data supplied from the B-mode processing unit 13 into a scanning line signal sequence of a general video format represented by a television or the like, and B-mode image data as a display image Is generated. Furthermore, the image generation unit 15 is based on the blood flow image supplied from the Doppler processing unit 14 and expresses a position where blood flow motion is observed with color pixels of a color according to the average speed, dispersion, or power. Generate data.
  • the image generation unit 15 includes a storage memory for storing B-mode image data and Doppler image data. For example, an operator can call up image data recorded during an examination after diagnosis.
  • the B-mode processing unit 13 and the image generation unit 15 function as a tomographic image generation unit that generates B-mode image data (two-dimensional b or three-dimensional morphological image data).
  • the Doppler processing unit 14 and the image generation unit 15 function as a blood flow image generation unit that generates Doppler image data (blood flow image data) representing a motion state of blood flow in a cross section related to B-mode image data.
  • the image memory 16 includes a storage memory that stores the image data generated by the image generation unit 15.
  • the image data can be called by an operator after diagnosis, for example, and can be reproduced as a still image or as a moving image using a plurality of images. Further, the image memory 16 stores an image luminance signal after passing through the ultrasonic receiving unit 12, other raw data, image data acquired via a network, and the like as necessary.
  • the image composition unit 17 generates display data obtained by combining the Doppler image data generated by the image generation unit 15 on the B-mode image data generated by the image generation unit 15, and monitors the generated display data on the monitor 4. Output to.
  • the monitor 4 displays an ultrasonic image (B mode image + Doppler image) or the like based on the display data input from the image composition unit 17. As a result, the monitor 4 displays an image in which the average speed, dispersion, power, and the like of the moving object are color-mapped on the slice of the subject P represented by the luminance.
  • the storage unit 19 stores a scan sequence, a control program for executing image generation / display processing, diagnostic information (patient ID, doctor's findings, etc.), transmission / reception conditions, and other data groups.
  • the storage unit 19 is also used for storing image data stored in the image memory 16 as necessary. Data stored in the storage unit 19 can also be transferred to an external peripheral device via the interface unit 20.
  • the control processor 18 is mainly composed of a memory such as a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and functions as a control unit that controls the operation of the apparatus body 1.
  • the control processor 18 reads out a control program for executing image generation / display and the like from the storage unit 19 and executes calculation / control and the like regarding various processes.
  • the interface unit 20 is an interface related to the input device 3, a network such as a LAN (Local Area Network), and an external storage device (not shown). Image data, analysis results, and the like obtained by the ultrasonic diagnostic apparatus can be transferred to another apparatus via the interface unit 20 and a network.
  • a network such as a LAN (Local Area Network)
  • an external storage device not shown.
  • FIG. 2 is a flowchart showing the operation of the ultrasonic diagnostic apparatus. Of the operations shown in this flowchart, steps S105, S106, and S108 to S110 are realized by the control processor 18 executing the analysis program stored in the storage unit 19.
  • the control processor 18 instructs the ultrasonic transmission unit 11 and the ultrasonic reception unit 12 to start transmission / reception of ultrasonic waves (step S101).
  • the ultrasonic transmission unit 11 outputs a transmission signal to the ultrasonic probe 2 according to a predetermined setting, and the ultrasonic probe 2 receiving this signal emits an ultrasonic signal in the subject P.
  • the ultrasonic probe 2 detects an ultrasonic signal (echo signal) reflected and scattered from the inside of the subject, and the ultrasonic receiving unit 12 receives the echo signal.
  • the transmitted and received ultrasonic signals include a transmission / reception set for generating B-mode image data and a transmission / reception set for generating Doppler image data, which are alternately transmitted and received.
  • the signal for generating Doppler image data is obtained by performing a plurality of times of transmission / reception continuously on the same scanning line. By calculating the correlation of a plurality of received signals, the signal at each position of the scanning line is obtained. Speed information can be obtained.
  • the B-mode processing unit 13 processes the reception signal for generating the B-mode image data output from the ultrasonic wave receiving unit 12 as described above, and the image generation unit 15 generates grayscale B-mode image data (step S102). ).
  • the Doppler processing unit 14 processes the received signal for generating Doppler image data output from the ultrasound receiving unit 12 as described above, and the image generating unit 15 generates color scale Doppler image data (Step S103). .
  • the image generation unit 15 stores the B-mode image data and the Doppler image data generated in steps S102 and S103 in the storage unit 19 in such a manner that the time phase of image generation can be determined.
  • the Doppler image data generated in step S103 is assumed to be power Doppler image data that expresses the power of blood flow in color.
  • the Doppler image data generated in Step S103 may be color Doppler image data expressing the blood flow velocity in color.
  • the Doppler processing unit 14 separately processes a reception signal for generating Doppler image data, thereby calculating information regarding the velocity and velocity dispersion in the first region of interest specified in advance (Step S102, S103). S104).
  • the first region of interest is a color ROI that defines a range in which Doppler image data is generated and displayed on B-mode image data, for example.
  • step S104 When generating a blood flow image in step S103, the Doppler processing unit 14 receives a wall filter (or MTI filter) having a feature of cutting a low-speed signal in order to remove signals from tissues other than the blood flow. It is given to. On the other hand, the Doppler processing unit 14 does not apply this filter in Step S104, and calculates the velocity and variance at each point by performing correlation calculation as it is from a plurality of received signals obtained on the same scanning line. Thereby, at each point, an absolute velocity value including the movement of the tissue other than the blood flow due to the body movement or the shaking of the examiner can be obtained.
  • a wall filter or MTI filter
  • the Doppler processing unit 14 calculates an average value of velocity, an average value of variance, and a variance value of velocity in the entire first region of interest (if based on the velocity or variance information, Other than that)
  • an average value of speed is used as an index of body movement or camera shake. Therefore, the control processor 18 stores the average speed value calculated in step S104 in association with the Doppler image data generated in step S103 and stored in the storage unit 19.
  • the control processor 18 sets segmentation and a region of interest (second region of interest) based on the B-mode image data obtained in step S102 (step S105). Specifically, the control processor 18 extracts the joint cavity contour depicted in the B-mode image data, and sets the extracted contour as the second region of interest.
  • the joint space is a low-intensity region that exists on the bone surface depicted with high luminance.
  • contour extraction for example, a technique as disclosed in Japanese Patent Application Laid-Open No. 2007-190172 can be used.
  • the operator first operates the input device 3 to select one point included in the region desired to be extracted from the B-mode image data. Then, the control processor 18 extracts an area where the luminance around the selected one point is equal to or less than a predetermined threshold value.
  • the control processor 18 analyzes the brightness of surrounding pixels from this point Q as a starting point. Such a region is extracted.
  • the rectangular frame represented on the B-mode image data BI is a color ROI 50 that indicates a range in which Doppler image data is generated and displayed.
  • the above-described extraction processing may be performed after smoothing the B-mode image data.
  • the region of interest is not necessarily completely surrounded by the high luminance region.
  • a process for interpolating a region where no boundary is detected may be added from a part of the detected high luminance boundaries.
  • the process of setting the reference point by the operator may be omitted.
  • the control processor 18 may set a plurality of points at or below a predetermined luminance at random, analyze the surrounding pixel luminances from that point, and perform boundary extraction. Of the plurality of extracted regions, regions having a predetermined size or less are excluded.
  • the area in contact with the lower end of the screen is excluded.
  • the deepest region is set as the second region of interest. In this way, it is possible to set the deepest region, that is, the joint cavity region, as the second region of interest among the low-luminance regions that are shallower than the bone surface.
  • the control processor 18 uses the Doppler signal included in the second region of interest set in step S105 in the image data as a parameter representing the characteristics of the Doppler image data generated in step S103.
  • the number of color pixels is calculated (step S106). Specifically, in the Doppler image data generated in step S103, the control processor 18 has a power value that is equal to or higher than a preset threshold value and includes color pixels included in the set second region of interest. Calculate the total number.
  • the control processor 18 stores the calculated number of color pixels in association with the Doppler image data generated in step S103 and stored in the storage unit 19.
  • control processor 18 determines whether or not a scan stop instruction is input by the operator (step S107). If it has not been input (No in step S107), the operation returns to step S101, and steps S101 to S106 are repeated.
  • control processor 18 stores a plurality of B-mode image data and Doppler sequentially stored in repeatedly executed steps S102 and S103.
  • a process for selecting image data suitable for diagnosis from the image data is executed (steps S108 to S110).
  • the control processor 18 detects Doppler image data in which the average value of the velocity in the first region of interest calculated in Step S104 is larger than a predetermined threshold and B-mode image data in the same phase as motion artifacts. Since it is not suitable as a large diagnostic image, it is excluded from the candidates (step S108). Note that the image data is excluded in step S108 by applying, for example, a technique disclosed in Japanese Patent Application Laid-Open No. 9-75344 to a plurality of ratios of the number of effective pixels other than 0 for the number of previous pixels constituting one frame.
  • the Doppler image data may be calculated to exclude Doppler image data whose ratio is out of the effective range and B-mode image data corresponding thereto.
  • step S108 can be executed using a value related to the dispersion of speed.
  • a value such as an average value of the variance calculated by the Doppler processing unit 14 is stored in association with the Doppler image data generated in Step S103 and stored in the storage unit 19.
  • the control processor 18 diagnoses Doppler image data having a value related to dispersion stored in the storage unit 19 that is greater than a predetermined threshold and B-mode image data having the same phase as the motion artifact. Excluded from the candidate as not appropriate as an image.
  • the control processor 18 plots the number of color pixels calculated in step S106 for all of the remaining Doppler image data, that is, the number of blood flow pixels, in time series (in the time phase order of the image data relating to each set). Then, a time area curve C as shown in FIG. 4 is created.
  • the control processor 18 selects candidate image data based on the time area curve C (step S109). Specifically, the control processor 18 extracts all points where the number of color pixels is maximized in the time area curve C. For example, in the example shown in FIG. 4, the control processor 18 extracts eight points t1 to t8. B-mode image data and Doppler image data corresponding to the extracted points are candidate image data.
  • the control processor 18 calculates image similarity and narrows down candidate image data based on the B-mode image data corresponding to each point extracted in step S109 (step S110).
  • the image similarity is the degree of similarity between the B-mode image data and the Doppler image data according to another combination for each combination of the B-mode image data and the Doppler image data corresponding to each point extracted in step S109. Is an index that quantifies
  • As the image similarity for example, an average square error that takes the square root by arithmetically averaging the square values of the differences of the corresponding pixels included in the two image data to be compared can be used.
  • the pixel that takes the difference may be adjusted by pattern matching between the two image data.
  • control processor 18 determines the image similarity between one of the B-mode image data corresponding to each point extracted in step S109 and the other B-mode image data corresponding to each point extracted in step S109. (Mean square error) is calculated. The control processor 18 then selects the B-mode image data having the largest number of color pixels from among the B-mode image data in which the calculated mean square error is equal to or less than a predetermined threshold, and the Doppler image data of the time phase corresponding thereto. Are stored in the storage unit 19 as candidate image data.
  • control processor 18 repeats the above process for the B-mode image data group in which the mean square error is greater than or equal to the threshold value, and similarly obtains the B-mode image data and the corresponding time-phase Doppler image
  • the data is stored in the storage unit 19 as candidate image data.
  • the control processor 18 first calculates the mean square of the difference for each pixel between the B-mode image data corresponding to the time t1 and the B-mode image data corresponding to the times t2 to t8. Calculate the error.
  • a conceptual diagram in which the obtained mean square error is plotted is shown in FIG. The plot at time t1 is shown for convenience, and the image similarity is “0” because it is the mean square error between the B-mode image data corresponding to time t1.
  • a threshold value SH as shown in FIG. 5 is set as a criterion for determining whether or not the B-mode image data is similar.
  • the control processor 18 since the mean square error related to the time t2 is equal to or less than the threshold value, the control processor 18 regards the B-mode image data corresponding to the times t1 and t2 as similar image data, and the times t1 and t2 B-mode image data corresponding to the time t2 when the number of color pixels is large and the Doppler image data corresponding to the time phase are stored in the storage unit 19 as the first candidate image data. Similar processing is repeated for the remaining B-mode image data. That is, the control processor 18 calculates an average square error between the B mode image data corresponding to time t3 and the B mode image data corresponding to times t4 to t8 among the remaining B mode image data.
  • the control processor 18 selects the color pixels between the B-mode image data corresponding to the times t3 to t5.
  • the B-mode image data corresponding to the time t5 with the largest number of color pixels and the time-phase Doppler image data corresponding thereto are stored in the storage unit 19 as second candidate image data. Further, the control processor 18 calculates an average square error between the B-mode image data corresponding to the time t6 and the B-mode image data corresponding to the times t7 and t8 among the remaining B-mode image data.
  • the control processor 18 compares the number of color pixels between the B-mode image data corresponding to the times t6 to t8, and The B-mode image data corresponding to the time t6 with the largest number of color pixels and the temporal Doppler image data corresponding thereto are stored in the storage unit 19 as the third candidate image data. In this way, image similarity calculation / comparison and selection of candidate image data are performed for all image data corresponding to each point extracted in step S109. In the example shown in FIG. 4, three candidate image data are selected.
  • control processor 18 executes processing for displaying candidate image data (step S111). That is, the control processor 18 outputs B-mode image data and Doppler image data constituting the candidate image data to the image composition unit 17 for each candidate image data stored in the storage unit 19.
  • the image composition unit 17 generates display data by combining the input B-mode image data and Doppler image data, and outputs the display data to the monitor 4.
  • the monitor 4 displays a candidate image in which a color Doppler image is superimposed on a monochrome B-mode image based on the input display data.
  • a display example of candidate images is shown in FIG.
  • three ultrasonic images UI-1, UI-2, and UI-3 that are candidate images are displayed side by side at the same time.
  • low luminance portions scattered inside the color ROI 50 represent color pixels corresponding to the power of the blood flow.
  • the blood flow area or area ratio in a predetermined region in each ultrasonic image may be displayed.
  • the blood flow area is, for example, a value converted into an actual area by multiplying a predetermined coefficient by the number of color pixels in the predetermined region.
  • the area ratio is, for example, a value in which a value obtained by dividing the number of color pixels in a predetermined area by the total number of pixels in the predetermined area is expressed as a percentage.
  • the predetermined region for example, the first region of interest or the second region of interest set in step S105 can be employed.
  • control processor 18 is configured to calculate a parameter (number of color pixels) representing the characteristics of each Doppler image data based on the plurality of Doppler image data, a plurality of B-mode image data, In a plurality of Doppler image data, a similarity calculation unit that calculates an image similarity (mean square error) for each combination of corresponding B-mode image data and Doppler image data, a parameter calculated by the parameter calculation unit, and a similarity calculation unit An image selection unit that selects a combination (candidate image data) of B-mode image data and Doppler image data suitable for diagnosis from among a plurality of B-mode image data and a plurality of Doppler image data based on the image similarity calculated by Function as.
  • an ultrasound image (B-mode image or Doppler image) relating to a plurality of cross-sections is observed for a specific part of the subject P, and an ultrasound image suitable for diagnosis is selected from among them.
  • the ultrasonic diagnostic apparatus automatically selects an ultrasonic image suitable for diagnosis by the operation shown in the flowchart of FIG. 2, thereby reducing the burden on the operator.
  • step S108 it is possible to avoid selecting an ultrasound image inappropriate for diagnosis mixed with motion artifacts by eliminating time-phase ultrasound images with large motion (average speed is large). Can do.
  • the number of color pixels used for selecting the ultrasound image is calculated within the second region of interest set based on the B-mode image data, the color pixels in a portion that does not contribute to diagnosis such as blood flow of normal blood vessels Since the number is difficult to mix, the accuracy of selecting an ultrasonic image can be increased.
  • the image for calculating the similarity is not limited to the morphological image.
  • the similarity may be calculated between blood flow images, angiographic images, and elastography images showing the spatial distribution of the elastic modulus of the tissue.
  • the final selection target has been described as a Doppler image, it may be an angiographic image.
  • an angiographic image in which the number of pixels having contrast luminance equal to or higher than a threshold value is greater than or equal to a predetermined number is selected as a candidate image.
  • the closest B-mode image may be used as a reference image for similarity calculation, and the similarity (the least square error) between the reference image and the subsequent image may be calculated.
  • the number of color pixels is calculated only within the second region of interest set in the B-mode image data, and inappropriate images are eliminated based on the average speed or speed variance.
  • the example in which the candidate image data is narrowed down based on the image similarity calculated based on the brightness of the B-mode image data from the image data has been described.
  • the number of color pixels is calculated over the entire color ROI (first region of interest), and inappropriate image data is excluded based only on the calculated number of color pixels.
  • An example will be described in which an image data group is divided into a plurality of regions based on the number of color pixels of the remaining image data, and a limited number of candidate image data is extracted from each division.
  • the configuration of the ultrasonic diagnostic apparatus according to the present embodiment is the same as that described with reference to FIG.
  • FIG. 7 is a flowchart showing the operation of the ultrasonic diagnostic apparatus according to the second embodiment. Of the operations shown in this flowchart, steps S204 and S206 to S208 are realized by the control processor 18 executing the analysis program stored in the storage unit 19.
  • the ultrasonic probe 2 When receiving the start instruction from the operator, the ultrasonic probe 2 emits an ultrasonic signal into the subject P (step S201) as in step S101, and the image generation unit 15 generates B-mode image data as in step S102. Then (step S202), the image generation unit 15 generates Doppler image data as in step S103 (step S203).
  • the image generation unit 15 stores the B-mode image data and the Doppler image data generated in Steps S202 and S203 in the storage unit 19 in such a manner that the time phase of image generation can be determined.
  • control processor 18 calculates the total number of color pixels having a power value equal to or greater than a preset threshold value and included in the predetermined first region of interest (step S204).
  • the control processor 18 stores the calculated number of color pixels in association with the Doppler image data generated in step S203 and stored in the storage unit 19.
  • control processor 18 determines whether or not a scan stop instruction has been input as in step S107 (step S205). If not input (No in step S205), the operation returns to step S201, and steps S201 to S204 are repeated.
  • step S205 when the operator operates the input device 3 to input a scan stop instruction (Yes in step S205), the control processor 18 stores a plurality of B-mode image data sequentially stored in repeatedly executed steps S202 and S203. Then, a process for selecting image data suitable for diagnosis from the Doppler image data is executed (steps S206 to S208).
  • the control processor 18 creates a time area curve (a plot of the number of color pixels in each time phase) based on the number of color pixels calculated in step S204, and based on this, excludes image data inappropriate for diagnosis.
  • FIG. 8 shows an example of a time area curve.
  • the horizontal axis is the frame number assigned in chronological order
  • the vertical axis is the ratio of the color pixels included in the first region of interest (the number of color pixels calculated in step S204 is the number in the first region of interest). As a percentage of the value divided by the total number of pixels).
  • the steep peak appearing in the vicinity of the frame numbers 60 to 100 is caused by motion artifact.
  • FIG. 9 shows an example of an ultrasonic image (B-mode image + Doppler image) on which this motion artifact is drawn.
  • An ultrasonic image UI mixed with motion artifacts (hereinafter referred to as noise image data) cannot be used for diagnosis. Therefore, in the present embodiment, such noise image data is excluded from candidate candidates.
  • the control processor 18 detects a peak in which the difference between each point and a point adjacent to the left and right is a certain value or more, and B-mode image data corresponding to all the peaks including the detected peak point. And Doppler image data is excluded as noise image data.
  • FIG. 10 shows the time area curve C2 'obtained after the noise image data elimination thus obtained.
  • the control processor 18 classifies the image data group based on the number of color pixels represented by the time area curve C2 '(step 207). In this process, the control processor 18 observes the time change of the time area curve C2 ′, and considers that the portion where the change is small is the same cross section, the portion where the change is large is considered that the position of the cross section is changed, The image data group is divided into a predetermined number of divisions.
  • step S207 Specific processing in step S207 will be described.
  • the control processor 18 performs a smoothing process on the time change curve C2 '.
  • FIG. 10 shows an example of the smoothed time area curve CS.
  • the control processor 18 obtains a differential curve ⁇ CS obtained by time-differentiating the smoothed time change curve CS.
  • the control processor 18 may perform further smoothing processing in addition to time differentiation.
  • the point at which the time differential curve ⁇ CS reaches the maximum value can be regarded as the point at which the time change curve C2 ′ has changed greatly. Therefore, the control processor 18 detects the maximum value of the time differential curve ⁇ CS.
  • the maximum value detection point M is shown in FIG.
  • the control processor 18 classifies the image data group using the maximum value detection point M detected in this way as a time domain separation position. For example, in the example of FIG. 10, B-mode image data and Doppler image data having a frame number of 0 or more and less than the maximum value detection point M-1, and a frame number of the maximum value detection point M-1 or more and the maximum value detection point M-. B-mode image data and Doppler image data of less than 2 and B-mode image data and Doppler image data having a frame number equal to or greater than the maximum value detection point M-2 are classified.
  • the control processor 18 selects candidate image data in each section set in step S207 (step S208). Specifically, the control processor 18 extracts all points where the number of color pixels becomes maximum based on the time area curve C2, as in step 109 in the first embodiment. Further, for each extracted point, the control processor 18 extracts a predetermined number (for example, one point) from the largest number of color pixels in each section. B-mode image data and Doppler image data corresponding to the points thus extracted become candidate image data.
  • control processor 18 executes a process for displaying an ultrasonic image (B-mode image + Doppler image) related to the candidate image data in the same manner as in step S111 (step S209).
  • the plurality of ultrasonic images may be displayed in time series, or may be displayed in order from the one having the largest number of color pixels. Alternatively, all or a predetermined number of ultrasonic images may be displayed side by side. In addition to the ultrasonic image, the blood flow area or area ratio in a predetermined region in each ultrasonic image may be displayed.
  • FIG. 11 shows ultrasonic images UI-11 and UI ⁇ based on B-mode image data and Doppler image data corresponding to three frame numbers in order from the largest in the number of color pixels in the time area curve C2 ′ after step S206.
  • 12 is an example of displaying UI-13.
  • UI-13 As is clear from the figure, it can be said that even if a plurality of ultrasonic images are displayed, all of them are similar images and diagnostic information has not increased. This is because, as can be seen from the time area curve C2 ′ illustrated in FIG. 10, only the image data in the last time region (time phase with a large frame number) is selected. Since all the time domain image data contains normal blood flow, the number of color pixels in the first region of interest is large.
  • FIG. 12 performs image data group division processing in step S207, selects candidate image data having the largest number of color pixels from each division according to the local maximum detection point M, and sets these candidate image data as the candidate image data.
  • This is an example in which based ultrasonic images UI-21, UI-22, and UI-23 are displayed. From this example, an appropriate candidate in which inflammatory blood flow is reflected in a region (a central portion in the color ROI 50) in which there is almost no normal blood flow (a portion represented by low luminance in the upper left portion in the color ROI 50 of the ultrasound image UI-21). You can see that the image is displayed.
  • the present embodiment it is possible to select a plurality of candidate image data rich in variations from a series of image data groups with a simple configuration, a small amount of calculation, and with high accuracy.
  • By calculating the number of color pixels in the entire first region of interest there is a high possibility that image data in which normal blood vessels that do not contribute to the diagnosis are dominantly extracted will be extracted, but based on the degree of change in the number of color pixels.
  • candidate image data can be selected even from an area having a small number of color pixels. As a result, an ultrasonic image in which only a small inflammatory blood flow useful for diagnosis is displayed on the monitor 4.
  • a third embodiment will be described.
  • image data having a large motion artifact is excluded from candidate candidates as image data inappropriate for diagnosis based on the average speed in the first region of interest and the temporal change in the number of color pixels.
  • the ultrasonic probe 2 is provided with a sensor for detecting information related to the position, posture, or speed of the probe 2, and image data inappropriate for diagnosis is excluded using information detected by the sensor. To do. Further, candidate image data is narrowed down using information detected by the sensor.
  • the configuration of the ultrasonic diagnostic apparatus according to the present embodiment is substantially the same as that described with reference to FIG. 1 in the first embodiment.
  • the ultrasonic diagnostic apparatus according to the present embodiment is different in that it includes a sensor 5 connected to a control processor 18 as shown in FIG.
  • the sensor 5 detects information on the position, posture, or speed of the ultrasonic probe 2 and outputs the detection result to the control processor 18.
  • a magnetic sensor for example, a magnetic sensor can be used.
  • a transmitter that forms a magnetic field of a predetermined intensity is disposed in the vicinity of the subject P, and the sensor 5 that is the magnetic sensor is attached to the ultrasonic probe 2.
  • the sensor 5 is, for example, the position (x, y, z) and posture of the ultrasonic probe 2 in a three-dimensional coordinate space (X, Y, Z) defined by the X, Y, and Z axes with the transmitter as the origin. ( ⁇ x, ⁇ y, ⁇ z) is detected.
  • x is the position of the ultrasonic probe 2 on the X axis
  • y is the position of the ultrasonic probe 2 on the Y axis
  • z is the position of the ultrasonic probe 2 on the Z axis.
  • ⁇ x is the rotation angle of the ultrasonic probe 2 around the X axis
  • ⁇ y is the rotation angle of the ultrasonic probe 2 around the Y axis
  • ⁇ z is the ultrasonic probe 2 around the Z axis. Rotation angle.
  • the sensor 5 may include a unit that calculates the velocity (vx, vy, vz) of the ultrasonic probe 2 based on, for example, a time change of the position (x, y, z).
  • vx is the speed of the ultrasonic probe 2 in the X-axis direction
  • vy is the speed of the ultrasonic probe 2 in the Y-axis direction
  • vz is the speed of the ultrasonic probe 2 in the Z-axis direction.
  • a triaxial acceleration sensor can be used as the sensor 5, for example. Even when the sensor 5, which is such an acceleration sensor, is attached to the ultrasonic probe 2, the posture ( ⁇ x, ⁇ y, ⁇ z) of the ultrasonic probe 2 or the like based on the triaxial acceleration detected by the sensor 5 The speed (vx, vy, vz) can be calculated.
  • various sensors such as an optical sensor that optically detects the position and orientation of the ultrasonic probe 2 can be employed as the sensor 5.
  • the position (x, y, z), the posture ( ⁇ x, ⁇ y, ⁇ z), and the position of the ultrasonic probe 2 are adopted by adopting one or a combination of the above sensors.
  • the sensor 5 for detecting the speed (vx, vy, vz) is configured.
  • FIG. 14 is a flowchart showing the operation of the ultrasonic diagnostic apparatus according to the third embodiment.
  • steps S305, S306, and S308 to S310 are realized by the control processor 18 executing the analysis program stored in the storage unit 19.
  • the ultrasonic probe 2 When receiving the start instruction from the operator, the ultrasonic probe 2 emits an ultrasonic signal into the subject P (step S301) as in step S101, and the image generation unit 15 generates B-mode image data as in step S102. Then (step S302), the image generation unit 15 generates Doppler image data as in step S103 (step S303).
  • the image generation unit 15 stores the B-mode image data and the Doppler image data generated in steps S302 and S303 in the storage unit 19 in such a manner that the time phase of image generation can be determined.
  • control processor 18 sets segmentation and a region of interest (second region of interest) based on the B-mode image data obtained in step S302 by the same method as in step S105 (step S304). Further, the control processor 18 calculates the number of color pixels of the Doppler signal included in the second region of interest set in Step S304 in the Doppler image data generated in Step S303 by the same method as Step S106 ( Step S305). The control processor 18 stores the calculated number of color pixels in association with the Doppler image data generated in step S303 and stored in the storage unit 19.
  • control processor 18 executes step S306 in parallel with steps S301 to S305. That is, the control processor 18 obtains information on the position (x, y, z), posture ( ⁇ x, ⁇ y, ⁇ z), and velocity (vx, vy, vz) of the ultrasonic probe 2 detected by the sensor 5 from the sensor 5. Acquired and stored in the storage unit 19 in such a manner that the time phase at the time of acquisition can be determined.
  • control processor 18 determines whether or not a scan stop instruction has been input as in step S107 (step S307). If it has not been input (No in step S307), steps S301 to S306 are repeated.
  • step S307 when the operator operates the input device 3 to input a scan stop instruction (Yes in step S307), the control processor 18 stores a plurality of B-mode image data sequentially stored in repeatedly executed steps S302 and S303. Then, a process for selecting image data suitable for diagnosis from the Doppler image data is executed (steps S308 to S310).
  • control processor 18 excludes image data inappropriate for diagnosis based on the speed (vx, vy, vz) in each time phase stored in the storage unit 19 (step S308).
  • control processor 18 sequentially reads the speed (vx, vy, vz) in each time phase, and when the value is equal to or greater than a predetermined threshold, the B-mode image data corresponding to that time phase and Exclude Doppler image data from selection candidates.
  • This threshold indicates the boundary between the speed at which motion artifacts inappropriate for diagnosis appear in the Doppler image data and the speed at which it does not, and may be obtained experimentally, empirically, or theoretically. In this way, image data that seems to have motion artifacts due to a large movement of the probe can be excluded from the options in advance.
  • control processor 18 selects a plurality of candidate image data based on the number of color pixels (step S309).
  • control processor 18 narrows down candidate image data based on the position (x, y, z) and posture ( ⁇ x, ⁇ y, ⁇ z) of the ultrasonic probe 2 (step S310).
  • the control processor 18 obtains the position (x, y, z) and posture ( ⁇ x, ⁇ y, ⁇ z) of the time phase corresponding to the plurality of candidate image data selected in step S309 from the storage unit 19.
  • Read. 15 and 16 show conceptual diagrams of plots of the read position (x, y, z) and posture ( ⁇ x, ⁇ y, ⁇ z).
  • FIG. 15 is a plot of X-coordinates x at time phase positions (x, y, z) corresponding to a plurality of candidate image data selected in step S309.
  • the control processor 18 sets reference positions RP1 and RP2 shifted in the positive and negative directions by a predetermined threshold from the position at time t1, and specifies a time phase having a plot between the reference positions RP1 and RP2.
  • This threshold value is set to a value that allows a plot within the range where the reference positions RP1 and RP2 are the upper limit and the lower limit to be regarded as being at the same position as the reference plot.
  • the reference positions RP1 and RP2 set at this time are denoted as reference positions RP1-1 and RP2-1.
  • the time t2 has a plot between the reference positions RP1-1 and RP2-1 other than the time t1.
  • the control processor 18 performs the same analysis using the reference positions RP1 and RP2 for the Y coordinate y and the Z coordinate z, and between the reference positions RP1 and RP2 for all the X coordinate x, Y coordinate y, and Z coordinate z. Identify the time phase with the plot.
  • FIG. 16 is a conceptual diagram in which the rotation angle ⁇ x about the X axis is plotted at times t1 to t8 shown in FIG.
  • the control processor 18 sets reference angles RD1 and RD2 that are shifted in the positive and negative directions by a predetermined threshold with the rotation angle at time t1 as a reference.
  • This threshold value is set to a value that allows a plot within the range where the reference angles RD1 and RD2 are the upper limit and the lower limit to be regarded as having the same posture as the reference plot.
  • the reference angles RD1 and RD2 set at this time are expressed as reference angles RD1-1 and RD2-1.
  • the plots corresponding to times t2 to t5 are within the range of reference angles RD1-1 to RD2-1.
  • the control processor 18 performs the same analysis using the reference angles RD1 and RD2 at the rotation angle ⁇ y and the rotation angle ⁇ z, and has a plot between the reference angles RD1 and RD2 at all the rotation angles ⁇ x, ⁇ y, and ⁇ z. Identify phases.
  • the posture ( ⁇ x, ⁇ y, ⁇ z) corresponding to time t2 to t5 is substantially the same as the posture ( ⁇ x, ⁇ y, ⁇ z) corresponding to time t1. To do.
  • the control processor 18 specifies a common time phase between the time phase specified by analyzing the position (x, y, z) and the time phase specified by analyzing the posture ( ⁇ x, ⁇ y, ⁇ z), Of the Doppler image data corresponding to each of the specified time phase and the reference time phase, one having the largest number of color pixels calculated in step S305 and the corresponding B-mode image data are selected as candidate image data.
  • the control processor 18 is common at time t2 specified by analysis of position (x, y, z) and time t2 to t5 specified by analysis of posture ( ⁇ x, ⁇ y, ⁇ z).
  • the B-mode image data and Doppler image data corresponding to the time t2 to be performed and the reference time t1 one having the largest number of color pixels calculated in step S305 is selected as candidate image data.
  • the control processor 18 excludes the time phase common to the time phase specified by the analysis of the position (x, y, z) and the time phase specified by the analysis of the posture ( ⁇ x, ⁇ y, ⁇ z) and the time phase as a reference. Similar analysis and selection of candidate image data are repeated for the time phase. For example, in the example of FIGS. 15 and 16, the time t3 to t8 is the object of the next analysis and selection. In the example of FIG. 15, the control processor 18 newly sets reference positions RP1 and RP2 based on the plot at time t3. In FIG. 15, the reference positions RP1 and RP2 set at this time are denoted as reference positions RP1-2 and RP2-2. In FIG.
  • the control processor 18 performs the same analysis using the reference positions RP1 and RP2 for the Y coordinate y and the Z coordinate z, and between the reference positions RP1 and RP2 for all the X coordinate x, Y coordinate y, and Z coordinate z. Identify the time phase with the plot.
  • the position (x, y, z) corresponding to the time t4 to t8 in the example of FIG. 15 is determined to be substantially the same position as the position (x, y, z) corresponding to the time t3.
  • the control processor 18 analyzes the posture ( ⁇ x, ⁇ y, ⁇ z) of the probe.
  • the control processor 18 sets reference angles RD1 and RD2 that are shifted in the positive and negative directions by a predetermined threshold with reference to the rotation angle ⁇ x at time t3.
  • the reference angles RD1 and RD2 set at this time are denoted as reference angles RD1-2 and RD2-2.
  • the plot corresponding to times t4 and t5 is within the range of reference angles RD1-2 to RD2-2.
  • the control processor 18 performs the same analysis using the reference angles RD1 and RD2 at the rotation angle ⁇ y and the rotation angle ⁇ z, and has a plot between the reference angles RD1 and RD2 at all the rotation angles ⁇ x, ⁇ y, and ⁇ z. Identify phases.
  • the posture ( ⁇ x, ⁇ y, ⁇ z) corresponding to time t4, t5 is substantially the same as the posture ( ⁇ x, ⁇ y, ⁇ z) corresponding to time t3. To do.
  • control processor 18 uses the times t4 and t5 common to the times t4 to t8 specified by the analysis of the position (x, y, z) and the times t4 and t5 specified by the analysis of the posture ( ⁇ x, ⁇ y, ⁇ z).
  • the Doppler image data corresponding to the reference time t3 the one having the largest number of color pixels calculated in step S305 and the corresponding B-mode image data are selected as the second candidate image data.
  • the control processor 18 uses the time phase specified by the analysis of the position (x, y, z) and the time phase specified by the analysis of the posture ( ⁇ x, ⁇ y, ⁇ z) and the time phase used as a reference.
  • the same analysis and selection of candidate image data are repeated for the time phases other than.
  • the time t6 to t8 is the object of the next analysis and selection, and the control processor 18 selects the third of the B-mode image data and Doppler image data corresponding to these time phases.
  • Select candidate image data Reference positions RP1 and RP2 used when selecting the third candidate image data are denoted as reference positions RP1-3 and RP2-3 in FIG.
  • reference angles RD1 and RD2 used when selecting the third candidate image data are denoted as reference angles RD1-3 and RD2-3 in FIG.
  • the control processor 18 performs such processing until there is no time phase to be analyzed and selected.
  • the control processor 18 executes a process for displaying a plurality of ultrasonic images (B-mode images + Doppler images) related to a plurality of candidate image data narrowed down in step S310 as in step S111. (Step S311).
  • the plurality of ultrasonic images may be displayed in time series, or may be displayed in order from the one having the largest number of color pixels.
  • all or a predetermined number of ultrasonic images may be displayed side by side.
  • the blood flow area or area ratio in a predetermined region in each ultrasonic image may be displayed.
  • FIG. 17 is a block diagram showing a main configuration of the image processing apparatus according to the present embodiment.
  • the main body 100 of the image processing apparatus includes a control processor 101, a monitor 102, an operation panel 103, a storage unit 104, and a data input / output unit 105.
  • the control processor 101 is composed mainly of a memory such as a CPU, ROM, and RAM, for example, and functions as a control unit that controls the operation of the apparatus main body 100.
  • the control processor 101 reads out a control program for executing image generation / display and the like from the storage unit 19 and executes calculation / control and the like regarding various processes.
  • the monitor 102 selectively displays an ultrasonic image based on B-mode image data and Doppler image data obtained by the ultrasonic diagnostic apparatus, various graphical user interfaces, and the like.
  • the operation panel 103 includes various switches, buttons, a trackball, a mouse, a keyboard, and the like for capturing various instructions from the operator.
  • the storage unit 104 stores various control programs and analysis programs.
  • the storage unit 104 also serves to hold image data and numerical data captured by the image processing apparatus.
  • the data input / output unit 105 connects a network such as a LAN and the apparatus main body 100. An ultrasonic diagnostic apparatus and an information processing system in a hospital are also connected to this network.
  • the data input / output unit 105 connects the external storage device 106 and the apparatus main body 100.
  • the data input / output unit 105 transmits and receives data to and from a device connected to the network and the external storage device 106.
  • the operation flow in this embodiment will be described with reference to the flowchart of FIG.
  • the basic operation flow is the same as in the first embodiment.
  • the image processing apparatus reads and processes B-mode image data and Doppler image data from a network connected to the data input / output unit 105 or the external storage device 106 without performing transmission / reception of ultrasonic waves and generation of image data. The point is different.
  • the ultrasonic diagnostic apparatus connected to the network has already executed the processing of steps S101 to S104 in the first embodiment, and each of 1 to N (N is an integer) obtained as a result is obtained.
  • B-mode image data and Doppler image data corresponding to the time phase, speed information and speed dispersion information (average speed value, average dispersion value, dispersion value of speed, etc.) in the first region of interest in each Doppler image data Are stored in the external storage device 106 in such a manner that the time phase of image generation can be determined.
  • the control processor 101 When the operator instructs the start of processing by operating the operation panel 103, the control processor 101 first reads and stores B-mode image data corresponding to the i-th time phase from the external storage device 106 via the data input / output unit 105.
  • the Doppler image data corresponding to the i-th time phase is read from the external storage device 106 and stored in the storage unit 104 (Step S402), and the i-th time phase is stored from the external storage device 106. Is read and stored in the storage unit 104 (step S403).
  • i is a counter value generated by the control processor 101 in its own memory, and is an integer of 1 or more and N or less.
  • control processor 101 sets segmentation and a region of interest (second region of interest) based on the B-mode image data obtained in step S401 by the same method as step S105 (step S404). After setting the second region of interest, the control processor 101 uses the same method as step S106, and in the Doppler image data read in step S402, the color of the Doppler signal included in the second region of interest set in step S404. The number of pixels is calculated (step S405). The control processor 101 stores the calculated number of color pixels in the storage unit 104 in association with the Doppler image data read in step S ⁇ b> 402 and stored in the storage unit 104.
  • step S405 the control processor 101 determines whether or not the counter i has reached N (step S406). If the counter i has not reached N (No in step S406), the control processor 101 increments the counter i by 1 and executes steps S401 to S405 again.
  • step S406 the control processor 101 diagnoses from the plurality of B-mode image data and Doppler image data sequentially stored in step S401 and step S402 that are repeatedly executed.
  • a process for selecting candidate image data suitable for the image is executed (steps S407 to S409), and the selected candidate image data is displayed on the monitor 102 (step S410). Since steps S407 to S410 are the same as steps S108 to S111, the description thereof is omitted.
  • a plurality of image data is temporarily stored at the time of an inspection using the ultrasonic diagnostic apparatus, and the image that is later reviewed and finally left in a report or the like
  • the examiner and the image data interpreter are different.
  • the examiner does not have to select image data useful for diagnosis by himself / herself, and can perform scanning in a concentrated manner.
  • the radiogram interpreter can efficiently confirm a series of image data stored by the examiner in a short time later and select image data useful for diagnosis. Accordingly, it is possible to prevent the possibility of misdiagnosis due to selection of image data depending on the subjectivity of the examiner, and to provide more reliable diagnostic information to the image interpreter.
  • the operation flow in this embodiment will be described with reference to the flowchart of FIG.
  • the basic operation flow is the same as in the second embodiment.
  • the image processing apparatus reads and processes B-mode image data and Doppler image data from a network connected to the data input / output unit 105 or the external storage device 106 without performing transmission / reception of ultrasonic waves and generation of image data. The point is different.
  • the control processor 101 When the operator gives an instruction to start processing by operating the operation panel 103, the control processor 101 first reads B-mode image data corresponding to the i-th time phase from the external storage device 106 in the same manner as in step S401, and stores it in the storage unit 104.
  • step S501 the Doppler image data corresponding to the i-th time phase is read from the external storage device 106 and stored in the storage unit 104 in the same manner as in step S402 (step S502).
  • control processor 101 calculates the total number of color pixels having a power value equal to or greater than a preset threshold value and included in the first region of interest by the same method as in step S204 (step S503).
  • the control processor 101 stores the calculated number of color pixels in the storage unit 104 in association with the Doppler image data read in step S502 and stored in the storage unit 104.
  • step S503 the control processor 101 determines whether or not the counter i has reached N (step S504). If the counter i has not reached N (No in step S504), the control processor 101 increments the counter i by one and executes steps S501 to S503 again.
  • step S504 the control processor 101 performs diagnosis from a plurality of B-mode image data and Doppler image data sequentially stored in step S501 and step S502 that are repeatedly executed.
  • a process for selecting candidate image data suitable for the image is executed (steps S505 to S507), and the selected candidate image data is displayed on the monitor 102 (step S508).
  • Steps S505 to S508 are the same as steps S206 to S209, and a description thereof will be omitted.
  • the image processing apparatus can provide the same effects as those of the second embodiment and the fourth embodiment.
  • the operation flow in this embodiment will be described with reference to the flowchart of FIG.
  • the basic operation flow is the same as in the third embodiment.
  • the image processing apparatus reads and processes B-mode image data and Doppler image data from a network connected to the data input / output unit 105 or the external storage device 106 without performing transmission / reception of ultrasonic waves and generation of image data. The point is different.
  • the ultrasonic diagnostic apparatus connected to the network has already executed the processing of steps S301 to S303 and S306 in the third embodiment, and 1 to N (N is an integer) obtained as a result thereof.
  • B-mode image data and Doppler image data corresponding to each time phase, position (x, y, z), posture ( ⁇ x, ⁇ y, ⁇ z), and velocity (vx, vy, vz) of the ultrasonic probe 2 Are stored in the external storage device 106 in such a manner that the time phase of image generation can be determined.
  • the control processor 101 When the operator instructs the start of processing by operating the operation panel 103, the control processor 101 first reads and stores B-mode image data corresponding to the i-th time phase from the external storage device 106 via the data input / output unit 105.
  • the Doppler image data corresponding to the i-th time phase is read from the external storage device 106 and stored in the storage unit 104 (Step S602), and the i-th time phase is stored from the external storage device 106.
  • the position (x, y, z), posture ( ⁇ x, ⁇ y, ⁇ z), and velocity (vx, vy, vz) corresponding to are read and stored in the storage unit 104 (step S603).
  • control processor 101 sets segmentation and a region of interest (second region of interest) based on the B-mode image data read in step S601 by the same method as step S105 (step S604). Further, the control processor 101 calculates the number of color pixels of the Doppler signal included in the second region of interest set in Step S604 in the Doppler image data read in Step S602 by the same method as Step S106 (Step S106). S605). The control processor 101 stores the calculated number of color pixels in association with the Doppler image data read in step S602 and stored in the storage unit 104.
  • step S605 the control processor 101 determines whether or not the counter i has reached N (step S606). If the counter i has not reached N (No in step S606), the control processor 101 increments the counter i by one and executes steps S601 to S605 again.
  • step S606 the control processor 101 performs diagnosis from the plurality of B-mode image data and Doppler image data sequentially stored in step S601 and step S602 that are repeatedly executed.
  • a process for selecting candidate image data suitable for the image is executed (steps S607 to S609), and the selected candidate image data is displayed on the monitor 102 (step S610). Steps S607 to S610 are the same as steps S308 to S311 and will not be described.
  • steps S108, S206, S308, S407, S505, and S607 may be omitted. Furthermore, in steps S108, S308, S407, and S607, image data that is inappropriate for diagnosis may be excluded based on the number of color pixels as in steps S206 and S505.
  • the setting of the second region of interest (steps S105, S304, S404, S604) can be omitted.
  • the first region of interest may be used as the region of interest for calculating the number of color pixels, or another predetermined region of interest may be used.
  • the setting of the second region of interest (steps S105 and S304) and the calculation and storage of the number of color pixels (steps S106, S204, and S305) are input by the operator to stop scanning. It may be performed later.
  • the image similarity may be calculated based on Doppler image data instead of B-mode image data, or may be calculated based on both image data.
  • the number of color pixels of Doppler image data (particularly, power Doppler image data) is employed as a parameter used for selecting image data
  • the parameter used for selecting image data in each embodiment does not necessarily need to be the number of color pixels.
  • the sum of the power values of the color pixels can be used as the parameter. In this case, it is difficult to be influenced by a color pixel having a small power value such as a noise signal, and it is possible to preferentially select image data containing a lot of signals having a high blood flow density.
  • the sum of the speed values of the color pixels can be used as the parameter. This parameter is useful when it is desired to preferentially extract an image including a blood flow having a high blood flow velocity.
  • the case where the selected image data is displayed on the monitors 4 and 102 has been exemplified.
  • the selected image data is not displayed immediately on the monitor 4 or 102, but the image data is easily displayed later by attaching a tag for identifying the image data to other image data. You may be able to browse. Further, when referring to image data collected in the past by an operation of a trackball or the like while continuously switching, the switching may be stopped at the position of the tagged image.

Abstract

超音波診断装置は、被検体に対して超音波走査を繰り返す送受信部(11,12)と、送受信部の出力に基づいて複数の画像のデータを生成する画像生成部(13)と、送受信部の出力に基づいて複数の血流画像のデータを生成する血流画像生成部(14)と、複数の画像間の類似度を算出し、類似度に基づいて複数の画像から類似性の低い少なくとも2枚の画像を特定し、特定された少なくとも2枚の画像に走査時刻がそれぞれ対応する少なくとも2枚の血流画像を複数の血流画像から選定する画像選定部(15)と、選出された少なくとも2枚の血流画像を表示する表示部(4)とを具備する。

Description

超音波診断装置、画像処理装置および画像処理方法
 本発明の実施形態は、被検体に対して超音波信号を送受信することにより被検体内の様子を画像化する超音波診断装置、画像処理装置および画像処理方法に関する。
 超音波診断は、超音波プローブを体表から当てるだけの簡単な操作で心臓の拍動や胎児の動きの様子がリアルタイムで観察でき、かつ安全性が高いため繰り返して検査が行える。さらに、超音波診断に係るシステムは、その規模がX線診断装置、X線CT(Computed Tomography)装置、あるいはMRI(Magnetic Resonance Imaging)装置など他の診断機器に比べて小さく、ベッドサイドへ移動しての検査も容易に行えるなど簡便である。また、超音波診断はX線のように被曝の影響がなく、産科や在宅医療等においても使用することができる。
 近年、超音波診断装置の飛躍的な空間分解能の向上により、四肢・指や関節など体表のごく小さい領域に対する適用が進んでいる。また、ドプラモードにより血液の流れを可視化する技術においても感度が向上しており、ごく弱い血流も観察できるようになった。このため、近年、関節リウマチの分野で超音波診断が広く普及しつつある。関節リウマチの診断においては、主にBモードで関節内の腫脹の程度を観察したり、ドプラモードにおいて炎症血流の度合いを観察したりすることが行われ、これらについてはそれぞれ症状の程度をスコアリングする評価方法も提案されている。
 関節炎の症状はひとつの関節内においても場所によって異なることがしばしば起こる。
そのため、1つの断面だけを見て診断を行うのではなく、関節全体を観察したうえで、もっとも炎症が強く起こっていると思われる部分の画像データを保存し、当該画像データに基づいて診断を行う必要がある。また、拍動によっても血流の見え方が異なることがあるため、血流のより多い時相に対応する画像データを選択して診断に用いることが好ましい。このように、検査者は1つの関節を観察する際、超音波スキャンにより得られた多数の画像データの中から診断に適した画像データを選択することが求められる。しかも、一般的には1人の患者につき複数の関節を観察することになる。よって、実際の検査においては、ある領域内でプローブを動かしながらスキャンを行い、ある点で画像をフリーズさせた後、トラックボールなどを操作しながらメモリに一時的に保存された画像データに基づく画像を見直していき、血流がもっともよく捉えられている画像を選択し、その画像に係る画像データを保存するという操作がよく行われる。この一連の手順は、検査者にとって大きな負担となり得る。
 なお、関節に限られずに、被検体の他の部位を超音波診断装置にて観察する際にも、同様の問題が生じ得る。
特許第3267739号公報 特許第3683945号公報 特開平9-75344号公報 特開2007-190172号公報
 目的は、超音波の送受信によって得られた複数の画像データから診断に適した画像データを選定する超音波診断装置、画像処理装置および画像処理方法を提供することである。
 一実施形態に係る超音波診断装置は、被検体に対して超音波走査を繰り返す送受信部と、前記送受信部の出力に基づいて、複数の画像のデータを生成する画像生成部と、前記送受信部の出力に基づいて、複数の血流画像のデータを生成する血流画像生成部と、前記複数の画像間の類似度を算出する類似度算出部と、前記類似度に基づいて、前記複数の画像から類似性の低い少なくとも2枚の画像を特定する特定部と、前記特定された少なくとも2枚の画像に走査時刻がそれぞれ対応する少なくとも2枚の血流画像を前記複数の血流画像から選定する画像選定部と、前記選出された少なくとも2枚の血流画像を表示する表示部とを具備する。
図1は第1の実施形態に係る超音波診断装置の要部構成を示すブロック図である。 図2は同実施形態に係る超音波診断装置の動作を示すフローチャートである。 図3は同実施形態において関節腔の輪郭を抽出する手法を説明するための図である。 図4は同実施形態における時間面積曲線の一例を示す図である。 図5は同実施形態における画像類似度(平均2乗誤差)のプロットを示す図である。 図6は同実施形態における候補画像の表示例を示す図である。 図7は第2の実施形態に係る超音波診断装置の動作を示すフローチャートである。 図8は同実施形態における時間面積曲線の一例を示す図である。 図9は同実施形態においてモーションアーチファクトが表れた超音波画像の一例を示す図である。 図10は同実施形態における画像データ選定の手法を説明するための図である。 図11は同実施形態における効果を説明するための図である。 図12は同実施形態における効果を説明するための図である。 図13は第3の実施形態に係る超音波診断装置の要部構成を示すブロック図である。 図14は第3の実施形態に係る超音波診断装置の動作を示すフローチャートである。 図15は同実施形態に係る画像データ選定の手法を説明するための図である。 図16は同実施形態に係る画像データ選定の手法を説明するための図である。 図17は第4の実施形態に係る画像処理装置の要部構成を示すブロック図である。 図18は同実施形態に係る画像処理装置の動作を示すフローチャートである。 図19は第5の実施形態に係る超音波診断装置の動作を示すフローチャートである。 図20は第6の実施形態に係る超音波診断装置の動作を示すフローチャートである。
 いくつかの実施形態につき、図面を参照しながら説明する。 
 第1,第2,第3の実施形態においては超音波診断装置を開示し、第4,第5,第6の実施形態においては画像処理装置を開示する。各実施形態において、同一の構成要素には同一の符号を付し、重複説明は省略する。
(第1の実施形態)
 先ず、第1の実施形態について説明する。 
 図1は、本実施形態に係る超音波診断装置の要部構成を示すブロック図である。同図に示すように、当該超音波診断装置は、装置本体1と、超音波プローブ2と、入力装置3と、モニタ4とを備える。
 装置本体1は、超音波送信部11と、超音波受信部12と、Bモード処理部13と、ドプラ処理部14と、画像生成部15と、画像メモリ16と、画像合成部17と、制御プロセッサ18と、記憶部19と、インタフェース部20とを備える。装置本体1に内蔵される超音波送信部11および超音波受信部12等は、集積回路などのハードウェアで構成されることもあるが、ソフトウェア的にモジュール化されたソフトウェアプログラムである場合もある。
 以下、個々の構成要素の機能について説明する。 
 超音波プローブ2は、2次元スキャン対応の一の超音波振動子列又は3次元スキャン対応の超音波振動子の2次元アレイを有する。超音波プローブ2は、超音波送信部11からの駆動信号に基づき超音波を発生し、被検体からの反射波を電気信号に変換する複数の圧電振動子、当該圧電振動子に設けられる整合層、当該圧電振動子から後方への超音波の伝播を防止するバッキング材等を備える。当該超音波プローブ2から被検体Pに超音波が送信されると、当該超音波は被検体Pの体内組織の音響インピーダンスの不連続面で次々と反射され、エコー信号として超音波プローブ2に受信される。このエコー信号の振幅は、反射することになった不連続面における音響インピーダンスの差に依存する。また、送信された超音波パルスが移動している血流や心臓壁等の表面で反射された場合のエコー信号は、ドプラ効果により移動体の超音波送信方向の速度成分に依存して、周波数偏移を受ける。
 入力装置3は、装置本体1に接続され、オペレータからの各種指示、条件、関心領域(ROI:Region Of Interest)の設定指示、種々の画質条件設定指示等を装置本体1に取り込むための各種スイッチ、ボタン、トラックボール、マウス、およびキーボード等を備える。
 モニタ4は、装置本体1から供給されるビデオ信号に基づいて、生体内の形態学的情報や、血流画像を画像として表示する。
 超音波送信部11は、パルス発生器11A、送信遅延部11Bおよびパルサ11C等を備える。パルサ11Cは、所定のレート周波数fr Hz(周期;1/fr秒)で、送信超音波を形成するためのレートパルスを繰り返し発生する。また、送信遅延部11Bは、チャンネル毎に超音波をビーム状に集束し且つ送信指向性を決定するのに必要な遅延時間を、各レートパルスに与える。送信方向あるいは送信方向を決定する遅延時間は記憶部19に記憶されており、送信遅延部11Bは記憶部19に記憶された遅延時間を送信時に参照する。パルサ11Cは、送信遅延部11Bを経たレートパルスに基づくタイミングで、超音波プローブ2に駆動パルスを印加する。
 超音波受信部12は、プリアンプ12A、A/D変換器(図示せず)、受信遅延部12B、加算器12C等を備える。プリアンプ12Aは、超音波プローブ2を介して取り込まれたエコー信号をチャンネル毎に増幅する。受信遅延部12Bは、プリアンプ12Aによって増幅されたエコー信号に対し受信指向性を決定するのに必要な遅延時間を与える。受信遅延部12Bは、超音波の送信時と同様に、受信方向あるいは受信方向を決定する遅延時間を、記憶部19を参照して決定する。加算器12Cは、受信遅延部12Bを経た信号の加算処理を行う。この加算により、エコー信号の受信指向性に応じた方向からの反射成分が強調され、受信指向性と送信指向性とにより超音波送受信の総合的なビームが形成される。 
 このように、超音波送信部11および超音波受信部12は、被検体Pに超音波信号を送信するとともに、被検体P内にて反射した超音波信号(エコー信号)を受信する送受信部として機能する。
 Bモード処理部13は、超音波受信部12から受け取ったエコー信号に対して対数増幅、包絡線検波処理などの各種処理を施し、信号強度が輝度の明るさで表現されるBモード画像データを生成する。Bモード処理部13は、生成したBモード画像のデータを画像生成部15に送信する。Bモード画像は被検体の内部形態を表す形態画像である。
 ドプラ処理部14は、超音波受信部12から受け取ったエコー信号から速度情報を周波数解析し、ドプラ効果による血流や組織、造影剤エコー成分を抽出し、平均速度、分散、パワー等の空間分布、つまり血流画像を発生する。ドプラ処理部14は、得られた血流画像を画像生成部15に送信する。
 画像生成部15は、Bモード処理部13から供給されるBモード画像のデータを、テレビ等に代表される一般的なビデオフォーマットの走査線信号列に変換し、表示画像としてのBモード画像データを生成する。さらに画像生成部15は、ドプラ処理部14から供給される血流画像に基づき、血流の運動が観測される位置を平均速度、分散あるいはパワーに応じた色合いのカラーピクセルにて表現したドプラ画像データを生成する。画像生成部15は、Bモード画像データやドプラ画像データを格納する記憶メモリを搭載しており、例えば診断の後にオペレータが検査中に記録された画像データを呼び出すことが可能となっている。
 このように、Bモード処理部13および画像生成部15は、Bモード画像データ(2次元b又は3次元の形態画像のデータ)を生成する断層像生成部として機能する。また、ドプラ処理部14および画像生成部15は、Bモード画像データに係る断面における血流の運動状態を表すドプラ画像データ(血流画像データ)を生成する血流画像生成部として機能する。
 画像メモリ16は、画像生成部15にて生成された画像データを格納する記憶メモリから成る。この画像データは、例えば診断の後にオペレータが呼び出すことが可能となっており、静止画的に、あるいは複数枚を使って動画的に再生することが可能である。また、画像メモリ16は、超音波受信部12通過後の画像輝度信号、その他の生データ、ネットワークを介して取得した画像データ等を必要に応じて記憶する。
 画像合成部17は、画像生成部15にて生成されたBモード画像データ上に、画像生成部15にて生成されたドプラ画像データを合成した表示データを生成し、生成した表示データをモニタ4に出力する。
 モニタ4は、画像合成部17から入力される表示データに基づく超音波画像(Bモード画像+ドプラ画像)等を表示する。これにより、モニタ4には、輝度にて表された被検体Pの断層上に、動体の平均速度、分散、パワー等がカラーマッピングされた画像が表示される。
 記憶部19は、スキャンシーケンス、画像生成・表示処理を実行するための制御プログラムや、診断情報(患者ID、医師の所見等)、送受信条件、その他のデータ群などを記憶する。また、記憶部19は、必要に応じて画像メモリ16が記憶する画像データの保管などにも使用される。記憶部19が記憶するデータは、インタフェース部20を経由して外部周辺装置へ転送することも可能である。
 制御プロセッサ18は、例えばCPU(Central Processing Unit)やROM(Read Only Memory)およびRAM(Random Access Memory)等のメモリを主体として構成され、装置本体1の動作を制御する制御部として機能する。制御プロセッサ18は、記憶部19から画像生成・表示等を実行するための制御プログラムを読み出して各種処理に関する演算・制御等を実行する。
 インタフェース部20は、入力装置3、LAN(Local Area Network)等のネットワーク、および外部記憶装置(図示せず)等に関するインタフェースである。当該超音波診断装置によって得られた画像データや解析結果等は、インタフェース部20およびネットワークを介して他の装置へ転送することも可能である。
 次に、本実施形態に係る超音波診断装置の主要な動作について説明する。 
 図2は、当該超音波診断装置の動作を示すフローチャートである。このフローチャートに示す動作のうち、ステップS105,S106,S108~S110は、制御プロセッサ18が記憶部19に保存された解析プログラムを実行することにより実現される。
 オペレータが入力装置3を介して超音波診断の開始指示を入力すると、制御プロセッサ18は、超音波送信部11および超音波受信部12に超音波の送受信の開始を指示する(ステップS101)。このとき、超音波送信部11が予め定められた設定に従って送信信号を超音波プローブ2に出力し、この信号を受けた超音波プローブ2が被検体P内に超音波信号を発する。また、被検体内から反射・散乱して返ってきた超音波信号(エコー信号)を超音波プローブ2が検出し、このエコー信号を超音波受信部12が受信処理する。ここで、本実施形態においては、送受信される超音波信号はBモード画像データ生成用の送受信セットと、ドプラ画像データ生成用の送受信セットを含み、それらが交互に送受信されるものとする。ドプラ画像データ生成用の信号は、同一走査線上に連続して複数回の送受信を行うことによって得られたものであり、複数の受信信号の相関を計算することによって、該走査線の各位置における速度情報を得ることができる。
 Bモード処理部13が超音波受信部12から出力されるBモード画像データ生成用の受信信号を既述の通り処理し、画像生成部15がグレースケールのBモード画像データを生成する(ステップS102)。
 一方、ドプラ処理部14が超音波受信部12から出力されるドプラ画像データ生成用の受信信号を既述の通り処理し、画像生成部15がカラースケールのドプラ画像データを生成する(ステップS103)。画像生成部15は、ステップS102,S103にて生成したBモード画像データおよびドプラ画像データを、画像生成の時相が判別できるような態様にて記憶部19に保存する。なお、本実施形態において、ステップS103にて生成されるドプラ画像データは、血流のパワーをカラーで表現するパワードプラ画像データであるとする。ただし、ステップS103にて生成されるドプラ画像データは、血流の速度をカラーで表現するカラードプラ画像データであってもよい。
 ステップS102,S103の一方で、ドプラ処理部14がドプラ画像データ生成用の受信信号を別途処理することにより、予め指定された第1関心領域内における速度および速度の分散に関する情報を算出する(ステップS104)。第1関心領域は、例えばBモード画像データ上においてドプラ画像データを生成・表示する範囲を定めるカラーROIである。
 ステップS104の処理について詳細に説明する。ステップS103で血流画像を生成するに際して、ドプラ処理部14は、血流以外の組織からの信号を除去するため、速度の小さい信号をカットする特徴を持つウォールフィルタ(あるいはMTIフィルタ)を受信信号に施している。一方で、ドプラ処理部14は、ステップS104においてはこのフィルタを施さず、同一走査線において得られた複数の受信信号からそのまま相関演算をすることによって、各点における速度および分散を算出する。これによって、各点において、体動や検査者の手ぶれ等による血流以外の組織の動きも含めた絶対的な速度の値を得ることができる。ドプラ処理部14は、得られた情報に基づいて、第1関心領域全体における速度の平均値、分散の平均値、速度の分散値を算出する(速度あるいは分散の情報に基づいていれば、これ以外のものでも構わない)。本実施形態においては、体動や手ぶれの指標として、速度の平均値を用いることとする。そこで、制御プロセッサ18は、ステップS104にて算出される速度の平均値を、ステップS103にて生成されて記憶部19に保存されたドプラ画像データに対応付けて保存する。
 次に、制御プロセッサ18は、ステップS102にて得られたBモード画像データに基づいてセグメンテーションと関心領域(第2関心領域)の設定を行う(ステップS105)。具体的には、制御プロセッサ18は、Bモード画像データに描出された関節腔の輪郭を抽出し、当該抽出した輪郭を第2関心領域として設定する。関節腔は、高輝度に描出される骨表面の上に存在する低輝度領域である。輪郭抽出については、例えば特開2007-190172号公報に開示されているような手法を用いることができる。本実施形態においては、最初にオペレータが入力装置3を操作してBモード画像データから抽出したい領域に含まれる1点を選択する。そして、制御プロセッサ18が当該選択された1点の周りの輝度が予め指定された閾値以下である領域を抽出する。
 例えば、図3に示すようなBモード画像データBIにおいて、オペレータが基準点として点Qを指定すると、制御プロセッサ18はこの点Qを起点として周囲のピクセルの輝度を分析することにより、輪郭Tのような領域を抽出する。なお、図3においてBモード画像データBI上に表された矩形枠は、ドプラ画像データを生成・表示する範囲を示すカラーROI50である。
 ここで、境界抽出を安定して行えるようにするため、Bモード画像データに平滑化処理を施してから上記のような抽出処理を行ってもよい。また、関心領域が完全に高輝度領域で囲まれているとは限らない。このような場合は、検出された一部の高輝度境界から、境界の検出されない領域を補間する処理を加えてもよい。さらに、オペレータが基準点を設定する処理は省略してもよい。この場合、制御プロセッサ18が予め定められた輝度以下の点をランダムに複数個設定し、その点を起点として周囲のピクセル輝度を分析して境界抽出を行えばよい。抽出された複数個の領域のうち、予め定められた大きさ以下の領域は除外する。また、骨表面以下の領域を除外するため、画面下端に接する領域は除外する。
 残った領域のうち、最も深部にある領域を第2関心領域として設定する。このようにすると、骨表面よりも浅い部分にある低輝度領域のうち、もっとも深部にある領域、すなわち、関節腔領域を第2関心領域として設定することができる。
 第2関心領域を設定した後、制御プロセッサ18は、ステップS103にて生成されたドプラ画像データの特性を表すパラメータとして、当該画像データにおいてステップS105にて設定した第2関心領域に含まれるドプラ信号のカラーピクセル数を算出する(ステップS106)。具体的には、制御プロセッサ18は、ステップS103にて生成されたドプラ画像データにおいて、予め設定された閾値以上のパワー値を持ち、かつ設定された第2関心領域の内部に含まれるカラーピクセルの総数を算出する。制御プロセッサ18は、算出したカラーピクセル数を、ステップS103にて生成されて記憶部19に保存されたドプラ画像データに対応付けて保存する。
 ステップS104~S106の後、制御プロセッサ18は、オペレータによりスキャン停止の指示が入力されたか否かを判定する(ステップS107)。入力されていないならば(ステップS107のNo)、動作はステップS101に戻り、ステップS101~S106が繰り返される。
 オペレータが入力装置3を操作してスキャン停止指示を入力すると(ステップS107のYes)、制御プロセッサ18は、繰り返し実行されたステップS102およびステップS103にて順次保存された複数のBモード画像データおよびドプラ画像データの中から、診断に適した画像データを選定するための処理を実行する(ステップS108~S110)。
 先ず、制御プロセッサ18は、ステップS104にて算出した第1関心領域内の速度の平均値が予め定められた閾値よりも大きいドプラ画像データおよびこれと同時相のBモード画像データを、モーションアーチファクトが大きく診断画像として適切でないとして候補から排除する(ステップS108)。なお、ステップS108における画像データの排除は、例えば特開平9-75344号公報に開示された手法を応用して、1フレームを構成する前画素数に対する速度が0以外の有効画素数の比率を複数のドプラ画像データ各々について演算し、この比率が有効範囲から外れたドプラ画像データおよびこれに対応するBモード画像データを排除するものであってもよい。また、速度の分散に関する値を用いてステップS108を実行することもできる。この場合、ステップS104において、ドプラ処理部14が算出した分散の平均値等の値を、ステップS103にて生成されて記憶部19に保存されたドプラ画像データに対応付けて保存する。そして、ステップS108において、制御プロセッサ18は、記憶部19に保存された分散に関する値が予め定められた閾値よりも大きいドプラ画像データおよびこれと同時相のBモード画像データを、モーションアーチファクトが大きく診断画像として適切でないとして候補から排除する。
 次に、制御プロセッサ18は、残ったドプラ画像データの全てについて、ステップS106にて算出されたカラーピクセル数、つまり血流画素数を時系列(各セットに係る画像データの時相順)にプロットし、図4に示すような時間面積曲線Cを作成する。制御プロセッサ18は、この時間面積曲線Cに基づき候補画像データを選定する(ステップS109)。具体的には、制御プロセッサ18は、時間面積曲線Cにおいてカラーピクセル数が極大となる点を全て抽出する。例えば図4に示す例において、制御プロセッサ18は、t1~t8の8点を抽出する。抽出した点に対応するBモード画像データおよびドプラ画像データが候補画像データとなる。
 続いて、制御プロセッサ18は、ステップS109にて抽出した各点に対応するBモード画像データに基づき、画像類似度の計算および候補画像データの絞込みを行う(ステップS110)。ここに、画像類似度とは、ステップS109にて抽出した各点に対応するBモード画像データおよびドプラ画像データの組み合せごとに、他の組み合せに係るBモード画像データおよびドプラ画像データとの類似度合いを定量化した指標である。画像類似度としては、例えば比較対象の2つの画像データに含まれる対応する画素ごとの差分の2乗値を相加平均して平方根をとる平均2乗誤差を用いることができる。その際、Bモード画像データの移動分(ズレ)を考慮すべく、2つの画像データをパターンマッチングして差分をとる画素を調整してもよい。
 具体的な処理の流れは次の通りである。 
 先ず、制御プロセッサ18は、ステップS109にて抽出した各点に対応するBモード画像データのうちの1つと、ステップS109にて抽出した各点に対応するその他のBモード画像データとの画像類似度(平均2乗誤差)を算出する。そして、制御プロセッサ18は、算出した平均2乗誤差が予め定められた閾値以下であるBモード画像データのうち、カラーピクセル数が最も大きいBモード画像データとこれに対応する時相のドプラ画像データとを候補画像データとして記憶部19に保存する。続いて、制御プロセッサ18は、平均2乗誤差が閾値以上であったBモード画像データ群に対して上記過程を繰り返し、同様に得られたBモード画像データとこれに対応する時相のドプラ画像データとを候補画像データとして記憶部19に保存していく。
 例えば図4に示す例において、制御プロセッサ18は、先ず時間t1に対応するBモード画像データと、時間t2~t8に対応するBモード画像データのそれぞれの間で、画素ごとの差分の平均2乗誤差を算出する。得られた平均2乗誤差をプロットした概念図を図5に示す。時間t1におけるプロットは便宜的に示したものであり、その画像類似度は時間t1に対応するBモード画像データ同士の平均2乗誤差であるので“0”となる。ここで、Bモード画像データが類似しているか否かの判定基準として、図5中に示すような閾値SHが設定されているものとする。
 図5においては、時間t2に係る平均2乗誤差が閾値以下であるので、制御プロセッサ18は、時間t1,t2に対応するBモード画像データは類似の画像データであるとみなし、時間t1およびt2のうちカラーピクセル数が大きい時間t2に対応するBモード画像データとこれに対応する時相のドプラ画像データとを1つめの候補画像データとして記憶部19に保存する。残りのBモード画像データについても同様の処理を繰り返す。すなわち、制御プロセッサ18は、残ったBモード画像データのうち時間t3に対応するBモード画像データと、時間t4~t8に対応するBモード画像データのそれぞれの間で平均2乗誤差を計算する。ここで、時間t4,t5に対応するBモード画像データとの平均2乗誤差が閾値SH以下であったとすると、制御プロセッサ18は、時間t3~t5に対応するBモード画像データの間でカラーピクセル数の比較を行い、もっともカラーピクセル数の大きな時間t5に対応するBモード画像データとこれに対応する時相のドプラ画像データとを2つ目の候補画像データとして記憶部19に保存する。さらに、制御プロセッサ18は、残ったBモード画像データのうち時間t6に対応するBモード画像データと、時間t7,t8に対応するBモード画像データのそれぞれの間で平均2乗誤差を計算する。ここで、時間t7,t8の平均2乗誤差がどちらとも閾値SH以下であったとすると、制御プロセッサ18は、時間t6~t8に対応するBモード画像データの間でカラーピクセル数の比較を行い、もっともカラーピクセル数の大きい時間t6に対応するBモード画像データとこれに対応する時相のドプラ画像データとを3つ目の候補画像データとして記憶部19に保存する。このように、ステップS109にて抽出された各点に対応する全ての画像データに対して画像類似度の計算・比較と候補画像データの選定が行われる。図4に示す例においては、3つの候補画像データが選定される。
 最後に、制御プロセッサ18は、候補画像データを表示するための処理を実行する(ステップS111)。すなわち、制御プロセッサ18は、記憶部19に記憶した各候補画像データのそれぞれについて、候補画像データを構成するBモード画像データとドプラ画像データを画像合成部17に出力する。画像合成部17は、入力されたBモード画像データとドプラ画像データを合成した表示データを生成し、モニタ4に出力する。モニタ4は、入力された表示データに基づき、モノクロのBモード画像上にカラーのドプラ画像が重畳された候補画像を表示する。
 候補画像の表示例を図6に示す。図6の例では、候補画像である3つの超音波画像UI-1,UI-2,UI-3を並べて同時に表示している。各超音波画像UI-1,UI-2,UI-3において、カラーROI50の内部に点在する低輝度部分は、血流のパワーに応じたカラーピクセルを表している。
 なお、モニタ4に表示される超音波画像を1枚のみとし、モニタ4に表示する超音波画像をオペレータが入力装置3の操作によって適宜切り替えることができるようにしてもよい。また、超音波画像に併せて、各超音波画像における所定領域内の血流面積あるいは面積率を表示してもよい。血流面積は、例えば所定領域内のカラーピクセル数や、これに所定の係数を乗じて実際の面積に換算した値である。面積率は、例えば所定領域内のカラーピクセル数を所定領域内の総ピクセル数にて除した値を百分率表記した値である。なお、所定領域としては、例えば第1関心領域やステップS105にて設定された第2関心領域を採用することができる。
 以上の説明から明らかなように、制御プロセッサ18は、複数のドプラ画像データに基づいて各ドプラ画像データの特性を表すパラメータ(カラーピクセル数)を算出するパラメータ算出部、複数のBモード画像データおよび複数のドプラ画像データにおいて、対応するBモード画像データおよびドプラ画像データの組み合せごとに画像類似度(平均2乗誤差)を算出する類似度算出部、パラメータ算出部が算出したパラメータおよび類似度算出部が算出した画像類似度に基づいて、複数のBモード画像データおよび複数のドプラ画像データのなかから診断に適したBモード画像データおよびドプラ画像データの組み合せ(候補画像データ)を選定する画像選定部として機能する。
 本実施形態に係る作用について説明する。 
 本実施形態の構成によれば、例えば被検体Pの特定の部位について複数の断面に係る超音波画像(Bモード画像やドプラ画像)を観察し、その中から診断に適した超音波画像を選択する際に、超音波診断装置が図2のフローチャートに示す動作にて自動的に診断に適した超音波画像を選定するので、オペレータの負担を軽減することができる。
 また、画像類似度を考慮することにより、似たような超音波画像が複数重複して選定されることを防ぎ、かつバリエーションに富んだ複数の超音波画像をユーザに提示することができる。これにより誤診を防ぐことができるし、例えばユーザが提示された超音波画像からさらに画像の絞り込みを行う場合においてもより少ない数の超音波画像の比較検討により診断に適した超音波画像を選択することができる。
 また、ステップS108において動きの大きい(速度の平均値が大きい)時相の超音波画像を排除することにより、モーションアーチファクトが混入した診断に不適切な超音波画像が選択されてしまうことを避けることができる。
 さらに、超音波画像の選定にあたって利用するカラーピクセル数は、Bモード画像データに基づいて設定した第2関心領域内で算出しているため、正常血管の血流など診断に寄与しない部分のカラーピクセル数が混入しにくいので、超音波画像の選定の精度を高めることができる。
 なお、類似度を計算する画像としては、形態画像には限定されない。例えば、血流画像どうし、血管造影画像どうし、組織の弾性率の空間分布を示すエラストグラフィー画像どうしで類似度を計算するようにしてもよい。
 また最終的に選定する対象としてはドプラ画像として説明したが、血管造影画像であってもよい。この場合、閾値以上の造影輝度を有する画素数が所定数以上を示す血管造影画像を候補画像として選定する。
 また図4に示すように、(A)超音波走査開始後最初に取得したドプラ画像の時相t1に最も近い時相のBモード画像を類似度計算の基準画像として用いて、当該基準画像と後続の画像との間での類似度(最小二乗誤差)を計算するようにしてもよいし、(B)超音波走査開始後最初にカラーピクセル数が閾値を超えたドプラ画像の時相t2に最も近い時相のBモード画像を類似度計算の基準画像とするとして用いて、当該基準画像と後続の画像との間での類似度(最小二乗誤差)を計算するようにしてもよい。
 このように形態画像の類似性を用いてドプラ画像を選択する、換言すると類似性が高い形態画像に走査時刻の近いドプラ画像を表示対象から除外するとの技術的思想は非常に新規である。
(第2の実施形態)
 第2の実施形態について説明する。 
 第1の実施形態においては、Bモード画像データに設定した第2関心領域内でのみカラーピクセル数を算出し、平均速度または速度分散に基づいて不適切画像の排除を行い、得られた複数の画像データの中から、Bモード画像データの輝度に基づいて算出した画像類似度に基づいて候補画像データを絞り込む例を説明した。第2の実施形態においては、より簡便な手法として、カラーROI(第1関心領域)全体でカラーピクセル数を算出し、算出されたカラーピクセル数のみに基づいて不適切な画像データを排除し、残った画像データのカラーピクセル数に基づいて画像データ群を複数領域に区分し、各区分の中から限られた数の候補画像データを抽出する例を説明する。
 なお、本実施形態に係る超音波診断装置の構成は、第1の実施形態において図1を用いて説明したものと同様であるため、説明を省略する。
 図7は、第2の実施形態に係る超音波診断装置の動作を示すフローチャートである。このフローチャートに示す動作のうち、ステップS204,S206~S208は、制御プロセッサ18が記憶部19に保存された解析プログラムを実行することにより実現される。
 オペレータからの開始指示を受けると、ステップS101と同様に超音波プローブ2が被検体P内に超音波信号を発し(ステップS201)、ステップS102と同様に画像生成部15がBモード画像データを生成し(ステップS202)、ステップS103と同様に画像生成部15がドプラ画像データを生成する(ステップS203)。画像生成部15は、ステップS202,S203にて生成したBモード画像データおよびドプラ画像データを、画像生成の時相が判別できるような態様にて記憶部19に保存する。
 次に、制御プロセッサ18が予め設定された閾値以上のパワー値を持ち、かつ予め定められた第1関心領域の内部に含まれるカラーピクセルの総数を算出する(ステップS204)。制御プロセッサ18は、算出したカラーピクセル数を、ステップS203にて生成されて記憶部19に保存されたドプラ画像データに対応付けて保存する。
 ステップS202,S204の後、制御プロセッサ18は、ステップS107と同様にスキャン停止の指示が入力されたか否かを判定する(ステップS205)。入力されていないならば(ステップS205のNo)、動作はステップS201に戻り、ステップS201~S204が繰り返される。
 やがて、オペレータが入力装置3を操作してスキャン停止指示を入力すると(ステップS205のYes)、制御プロセッサ18は、繰り返し実行されたステップS202およびステップS203にて順次保存された複数のBモード画像データおよびドプラ画像データの中から、診断に適した画像データを選定するための処理を実行する(ステップS206~S208)。
 先ず、制御プロセッサ18は、ステップS204にて算出したカラーピクセル数に基づいて時間面積曲線(各時相におけるカラーピクセル数のプロット)を作成し、これに基づいて診断に不適切な画像データを排除する(ステップ206)。図8に時間面積曲線の一例を示す。同図においては、横軸を時相順に割り当てられたフレーム番号とし、縦軸を第1関心領域内に含まれるカラーピクセルの割合(ステップS204にて算出したカラーピクセル数を第1関心領域内の全画素数にて除した値の百分率表記)としている。同図に示した時間面積曲線C2において、フレーム番号60~100付近に現れる急峻なピークは、モーションアーチファクトに起因する。
 このモーションアーチファクトが描画された超音波画像(Bモード画像+ドプラ画像)の一例を図9に示す。図6と比較すれば明らかなように、カラーROI50内には、広範囲に亘ってモーションアーチファクト(低輝度で表した部分)が表れている。モーションアーチファクトが混入した超音波画像UI(以下、ノイズ画像データと称す)は、診断に用いることができない。そこで、本実施形態ではこのようなノイズ画像データを候補対象から排除する。例えば制御プロセッサ18は、図8のようなプロットにおいて、各点と左右隣接する点の差分がある一定値以上となるピークを検出し、検出したピーク点を含む山全てに対応するBモード画像データおよびドプラ画像データをノイズ画像データとして排除する。このようにして得られたノイズ画像データ排除後の時間面積曲線C2’を図10に示す。
 ステップS206の後、制御プロセッサ18は、時間面積曲線C2’が表すカラーピクセル数に基づいて画像データ群の区分を行う(ステップ207)。この処理において、制御プロセッサ18は、時間面積曲線C2’の時間変化を観測し、変化の少ないところは同じような断面であるとみなし、変化の大きいところは断面の位置が変化したとみなして、画像データ群を予め定められた区分数に区分する。
 ステップS207における具体的な処理について説明する。先ず、制御プロセッサ18は、時間変化曲線C2’に対して平滑化処理を行う。図10に平滑化された時間面積曲線CSの一例を示す。次に、制御プロセッサ18は、平滑化された時間変化曲線CSを時間微分した微分曲線ΔCSを求める。ここで、安定した結果を得るために、制御プロセッサ18は時間微分に加えてさらなる平滑化処理を行ってもよい。時間微分曲線ΔCSが極大値となる点が、時間変化曲線C2’が大きく変化した点とみなすことができる。そこで、制御プロセッサ18は、時間微分曲線ΔCSの極大値を検出する。ここで、図10に極大値検出点Mを示す。同図の例では2つの極大値検出点M-1,M-2が得られる。制御プロセッサ18は、このようにして検出された極大値検出点Mを時間領域の区切り位置として、画像データ群を区分する。例えば図10の例では、フレーム番号が0以上かつ極大値検出点M-1未満のBモード画像データおよびドプラ画像データと、フレーム番号が極大値検出点M-1以上かつ極大値検出点M-2未満のBモード画像データおよびドプラ画像データと、フレーム番号が極大値検出点M-2以上のBモード画像データおよびドプラ画像データとに区分する。
 なお、図10の例においては極大値は2つのみであるが、場合によってはより多数の極大値が求まることがある。そこで、予め最大区分数を定めておき、求まった多数の極大値によって区切られる区分の数がこの最大区分数を超える場合には、当該多数の極大値のうち時間微分曲線ΔCSにおける値が大きい方から順に所定数(例えば、最大区分数-1)を区分に使用する極大値として採用してもよい。
 ステップS207の後、制御プロセッサ18は、ステップS207にて設定した各区分において候補画像データの選定を行う(ステップS208)。具体的には、制御プロセッサ18は、第1の実施形態におけるステップ109と同様に、時間面積曲線C2に基づいてカラーピクセル数が極大となる点を全て抽出する。さらに、制御プロセッサ18は、抽出した各点に関して、各区分においてカラーピクセル数が大きいものから予め定められた数(例えば1点)を抽出する。このように抽出した点に対応するBモード画像データおよびドプラ画像データが候補画像データとなる。
 最後に、制御プロセッサ18は、ステップS111と同様に候補画像データに係る超音波画像(Bモード画像+ドプラ画像)を表示するための処理を実行する(ステップS209)。複数の超音波画像は時系列に表示してもよいし、カラーピクセル数の大きいものから順に表示してもよい。また、全てあるいは予め定められた数の超音波画像を並べて同時に表示してもよい。また、超音波画像に併せて、各超音波画像における所定領域内の血流面積あるいは面積率を表示してもよい。
 本実施形態の作用について説明する。 
 図11は、ステップS206を経た後の時間面積曲線C2’においてカラーピクセル数の大きい方から順に3つのフレーム番号に対応するBモード画像データおよびドプラ画像データに基づく超音波画像UI-11,UI-12,UI-13を表示した例である。同図から明らかなように、複数の超音波画像が表示されていてもいずれも似たような画像であり、診断情報が増えていないと言える。これは、図10に例示した時間面積曲線C2’からも判るように、最後の方の時間領域(フレーム番号が大きい時相)の画像データばかりが選択されているからである。この時間領域の画像データは、いずれも正常血流が入り込んでいるために、第1関心領域内のカラーピクセル数が多い。
 一方で、図12は、ステップS207における画像データ群の区分処理を行い、極大値検出点Mに従ったそれぞれの区分からカラーピクセル数が最も大きい候補画像データを選択し、これらの候補画像データに基づく超音波画像UI-21,UI-22,UI-23を表示した例である。この例から、正常血流(超音波画像UI-21のカラーROI50内左上部分に低輝度で表した部分)がほとんど存在しない領域(カラーROI50内中部)において炎症血流が反映された適切な候補画像が表示できているのが判る。
 このように本実施形態によれば、より簡単な構成と少ない計算量で、かつ精度よく、一連の画像データ群からバリエーションに富んだ複数の候補画像データを選定することができる。第1関心領域全体のカラーピクセル数を算出することにより、診断に寄与しない正常血管が支配的に表示された画像データが抽出されてしまう可能性は大きくなるが、カラーピクセル数の変化度合に基づいて画像データ群を区分することによってカラーピクセル数の少ない領域からも候補画像データを選定できる。その結果、診断に有用である小さな炎症血流のみが表示された超音波画像もモニタ4に表示されるようになる。
 その他、第1の実施形態と同様の効果が得られる。
(第3の実施形態)
 第3の実施形態について説明する。 
 第1および第2の実施形態においては第1関心領域内の平均速度やカラーピクセル数の時間変化に基づいてモーションアーチファクトが大きい画像データを診断に不適切な画像データとして候補対象から排除した。第3の実施形態においては超音波プローブ2に同プローブ2の位置、姿勢、あるいは速度に関する情報を検出するセンサを設け、このセンサが検出する情報を利用して診断に不適切な画像データを排除する。さらに、このセンサが検出する情報を利用して候補画像データの絞り込みを行う。
 本実施形態に係る超音波診断装置の構成は、第1の実施形態において図1を用いて説明したものと略同様である。但し、本実施形態に係る超音波診断装置は、図13に示すように制御プロセッサ18に接続されたセンサ5を備える点で相違する。
 センサ5は、超音波プローブ2の位置、姿勢、あるいは速度に関する情報を検出し、検出結果を制御プロセッサ18に出力する。
 センサ5としては、例えば磁気センサを用いることができる。この場合、所定強度の磁場を形成するトランスミッターを被検体Pの近傍に配置するとともに、当該磁気センサであるセンサ5を超音波プローブ2に取り付ける。センサ5は、例えばトランスミッターを原点とするX軸,Y軸,Z軸にて定義される3次元座標空間(X,Y,Z)における超音波プローブ2の位置(x,y,z)および姿勢(θx,θy,θz)を検出する。ここに、xはX軸上での超音波プローブ2の位置であり、yはY軸上での超音波プローブ2の位置であり、zはZ軸上での超音波プローブ2の位置である。また、θxはX軸を中心とした超音波プローブ2の回転角度であり、θyはY軸を中心とした超音波プローブ2の回転角度であり、θzはZ軸を中心とした超音波プローブ2の回転角度である。さらに、センサ5は、例えば位置(x,y,z)の時間変化に基づいて超音波プローブ2の速度(vx,vy,vz)を算出する部を備えてもよい。ここに、vxはX軸方向における超音波プローブ2の速度であり、vyはY軸方向における超音波プローブ2の速度であり、vzはZ軸方向における超音波プローブ2の速度である。
 また、センサ5として、例えば3軸の加速度センサを用いることもできる。このような加速度センサであるセンサ5を超音波プローブ2に取り付けた場合であっても、センサ5が検出した3軸方向の加速度に基づいて超音波プローブ2の姿勢(θx,θy,θz)や速度(vx,vy,vz)を算出することができる。
 その他にも、センサ5としては、光学的に超音波プローブ2の位置および姿勢を検出する光学式センサなど、種々のものを採用することができる。
 本実施形態においては、上記のようなセンサのうちの1つあるいは複数の組み合せを採用することにより、超音波プローブ2の位置(x,y,z)、姿勢(θx,θy,θz)、および速度(vx,vy,vz)を検出するセンサ5を構成する。
 図14は、第3の実施形態に係る超音波診断装置の動作を示すフローチャートである。
このフローチャートに示す動作のうち、ステップS305,S306,S308~S310は、制御プロセッサ18が記憶部19に保存された解析プログラムを実行することにより実現される。
 オペレータからの開始指示を受けると、ステップS101と同様に超音波プローブ2が被検体P内に超音波信号を発し(ステップS301)、ステップS102と同様に画像生成部15がBモード画像データを生成し(ステップS302)、ステップS103と同様に画像生成部15がドプラ画像データを生成する(ステップS303)。画像生成部15は、ステップS302,S303にて生成したBモード画像データおよびドプラ画像データを、画像生成の時相が判別できるような態様にて記憶部19に保存する。
 その後、制御プロセッサ18は、ステップS105と同様の手法で、ステップS302にて得られたBモード画像データに基づいてセグメンテーションと関心領域(第2関心領域)の設定を行う(ステップS304)。さらに、制御プロセッサ18は、ステップS106と同様の手法で、ステップS303にて生成されたドプラ画像データにおいてステップS304にて設定された第2関心領域に含まれるドプラ信号のカラーピクセル数を算出する(ステップS305)。制御プロセッサ18は、算出したカラーピクセル数を、ステップS303にて生成されて記憶部19に保存されたドプラ画像データに対応付けて保存する。
 本実施形態では、ステップS301~S305と並行して、制御プロセッサ18がステップS306を実行する。すなわち、制御プロセッサ18は、センサ5からセンサ5が検出する超音波プローブ2の位置(x,y,z)、姿勢(θx,θy,θz)、および速度(vx,vy,vz)に関する情報を取得し、取得時の時相が判別できるような態様にて記憶部19に保存する。
 ステップS304,S305,S306の後、制御プロセッサ18は、ステップS107と同様にスキャン停止の指示が入力されたか否かを判定する(ステップS307)。入力されていないならば(ステップS307のNo)、ステップS301~S306が繰り返される。
 やがて、オペレータが入力装置3を操作してスキャン停止指示を入力すると(ステップS307のYes)、制御プロセッサ18は、繰り返し実行されたステップS302およびステップS303にて順次保存された複数のBモード画像データおよびドプラ画像データの中から、診断に適した画像データを選定するための処理を実行する(ステップS308~S310)。
 先ず、制御プロセッサ18は、記憶部19に記憶されている各時相における速度(vx,vy,vz)に基づいて診断に不適切な画像データを排除する(ステップS308)。
具体的には、制御プロセッサ18は、各時相における速度(vx,vy,vz)を順次読み込み、その値が予め定められた閾値以上である場合は、その時相に対応するBモード画像データおよびドプラ画像データを選定候補から排除する。この閾値は、診断に不適切なほどのモーションアーチファクトがドプラ画像データに表れる速度と、そうでない速度との境界を示すものであり、実験的、経験的、あるいは理論的に求めればよい。このようにして、プローブが大きく動いたことにより、モーションアーチファクトが出ていると思われる画像データを予め選択肢から外すことができる。
 次に、制御プロセッサ18は、ステップS109と同様に、カラーピクセル数に基づいて複数の候補画像データの選定を行う(ステップS309)。
 続いて、制御プロセッサ18は、超音波プローブ2の位置(x,y,z)および姿勢(θx,θy,θz)に基づいて候補画像データの絞り込みを行う(ステップS310)。
具体的には、先ず制御プロセッサ18は、ステップS309にて選定した複数の候補画像データに対応する時相の位置(x,y,z)および姿勢(θx,θy,θz)を記憶部19から読み込む。読み込んだ位置(x,y,z)および姿勢(θx,θy,θz)のプロットの概念図を図15,図16に示す。
 図15は、ステップS309にて選定した複数の候補画像データに対応する時相の位置(x,y,z)において、X座標xをプロットしたものである。先ず、最も時相が若い時間t1における位置を基準として考える。制御プロセッサ18は、時間t1における位置から予め定められた閾値だけ正負方向にずらした参照位置RP1、RP2を設定し、この参照位置RP1とRP2の間にプロットを持つ時相を特定する。この閾値は、参照位置RP1,RP2を上限および下限とした範囲内にあるプロットを、基準としたプロットと同一位置にあるとみなせる値に設定する。図15においては、このとき設定された参照位置RP1,RP2を参照位置RP1-1,RP2-1と表記している。図15において、参照位置RP1-1とRP2-1の間にプロットを持つのは、時間t1以外に時間t2のみである。制御プロセッサ18は、Y座標y、Z座標zにおいても参照位置RP1,RP2を用いた同様の分析を行い、X座標x、Y座標y、Z座標zの全てにおいて参照位置RP1とRP2の間にプロットを持つ時相を特定する。このような分析の結果、図15の例において時間t2に対応する位置(x,y,z)のみが時間t1に対応する位置(x,y,z)と略同一の位置であると特定されたとする。
 続いて、制御プロセッサ18は、プローブの姿勢(θx,θy,θz)を分析する。図15に示した時間t1~t8において、X軸についての回転角度θxをプロットした概念図を図16に示す。制御プロセッサ18は、時間t1における回転角度を基準として、予め定められた閾値だけ正負方向にずらした参照角度RD1、RD2を設定する。この閾値は、参照角度RD1,RD2を上限および下限とした範囲内にあるプロットを、基準としたプロットと同一姿勢であるとみなせる値に設定する。図16においては、このとき設定された参照角度RD1,RD2を参照角度RD1-1,RD2-1と表記している。図16において、時間t1に対応するプロット以外に、時間t2~t5に対応するプロットが参照角度RD1-1からRD2-1の範囲内に収まっている。制御プロセッサ18は、回転角度θy、回転角度θzにおいても参照角度RD1,RD2を用いた同様の分析を行い、回転角度θx、θy、θzの全てにおいて参照角度RD1とRD2の間にプロットを持つ時相を特定する。このような分析の結果、図16の例において時間t2~t5に対応する姿勢(θx,θy,θz)が時間t1に対応する姿勢(θx,θy,θz)と略同一であると特定されたとする。
 最後に、制御プロセッサ18は、位置(x,y,z)の分析によって特定した時相と、姿勢(θx,θy,θz)の分析により特定した時相とで共通する時相を特定し、特定した時相および基準とした時相のそれぞれに対応するドプラ画像データのうち、ステップS305にて算出したカラーピクセル数が最も多い1つとそれに対応するBモード画像データとを候補画像データとして選定する。例えば図15,図16の例において、制御プロセッサ18は、位置(x,y,z)の分析によって特定した時間t2および姿勢(θx,θy,θz)の分析により特定した時間t2~t5で共通する時間t2と、基準とした時間t1とに対応するBモード画像データおよびドプラ画像データのうち、ステップS305にて算出したカラーピクセル数が最も多い1つを候補画像データとして選定することになる。
 制御プロセッサ18は、位置(x,y,z)の分析によって特定した時相と姿勢(θx,θy,θz)の分析により特定した時相とで共通する時相および基準とした時相を除く時相を対象として、同様の分析と候補画像データの選定を繰り返す。例えば図15,図16の例においては、時間t3~t8が次の分析および選定の対象となる。図15の例において、制御プロセッサ18は、時間t3におけるプロットを基準として新たに参照位置RP1,RP2を設定する。図15においては、このとき設定された参照位置RP1,RP2を参照位置RP1-2,RP2-2と表記している。図15において、参照位置RP1-2とRP2-2の間にプロットを持つのは、時間t3以外に時間t4~t8である。制御プロセッサ18は、Y座標y、Z座標zにおいても参照位置RP1,RP2を用いた同様の分析を行い、X座標x、Y座標y、Z座標zの全てにおいて参照位置RP1とRP2の間にプロットを持つ時相を特定する。このような分析の結果、図15の例において時間t4~t8に対応する位置(x,y,z)が時間t3に対応する位置(x,y,z)と略同一の位置であると特定されたとする。
 続いて、制御プロセッサ18は、プローブの姿勢(θx,θy,θz)を分析する。図16の例において、制御プロセッサ18は、時間t3における回転角度θxを基準として、予め定められた閾値だけ正負方向にずらした参照角度RD1、RD2を設定する。図16においては、このとき設定された参照角度RD1,RD2を参照角度RD1-2,RD2-2と表記している。図16において、時間t3に対応するプロット以外に、時間t4,t5に対応するプロットが参照角度RD1-2からRD2-2の範囲内に収まっている。
制御プロセッサ18は、回転角度θy、回転角度θzにおいても参照角度RD1,RD2を用いた同様の分析を行い、回転角度θx、θy、θzの全てにおいて参照角度RD1とRD2の間にプロットを持つ時相を特定する。このような分析の結果、図16の例において時間t4,t5に対応する姿勢(θx,θy,θz)が時間t3に対応する姿勢(θx,θy,θz)と略同一であると特定されたとする。
 最後に、制御プロセッサ18は、位置(x,y,z)の分析によって特定した時間t4~t8および姿勢(θx,θy,θz)の分析により特定した時間t4,t5で共通する時間t4,t5と、基準とした時間t3とに対応するドプラ画像データのうち、ステップS305にて算出したカラーピクセル数が最も多い1つとそれに対応するBモード画像データを2つ目の候補画像データとして選定する。
 その後、制御プロセッサ18は、位置(x,y,z)の分析によって特定した時相と姿勢(θx,θy,θz)の分析により特定した時相とで共通する時相および基準とした時相を除く時相を対象として、同様の分析と候補画像データの選定を繰り返す。例えば図15,図16の例においては時間t6~t8が次の分析および選定の対象となり、制御プロセッサ18はこれらの時相に対応するBモード画像データおよびドプラ画像データのなかから3つ目の候補画像データを選定する。この3つ目の候補画像データを選定する際に使用する参照位置RP1,RP2を図15においては参照位置RP1-3,RP2-3と表記している。また、この3つ目の候補画像データを選定する際に使用する参照角度RD1,RD2を図16においては参照角度RD1-3,RD2-3と表記している。制御プロセッサ18は、このような処理を、分析および選定の対象となる時相がなくなるまで実行する。
 ステップS310の後、制御プロセッサ18は、ステップS111と同様にステップS310にて絞り込まれた複数の候補画像データに係る複数の超音波画像(Bモード画像+ドプラ画像)を表示するための処理を実行する(ステップS311)。複数の超音波画像は時系列に表示してもよいし、カラーピクセル数の大きいものから順に表示してもよい。
また、全てあるいは予め定められた数の超音波画像を並べて同時に表示してもよい。また、超音波画像に併せて、各超音波画像における所定領域内の血流面積あるいは面積率を表示してもよい。
 以上説明した第3の実施形態の構成においても、第1の実施形態と同様の効果を得ることができる。
(第4の実施形態)
 第4の実施形態について説明する。 
 本実施形態では、超音波診断装置において保存された動画データあるいは一連の静止画データを読み込み、自動的に画像データの選定を行う画像処理装置を開示する。
 図17は、本実施形態に係る画像処理装置の要部構成を示すブロック図である。 
 当該画像処理装置の本体100は、制御プロセッサ101と、モニタ102と、操作パネル103と、記憶部104と、データ入出力部105とを備える。
 制御プロセッサ101は、例えばCPUやROMおよびRAM等のメモリを主体として構成され、装置本体100の動作を制御する制御部として機能する。制御プロセッサ101は、記憶部19から画像生成・表示等を実行するための制御プログラムを読み出して各種処理に関する演算・制御等を実行する。
 モニタ102は、超音波診断装置にて得られたBモード画像データやドプラ画像データに基づく超音波画像や、各種のグラフィカルユーザインターフェイスなどを選択的に表示する。
 操作パネル103は、オペレータからの各種指示を取り込むための各種スイッチ、ボタン、トラックボール、マウス、およびキーボード等を備える。
 記憶部104は、各種の制御プログラム、解析プログラムを記憶する。また、記憶部104は、当該画像処理装置が取り込んだ画像データや数値データを保持しておく役割も果たす。
 データ入出力部105は、LAN等のネットワークと装置本体100とを接続する。このネットワークには、超音波診断装置や病院内の情報処理システムも接続されている。また、データ入出力部105は、外部記憶装置106と装置本体100とを接続する。データ入出力部105は、ネットワークに接続された装置や外部記憶装置106との間でデータを送受信する。
 本実施形態における動作の流れにつき、図18のフローチャートを用いて説明する。基本的な動作の流れは第1の実施形態と同様である。但し、当該画像処理装置は超音波の送受信および画像データの生成を行わずに、Bモード画像データおよびドプラ画像データをデータ入出力部105に接続されたネットワークや外部記憶装置106から読み込んで処理する点が異なる。
 以下の説明においては、第1の実施形態におけるステップS101~S104の処理をネットワークに接続された超音波診断装置が既に実行しており、その結果得られた1~N(Nは整数)の各時相に対応するBモード画像データおよびドプラ画像データと、各ドプラ画像データにおける第1関心領域内に関する速度情報および速度分散情報(速度の平均値、分散の平均値、速度の分散値等)とが、画像生成の時相を判別できるような態様にて外部記憶装置106に保存されているものとする。
 操作パネル103の操作によりオペレータが処理の開始を指示すると、先ず制御プロセッサ101は、データ入出力部105を介して外部記憶装置106からi番目の時相に対応するBモード画像データを読み込んで記憶部104に保存し(ステップS401)、外部記憶装置106からi番目の時相に対応するドプラ画像データを読み込んで記憶部104に保存し(ステップS402)、外部記憶装置106からi番目の時相に対応する第1関心領域内の速度情報および速度分散情報を読み込んで記憶部104に保存する(ステップS403)。なお、iは制御プロセッサ101が自身のメモリに生成するカウンタの値であり、1以上且つN以下の整数である。カウンタiは、処理の開始が指示された当初においてはi=1であり、ステップS401~S403が実行される度に1ずつインクリメントされる。
 続いて制御プロセッサ101は、ステップS105と同様の手法で、ステップS401にて得られたBモード画像データに基づいてセグメンテーションと関心領域(第2関心領域)の設定を行う(ステップS404)。第2関心領域を設定した後、制御プロセッサ101は、ステップS106と同様の手法で、ステップS402にて読み込んだドプラ画像データにおいて、ステップS404にて設定した第2関心領域に含まれるドプラ信号のカラーピクセル数を算出する(ステップS405)。制御プロセッサ101は、算出したカラーピクセル数を、ステップS402にて読み込んで記憶部104に保存したドプラ画像データに対応付けて記憶部104に保存する。
 ステップS405の後、制御プロセッサ101は、カウンタiがNに達したか否かを判定する(ステップS406)。カウンタiがNに達していないならば(ステップS406のNo)、制御プロセッサ101は、カウンタiを1つインクリメントしてステップS401~S405を再度実行する。
 やがてカウンタiがNに達すると(ステップS406のYes)、制御プロセッサ101は、繰り返し実行されたステップS401およびステップS402にて順次保存された複数のBモード画像データおよびドプラ画像データの中から、診断に適した候補画像データを選定するための処理を実行するとともに(ステップS407~S409)、選定した候補画像データをモニタ102に表示する(ステップS410)。ステップS407~S410はステップS108~S111と同様であるため説明を省略する。
 本実施形態に係る画像処理装置によれば、超音波診断装置を用いた検査時に複数の画像データを一時的に保存しておいて後から画像データを見直して最終的にレポートなどに残す画像を選定する際に、オペレータの負担を軽減し、より少ない時間で診断に有用な画像データを選定することができる。検査者と画像データの読影者が異なる場合には特に有用である。検査者は、自身で診断に有用な画像データを選定する必要はなく、集中してスキャンを行うことができる。また、読影者は検査者により保存された一連の画像データを後から短時間で効率的に確認し、診断に有用な画像データを選定することができる。これにより、検査者の主観により画像データの取捨選択がなされることによる誤診の可能性を防ぎ、読影者により信頼性のある診断情報を提供することができる。
 その他にも、第1の実施形態と同様の効果を奏する。
(第5の実施形態)
 第5の実施形態について説明する。 
 本実施形態では、図17に示した画像処理装置において、第2の実施形態と同様に、カラーROI(第1関心領域)全体でカラーピクセル数を算出し、算出されたカラーピクセル数のみに基づいて不適切な画像データを排除し、残った画像データのカラーピクセル数に基づいて画像データ群を複数領域に区分し、各区分の中から限られた数の候補画像データを抽出する点で第4の実施形態と相違する。
 本実施形態における動作の流れにつき、図19のフローチャートを用いて説明する。基本的な動作の流れは第2の実施形態と同様である。但し、当該画像処理装置は超音波の送受信および画像データの生成を行わずに、Bモード画像データおよびドプラ画像データをデータ入出力部105に接続されたネットワークや外部記憶装置106から読み込んで処理する点が異なる。
 以下の説明においては、第4の実施形態と同様に、1~Nの各時相に対応するBモード画像データおよびドプラ画像データと、各ドプラ画像データにおける第1関心領域内に関する速度情報および速度分散情報(速度の平均値、分散の平均値、速度の分散値等)とが、画像生成の時相を判別できるような態様にて外部記憶装置106に保存されているものとする。
 操作パネル103の操作によりオペレータが処理の開始を指示すると、先ず制御プロセッサ101は、ステップS401と同様に外部記憶装置106からi番目の時相に対応するBモード画像データを読み込んで記憶部104に保存し(ステップS501)、ステップS402と同様に外部記憶装置106からi番目の時相に対応するドプラ画像データを読み込んで記憶部104に保存する(ステップS502)。
 続いて制御プロセッサ101は、ステップS204と同様の手法で、予め設定された閾値以上のパワー値を持ち、かつ第1関心領域の内部に含まれるカラーピクセルの総数を算出する(ステップS503)。制御プロセッサ101は、算出したカラーピクセル数を、ステップS502にて読み込んで記憶部104に保存したドプラ画像データに対応付けて記憶部104に保存する。
 ステップS503の後、制御プロセッサ101は、カウンタiがNに達したか否かを判定する(ステップS504)。カウンタiがNに達していないならば(ステップS504のNo)、制御プロセッサ101は、カウンタiを1つインクリメントしてステップS501~S503を再度実行する。
 やがてカウンタiがNに達すると(ステップS504のYes)、制御プロセッサ101は、繰り返し実行されたステップS501およびステップS502にて順次保存された複数のBモード画像データおよびドプラ画像データの中から、診断に適した候補画像データを選定するための処理を実行するとともに(ステップS505~S507)、選定した候補画像データをモニタ102に表示する(ステップS508)。ステップS505~S508はステップS206~S209と同様であるため説明を省略する。
 本実施形態に係る画像処理装置によれば、第2の実施形態および第4の実施形態と同様の効果が得られる。
(第6の実施形態)
 第6の実施形態について説明する。 
 本実施形態では、図17に示した画像処理装置において、第3の実施形態と同様に、超音波プローブの位置、姿勢、あるいは速度に関する情報を利用して診断に不適切な画像データを排除し、さらにこの情報を利用して候補画像データの絞り込みを行う点で第4の実施形態と相違する。
 本実施形態における動作の流れにつき、図20のフローチャートを用いて説明する。基本的な動作の流れは第3の実施形態と同様である。但し、当該画像処理装置は超音波の送受信および画像データの生成を行わずに、Bモード画像データおよびドプラ画像データをデータ入出力部105に接続されたネットワークや外部記憶装置106から読み込んで処理する点が異なる。
 以下の説明においては、第3の実施形態におけるステップS301~S303,S306の処理をネットワークに接続された超音波診断装置が既に実行しており、その結果得られた1~N(Nは整数)の各時相に対応するBモード画像データおよびドプラ画像データと、超音波プローブ2の位置(x,y,z)、姿勢(θx,θy,θz)、および速度(vx,vy,vz)とが、画像生成の時相を判別できるような態様にて外部記憶装置106に保存されているものとする。
 操作パネル103の操作によりオペレータが処理の開始を指示すると、先ず制御プロセッサ101は、データ入出力部105を介して外部記憶装置106からi番目の時相に対応するBモード画像データを読み込んで記憶部104に保存し(ステップS601)、外部記憶装置106からi番目の時相に対応するドプラ画像データを読み込んで記憶部104に保存し(ステップS602)、外部記憶装置106からi番目の時相に対応する位置(x,y,z)、姿勢(θx,θy,θz)、および速度(vx,vy,vz)を読み込んで記憶部104に保存する(ステップS603)。
 その後、制御プロセッサ101は、ステップS105と同様の手法で、ステップS601にて読み込んだBモード画像データに基づいてセグメンテーションと関心領域(第2関心領域)の設定を行う(ステップS604)。さらに、制御プロセッサ101は、ステップS106と同様の手法で、ステップS602にて読み込んだドプラ画像データにおいてステップS604にて設定された第2関心領域に含まれるドプラ信号のカラーピクセル数を算出する(ステップS605)。制御プロセッサ101は、算出したカラーピクセル数を、ステップS602にて読み込んで記憶部104に保存したドプラ画像データに対応付けて保存する。
 ステップS605の後、制御プロセッサ101は、カウンタiがNに達したか否かを判定する(ステップS606)。カウンタiがNに達していないならば(ステップS606のNo)、制御プロセッサ101は、カウンタiを1つインクリメントしてステップS601~S605を再度実行する。
 やがてカウンタiがNに達すると(ステップS606のYes)、制御プロセッサ101は、繰り返し実行されたステップS601およびステップS602にて順次保存された複数のBモード画像データおよびドプラ画像データの中から、診断に適した候補画像データを選定するための処理を実行するとともに(ステップS607~S609)、選定した候補画像データをモニタ102に表示する(ステップS610)。ステップS607~S610はステップS308~S311と同様であるため説明を省略する。
 本実施形態に係る画像処理装置によれば、第3の実施形態および第4の実施形態と同様の効果が得られる。
(変形例)
 上記各実施形態にて開示した構成は、適宜変形することができる。
 例えば各実施形態において、図2,図7,図14,図18,図19のフローチャートに示したうちのいくつかのステップに係る動作は省略することができる。また、各ステップに係る動作を実行する順番を適宜入れ替えてもよい。
 また、速度の平均値等による診断に不適切な画像データの排除(ステップS108,S206,S308,S407,S505,S607)は省略してもよい。さらに、ステップS108,S308,S407,S607おいて、S206およびS505と同様にカラーピクセル数に基づいて診断に不適切な画像データを排除してもよい。
 また、第2関心領域の設定(ステップS105,S304,S404,S604)も省略することが可能である。この場合、カラーピクセル数算出用の関心領域として第1関心領域を利用してもよいし、予め定められた別途の関心領域を利用してもよい。
 また、超音波診断装置に関する実施形態において、第2関心領域の設定(ステップS105,S304)やカラーピクセル数の算出・保存(ステップS106,S204,S305)は、オペレータによりスキャン停止指示が入力された後に実行されてもよい。
 さらに、画像類似度は、Bモード画像データではなくドプラ画像データに基づいて算出されてもよいし、両画像データに基づいて算出されてもよい。
 また、各実施形態においては、画像データの選定に使用するパラメータとしてドプラ画像データ(特にパワードプラ画像データ)のカラーピクセル数を採用する場合を例示した。近年、関節リウマチの超音波診断においては、パワードプラモードで関節腔内を観察し、関節腔内に占めるカラーピクセル数の割合を目安にして判定量スコアリングを行うことが一般的である。よって、カラーピクセル数に基づくことによって、もっとも効果的に、診断に有用な画像データが選定できると考えられる。しかし、各実施形態において画像データの選定に用いるパラメータは、必ずしもカラーピクセル数である必要はない。例えば当該パラメータとして、カラーピクセルのパワー値の総和を用いることができる。この場合、ノイズシグナルなどのパワー値の小さいカラーピクセルの影響を受けにくくなり、明らかに血流密度の高い信号が多く含まれる画像データを優先して選定することができる。
さらに、当該パラメータとしてカラーピクセルの速度値の総和を用いることもできる。血流速度の大きな血流が含まれる画像を優先的に抽出したい場合に、このパラメータが有用である。
 また、各実施形態においては、選定された画像データをモニタ4,102に表示する場合を例示した。しかしながら、選定された画像データをモニタ4,102に直ぐに表示するのではなく、当該画像データに他の画像データとの識別用のタグを付しておくことで、後から簡単に当該画像データを閲覧できるようにしてもよい。また、トラックボールなどの操作で過去に収集した画像データを連続的に切り替えながら参照する際に、当該タグ付けされた画像の位置で切り替えが停止するようにしてもよい。
 また、第3,第6の実施形態において、ステップS310,S609では超音波プローブ2の位置(x,y,z)および姿勢(θx,θy,θz)の両方を用いて画像データを選定する場合を例示したが、どちらか一方のみ考慮するようにしてもよい。また、ステップS308,S310,S607,S609などでは、位置(x,y,z)、姿勢(θx,θy,θz)、および速度(vx,vy,vz)における3軸すべての値を用いなくてもよい。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (21)

  1.  被検体に対して超音波走査を繰り返す送受信部と、
     前記送受信部の出力に基づいて、複数の画像のデータを生成する画像生成部と、
     前記送受信部の出力に基づいて、複数の血流画像のデータを生成する血流画像生成部と、
     前記複数の画像間の類似度を算出する類似度算出部と、
     前記類似度に基づいて、前記複数の画像から類似度の低い少なくとも2枚の画像を特定する特定部と、
     前記特定された少なくとも2枚の画像に走査時刻がそれぞれ対応する少なくとも2枚の血流画像を前記複数の血流画像から選定する画像選定部と、
     前記選定された少なくとも2枚の血流画像を表示する表示部とを具備することを特徴とする超音波診断装置。
  2.  前記画像は、形態画像であることを特徴とする請求項1記載の超音波診断装置。
  3.  前記画像は、ドプラ画像、血管造影画像又はエラストグラフィ―画像であることを特徴とする請求項1記載の超音波診断装置。
  4.  前記血流画像は、ドプラ画像又は血管造影画像であることを特徴とする請求項1記載の超音波診断装置。
  5.  前記類似度算出部は、前記複数の画像から選択された基準画像に対する他の画像各々との間の類似度を算出することを特徴とする請求項1記載の超音波診断装置。
  6.  前記類似度算出部は、前記基準画像として前記複数の画像の中の最初に生成された画像を選択することを特徴とする請求項5記載の超音波診断装置。
  7.  前記類似度算出部は、前記複数の画像の中から、前記複数の血流画像の血流画素数が閾値を最初に達した血流画像に対応する画像を前記基準画像として選択することを特徴とする請求項5記載の超音波診断装置。
  8.  前記複数の血流画像から、ピクセル値が閾値以上を示す血流画像を表示対象から除外する血流画像除外処理部をさらに備えることを特徴とする請求項1記載の超音波診断装置。
  9.  前記表示部は、前記画像選定部が選定した血流画像を前記被検体の形態画像に重ね合わせて表示するとともに、前記血流画像における所定領域内の血流面積あるいは面積率を表示することを特徴とする請求項1に記載の超音波診断装置。
  10.  前記血流画像は、血流が観測される位置をカラーピクセルにて表現し、
     前記血流画像除外処理部は、前記複数の血流画像において予め定められた関心領域に含まれるカラーピクセルの数を、前記血流画素数として算出することを特徴とする請求項8に記載の超音波診断装置。
  11.  前記類似度算出部は、前記複数の画像間の平均2乗誤差を前記類似度として算出することを特徴とする請求項1記載の超音波診断装置。
  12.  前記血流画像は、血流が観測される位置をカラーピクセルにて表現し、
     前記類似度算出部は、前記複数の血流画像において予め定められた関心領域内に含まれるカラーピクセルの数の時間変化に基づいて前記類似度を算出することを特徴とする請求項1に記載の超音波診断装置。
  13.  前記類似度算出部は、前記時間変化の大きさに基づいて、一連の前記複数の画像および前記複数の血流画像を複数の画像群に区分し、各区分に属する画像群の類似度が高くなるように前記画像類似度を算出することを特徴とする請求項12に記載の超音波診断装置。
  14.  前記複数の画像および前記複数の血流画像のなかから、血流速度の平均値あるいは分散値が予め定められた閾値よりも大きい血流画像とこの血流画像に対応する画像を、前記画像選定部による選定の対象から排除する排除部をさらに備えていることを特徴とする請求項1に記載の超音波診断装置。
  15.  前記複数の画像および前記複数の血流画像を前記画像生成部および前記血流画像生成部が生成した際に、予め定められた関心領域内の組織速度の平均値或いは分散値を算出する組織速度算出部と、
     前記組織速度の平均値或いは分散値が予め定められた閾値よりも大きい血流画像とこの血流画像に対応する画像を、前記画像選定部による選定の対象から排除する排除部と、
     をさらに備えていることを特徴とする請求項1に記載の超音波診断装置。
  16.  超音波プローブと、
     前記超音波プローブを介して被検体に対して超音波走査を繰り返す送受信部と、
     前記超音波プローブの位置を検出する検出部と、
     前記送受信部の出力に基づいて、複数の血流画像のデータを生成する血流画像生成部と、
     前記超音波プローブの位置に基づいて前記複数の血流画像から類似性の低い少なくとも2枚の血流画像を選定する画像選定部と、
     前記選定された少なくとも2枚の血流画像を表示する表示部とを具備することを特徴とする超音波診断装置。
  17.  前記画像選定部は、前記超音波プローブの移動距離の逆数を類似性を示す指標として計算することを特徴とする請求項16に記載の超音波診断装置。
  18.  前記複数の血流画像から、ピクセル値が閾値以上を示す血流画像を表示対象から除外する血流画像除外処理部をさらに備えることを特徴とする請求項16記載の超音波診断装置。
  19.  前記複数の画像および前記複数の血流画像を前記血流画像生成部が生成した際に前記検出部が検出した位置の変化が閾値を超える血流画像を、前記画像選定部による選定の対象から排除する排除部をさらに備えていることを特徴とする請求項16に記載の超音波診断装置。
  20.  被検体に関する複数の超音波画像のデータと複数の血流画像のデータとを記憶する記憶部と、
     前記複数の超音波画像間の類似度を算出する類似度算出部と、
     前記類似度に基づいて、前記複数の超音波画像から類似性の低い少なくとも2枚の超音波画像を特定する特定部と、
     前記特定された少なくとも2枚の超音波画像に走査時刻がそれぞれ対応する少なくとも2枚の血流画像を前記複数の血流画像から選定する画像選定部と、
     前記選定された少なくとも2枚の血流画像を表示する表示部とを具備することを特徴とする
    画像処理装置。
  21.  被検体に関する複数の超音波画像のデータと複数の血流画像のデータとにおいて、前記複数の画像間の類似度を算出し、
     前記類似度に基づいて、前記複数の画像から類似性の低い少なくとも2枚の画像を特定し、
     前記特定された少なくとも2枚の画像に走査時刻がそれぞれ対応する少なくとも2枚の血流画像を前記複数の血流画像から選定し、
     前記選定された少なくとも2枚の血流画像を表示することを特徴とする画像処理方法。
PCT/JP2013/081486 2012-11-22 2013-11-22 超音波診断装置、画像処理装置および画像処理方法 WO2014081006A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201380003273.5A CN104114102B (zh) 2012-11-22 2013-11-22 超声波诊断装置、图像处理装置以及图像处理方法
US14/719,626 US20150250446A1 (en) 2012-11-22 2015-05-22 Ultrasound diagnostic apparatus, image processing apparatus, and image processing method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012-256645 2012-11-22
JP2012256645 2012-11-22
JP2013241378A JP2014121594A (ja) 2012-11-22 2013-11-21 超音波診断装置、画像処理装置および画像処理方法
JP2013-241378 2013-11-21

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/719,626 Continuation US20150250446A1 (en) 2012-11-22 2015-05-22 Ultrasound diagnostic apparatus, image processing apparatus, and image processing method

Publications (1)

Publication Number Publication Date
WO2014081006A1 true WO2014081006A1 (ja) 2014-05-30

Family

ID=50776182

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/081486 WO2014081006A1 (ja) 2012-11-22 2013-11-22 超音波診断装置、画像処理装置および画像処理方法

Country Status (4)

Country Link
US (1) US20150250446A1 (ja)
JP (1) JP2014121594A (ja)
CN (1) CN104114102B (ja)
WO (1) WO2014081006A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016045008A1 (zh) * 2014-09-24 2016-03-31 通用电气公司 超声扫描图像的存储方法和超声设备
US20170119356A1 (en) * 2015-10-30 2017-05-04 General Electric Company Methods and systems for a velocity threshold ultrasound image

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015039466A (ja) * 2013-08-21 2015-03-02 コニカミノルタ株式会社 超音波診断装置、画像処理方法、およびプログラム
JP6006249B2 (ja) * 2014-03-24 2016-10-12 富士フイルム株式会社 音響波処理装置、音響波処理装置の信号処理方法およびプログラム
CN107635472A (zh) 2015-06-19 2018-01-26 神经系统分析公司 经颅多普勒探测器
CN107847218B (zh) * 2015-07-09 2020-11-06 奥林巴斯株式会社 超声波观测装置、超声波观测装置的工作方法及存储介质
JP2019500155A (ja) 2016-01-05 2019-01-10 ニューラル アナリティクス、インコーポレイテッド 一体型プローブ構造
JP2019504670A (ja) 2016-01-05 2019-02-21 ニューラル アナリティクス、インコーポレイテッド 臨床指標を決定するためのシステム及び方法
US11589836B2 (en) 2016-01-05 2023-02-28 Novasignal Corp. Systems and methods for detecting neurological conditions
US10783618B2 (en) 2016-05-05 2020-09-22 Digimarc Corporation Compensating for geometric distortion of images in constrained processing environments
US10373299B1 (en) * 2016-05-05 2019-08-06 Digimarc Corporation Compensating for geometric distortion of images in constrained processing environments
JP6708529B2 (ja) * 2016-10-07 2020-06-10 キヤノン株式会社 制御装置、制御方法、制御システム及びプログラム。
US10670680B2 (en) * 2017-04-06 2020-06-02 Case Western Reserve University System and method for motion insensitive magnetic resonance fingerprinting
CN107149485B (zh) * 2017-06-07 2020-03-06 青岛海信医疗设备股份有限公司 基于医学的超声波信号处理方法及装置
JP7071898B2 (ja) * 2018-08-09 2022-05-19 富士フイルムヘルスケア株式会社 超音波診断装置、プログラムおよび超音波診断装置の動作方法
EP3653129B1 (en) * 2018-11-15 2022-12-07 Samsung Medison Co., Ltd. Ultrasound imaging apparatus and operating method thereof
CN109512466A (zh) * 2018-12-08 2019-03-26 余姚市华耀工具科技有限公司 智能化妇科b超仪
CN113180734A (zh) * 2018-12-27 2021-07-30 深圳迈瑞生物医疗电子股份有限公司 一种超声血流成像方法及系统
CN113556979A (zh) * 2019-03-19 2021-10-26 奥林巴斯株式会社 超声波观测装置、超声波观测装置的工作方法以及超声波观测装置的工作程序
US11141138B2 (en) 2019-05-28 2021-10-12 Siemens Medical Solutions Usa, Inc. Kalman filtering for flash artifact suppression in ultrasound imaging
JP7438850B2 (ja) * 2020-05-29 2024-02-27 キヤノンメディカルシステムズ株式会社 医用画像診断装置及び医用画像処理装置
TWI741773B (zh) * 2020-09-02 2021-10-01 中國醫藥大學 超音波影像之判讀方法及其系統

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000245735A (ja) * 1999-02-26 2000-09-12 Hitachi Medical Corp 超音波診断装置
JP2002027411A (ja) * 2000-07-13 2002-01-25 Sony Corp 映像信号記録装置および方法、映像信号再生装置および方法、並びに記録媒体
JP2005065728A (ja) * 2003-08-25 2005-03-17 Fuji Photo Film Co Ltd 類似画像検索装置
JP2006301675A (ja) * 2005-04-15 2006-11-02 Noritsu Koki Co Ltd 画像処理装置及び画像処理方法
JP2007007200A (ja) * 2005-06-30 2007-01-18 Toshiba Corp 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1992006645A1 (en) * 1990-10-19 1992-04-30 St. Louis University Surgical probe locating system for head use
US6425868B1 (en) * 1999-07-26 2002-07-30 Aloka Co., Ltd. Ultrasonic imaging system
US6368277B1 (en) * 2000-04-05 2002-04-09 Siemens Medical Solutions Usa, Inc. Dynamic measurement of parameters within a sequence of images
US6994673B2 (en) * 2003-01-16 2006-02-07 Ge Ultrasound Israel, Ltd Method and apparatus for quantitative myocardial assessment
US20050033123A1 (en) * 2003-07-25 2005-02-10 Siemens Medical Solutions Usa, Inc. Region of interest methods and systems for ultrasound imaging
US20090030324A1 (en) * 2004-10-19 2009-01-29 Makoto Kato Ultrasonic diagnostic apparatus and method for controlling the same
JP4934513B2 (ja) * 2007-06-08 2012-05-16 株式会社日立メディコ 超音波撮像装置
JP5231828B2 (ja) * 2008-02-04 2013-07-10 株式会社東芝 超音波診断装置、超音波画像処理装置および超音波画像処理プログラム
JP2009268734A (ja) * 2008-05-08 2009-11-19 Olympus Medical Systems Corp 超音波観測装置
JP5366678B2 (ja) * 2009-06-25 2013-12-11 株式会社東芝 3次元超音波診断装置及びプログラム
US8897519B2 (en) * 2010-09-28 2014-11-25 Siemens Aktiengesellschaft System and method for background phase correction for phase contrast flow images
JP5265810B2 (ja) * 2010-10-08 2013-08-14 パナソニック株式会社 超音波診断装置、及び体内観察方法
US20140125691A1 (en) * 2012-11-05 2014-05-08 General Electric Company Ultrasound imaging system and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000245735A (ja) * 1999-02-26 2000-09-12 Hitachi Medical Corp 超音波診断装置
JP2002027411A (ja) * 2000-07-13 2002-01-25 Sony Corp 映像信号記録装置および方法、映像信号再生装置および方法、並びに記録媒体
JP2005065728A (ja) * 2003-08-25 2005-03-17 Fuji Photo Film Co Ltd 類似画像検索装置
JP2006301675A (ja) * 2005-04-15 2006-11-02 Noritsu Koki Co Ltd 画像処理装置及び画像処理方法
JP2007007200A (ja) * 2005-06-30 2007-01-18 Toshiba Corp 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016045008A1 (zh) * 2014-09-24 2016-03-31 通用电气公司 超声扫描图像的存储方法和超声设备
US20170119356A1 (en) * 2015-10-30 2017-05-04 General Electric Company Methods and systems for a velocity threshold ultrasound image

Also Published As

Publication number Publication date
CN104114102A (zh) 2014-10-22
JP2014121594A (ja) 2014-07-03
CN104114102B (zh) 2016-10-12
US20150250446A1 (en) 2015-09-10

Similar Documents

Publication Publication Date Title
WO2014081006A1 (ja) 超音波診断装置、画像処理装置および画像処理方法
EP2135557B1 (en) Ultrasonic diagnostic apparatus
US10743845B2 (en) Ultrasound diagnostic apparatus and method for distinguishing a low signal/noise area in an ultrasound image
US11715202B2 (en) Analyzing apparatus and analyzing method
JP6222811B2 (ja) 超音波診断装置及び画像処理装置
CN106963419B (zh) 解析装置
WO2007114375A1 (ja) 超音波診断装置及び超音波診断装置制御方法
US11166698B2 (en) Ultrasonic diagnostic apparatus
JP2011224346A (ja) 超音波診断装置、画像処理装置および画像処理方法
JP5417048B2 (ja) 超音波診断装置、及び超音波診断プログラム
JP5165858B2 (ja) 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
EP2253275A1 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus and ultrasonic image processing method
US10182793B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing method
US20150173721A1 (en) Ultrasound diagnostic apparatus, medical image processing apparatus and image processing method
JP4764209B2 (ja) 超音波信号解析装置、超音波信号解析方法、超音波解析プログラム、超音波診断装置、及び超音波診断装置の制御方法
EP3815619A1 (en) Analyzing apparatus and ultrasound diagnosis apparatus
JP7438850B2 (ja) 医用画像診断装置及び医用画像処理装置
WO2020149191A1 (ja) 画像解析装置
US11850101B2 (en) Medical image diagnostic apparatus, medical image processing apparatus, and medical image processing method
JP6258286B2 (ja) 超音波診断装置、画像処理装置、及び制御プログラム
JP2006020801A (ja) 超音波診断装置
JP5738822B2 (ja) 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13857178

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13857178

Country of ref document: EP

Kind code of ref document: A1