WO2012063977A1 - 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム - Google Patents

超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム Download PDF

Info

Publication number
WO2012063977A1
WO2012063977A1 PCT/JP2011/076605 JP2011076605W WO2012063977A1 WO 2012063977 A1 WO2012063977 A1 WO 2012063977A1 JP 2011076605 W JP2011076605 W JP 2011076605W WO 2012063977 A1 WO2012063977 A1 WO 2012063977A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature
feature amount
unit
feature point
frequency spectrum
Prior art date
Application number
PCT/JP2011/076605
Other languages
English (en)
French (fr)
Inventor
弘孝 江田
Original Assignee
オリンパスメディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスメディカルシステムズ株式会社 filed Critical オリンパスメディカルシステムズ株式会社
Priority to CN2011800175532A priority Critical patent/CN102834059B/zh
Priority to EP11840634.7A priority patent/EP2526870B1/en
Priority to JP2012526216A priority patent/JP5066306B2/ja
Publication of WO2012063977A1 publication Critical patent/WO2012063977A1/ja
Priority to US13/491,782 priority patent/US8447091B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/485Diagnostic techniques involving measuring strain or elastic properties
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8977Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using special techniques for image reconstruction, e.g. FFT, geometrical transformations, spatial deconvolution, time deconvolution
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52036Details of receivers using analysis of echo signal for target characterisation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52071Multicolour displays; using colour coding; Optimising colour or information content in displays, e.g. parametric imaging
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Definitions

  • the present invention relates to an ultrasonic observation apparatus that observes a tissue of a specimen using ultrasonic waves, an operation method of the ultrasonic observation apparatus, and an operation program of the ultrasonic observation apparatus.
  • Ultrasonic elastography is a technique that utilizes the fact that the hardness of cancer and tumor tissue in a living body varies depending on the progress of the disease and the living body.
  • the amount of strain and elastic modulus of the biological tissue at the examination location are measured using ultrasound while the examination location is pressed from the outside, and the measurement result is displayed as a tomographic image.
  • an ultrasonic observation apparatus that observes a tissue of a specimen using ultrasonic waves targets a slice plane having a certain thickness within the specimen.
  • the ultrasonic probe scope
  • the slice plane observed by the ultrasonic probe changes.
  • the tissue in the specimen observed in the first frame may not be observed in the subsequent frame. Such a situation is thought to be caused by the fact that the tissue observed in the first frame is very small or located far from the ultrasonic probe.
  • the conventional ultrasonic observation apparatus has a problem that the desired tissue cannot be observed for a long time because the relative positional relationship with the observation object changes with time.
  • the present invention has been made in view of the above, and an ultrasonic observation apparatus capable of observing a desired tissue over a long period of time, even if the relative positional relationship with an observation object changes with time, It is an object of the present invention to provide a method for operating an ultrasonic observation apparatus and an operation program for an ultrasonic observation apparatus.
  • an ultrasonic observation apparatus is an ultrasonic observation apparatus that transmits ultrasonic waves to a specimen and receives ultrasonic waves reflected by the specimen.
  • a frequency analysis unit for calculating a frequency spectrum at a plurality of data positions determined for the received ultrasonic wave, and one or a plurality of features for the frequency spectrum by approximating the frequency spectrum calculated by the frequency analysis unit
  • a feature amount extracting unit for extracting a quantity
  • an image processing unit for sequentially generating feature quantity image data including information on the feature quantity extracted by the feature quantity extracting unit, and a feature quantity image data sequentially generated by the image processing unit.
  • a display unit that sequentially displays corresponding images, and setting a coordinate system in which at least a part of the one or more feature amounts form a coordinate component
  • the frequency spectrum feature point at a predetermined data position exists in a predetermined first area in the i-th frame (i is a natural number) on the display unit, and in the next (i + 1) -th frame.
  • the image processing unit is located farther from the second area than the position of the latest feature point.
  • Visual information corresponding to the latest feature point in the (i + 1) th frame of the predetermined data position is set by a virtual feature point at an internal or peripheral position and the visual information corresponding to the virtual feature point
  • the feature amount image data is generated by replacing.
  • the image processing unit is a first feature that is calculated when generating the (i + 1) th frame that is a feature point of a frequency spectrum at the same data position.
  • the point and the second feature point calculated when generating the i-th frame are projected onto a reference axis passing through the representative point of the first and second regions, respectively, and the projected point and the representative of the second region A positional relationship between the first and second feature points and the second region is determined based on a distance from the point.
  • the first feature point is a feature point determined from the feature amount extracted by the feature amount extraction unit
  • the second feature point is the virtual point. It is a characteristic point.
  • the image processing unit is a straight line or a plane orthogonal to a reference axis passing through the representative points of the first and second regions, respectively.
  • the image processing unit includes the position of the feature point included in the reference boundary and the reference of the third and fourth feature points in the i-th frame.
  • the position of the virtual feature point in the (i + 1) th frame is determined by using an axis.
  • the image processing unit may include a position of a feature point included in the reference boundary among the third and fourth feature points in the i-th frame, and the first The position of the virtual feature point in the (i + 1) th frame is determined by using the position of the representative point in the two areas.
  • the feature amount extraction unit is configured to receive the ultrasonic reception depth and frequency when the ultrasonic wave propagates to the frequency spectrum calculated by the frequency analysis unit.
  • the feature amount is extracted by performing an attenuation correction process and an approximation process for reducing the contribution of attenuation generated according to the above.
  • the feature amount extraction unit performs the approximation process on the frequency spectrum calculated by the frequency analysis unit before performing the attenuation correction process.
  • the feature amount extraction unit includes an attenuation correction unit that performs the attenuation correction process on the frequency spectrum, and a frequency spectrum corrected by the attenuation correction unit. And an approximation unit that extracts the feature quantity of the frequency spectrum by performing the approximation process.
  • the attenuation correction unit performs larger correction as the reception depth of the ultrasonic wave is larger.
  • the approximating unit approximates the frequency spectrum with a polynomial by regression analysis.
  • the visual information is a variable constituting a color space.
  • An operation method of the ultrasonic observation apparatus is an operation method of the ultrasonic observation apparatus that transmits ultrasonic waves to a specimen and receives ultrasonic waves reflected by the specimen.
  • a frequency analysis step of calculating a frequency spectrum by analyzing a frequency of a sound wave by a frequency analysis unit, and a feature for extracting one or a plurality of feature amounts for the frequency spectrum by approximating the frequency spectrum calculated in the frequency analysis step An amount extraction step, an image processing step for generating feature amount image data including information about the feature amount extracted in the feature amount extraction step by an image processing unit, and feature amount image data sequentially generated in the image processing step
  • the image processing step sets a virtual feature point at a position farther from the second region than the latest feature point and within or around the first region, and the virtual feature point
  • the feature amount image data is generated by replacing the visual information corresponding to the latest feature point in the (i + 1) th frame at the predetermined data position with the visual information corresponding to And wherein the door.
  • the operation program of the ultrasonic observation apparatus analyzes the frequency of the received ultrasonic wave in the ultrasonic observation apparatus that transmits the ultrasonic wave to the specimen and receives the ultrasonic wave reflected by the specimen.
  • a frequency analysis step for calculating a frequency spectrum by a frequency analysis unit, and a feature amount extraction step for extracting one or a plurality of feature amounts for the frequency spectrum by approximating the frequency spectrum calculated in the frequency analysis step;
  • An image processing step for generating feature amount image data including information on the feature amount extracted in the feature amount extraction step by an image processing unit, and an image corresponding to the feature amount image data sequentially generated in the image processing step by a display unit Display step of sequentially displaying, and repeatedly executing the one or In a feature amount space in which a coordinate system in which at least a part of the number of feature amounts constitutes a coordinate component can be set, a feature point of a frequency spectrum at a predetermined data position is predetermined in the i-th frame (i is a natural number)
  • a virtual feature point is set at a position farther from the second region than in the first region and inside or around the first region, and the predetermined data position is determined by visual information corresponding to the virtual feature point.
  • the feature amount image data is generated by replacing visual information corresponding to the latest feature point in the (i + 1) th frame.
  • a feature point of a frequency spectrum at a predetermined data position exists in a predetermined first region at the i-th frame (i is a natural number), and at the next (i + 1) -th frame.
  • the virtual area is located at a position farther from the second area than the latest feature point position and in or around the first area.
  • the feature information is set by replacing the visual information corresponding to the latest feature point in the (i + 1) th frame at the predetermined data position with the visual information corresponding to the virtual feature point.
  • FIG. 1 is a block diagram showing a configuration of an ultrasonic observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram schematically showing the configuration of the feature amount space stored in the ultrasonic observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 3 is a flowchart showing an outline of processing of the ultrasonic observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 4 is a diagram showing a display example of the B-mode image on the display unit of the ultrasonic observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 5 is a flowchart showing an outline of processing performed by the frequency analysis unit of the ultrasonic observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 1 is a block diagram showing a configuration of an ultrasonic observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram schematically showing the configuration of the feature amount space stored in the ultrasonic observation apparatus according to Embodi
  • FIG. 6 is a diagram schematically showing a data array of one sound ray.
  • FIG. 7 is a diagram illustrating an example (first example) of a frequency spectrum calculated by the frequency analysis unit of the ultrasonic observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 8 is a diagram illustrating an example (second example) of a frequency spectrum calculated by the frequency analysis unit of the ultrasonic observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 9 is a diagram illustrating a new straight line determined from the feature amount after the attenuation correction is performed on the feature amount related to the straight line illustrated in FIG. 7.
  • FIG. 7 is a diagram illustrating an example (first example) of a frequency spectrum calculated by the frequency analysis unit of the ultrasonic observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 8 is a diagram illustrating an example (second example) of a frequency spectrum calculated by the frequency analysis unit of the ultrasonic observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 10 is a diagram showing an outline of the feature amount image data generation process performed by the feature amount image data generation unit of the ultrasonic observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 11 is a flowchart showing an outline of afterimage condition determination processing performed by the feature amount image data generation unit of the ultrasound observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 12 is a diagram schematically illustrating a case where it is determined that the afterimage condition is satisfied in the afterimage condition determination process performed by the ultrasound observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 13 is a diagram illustrating an example (first example) when it is determined that the afterimage condition is not satisfied in the afterimage condition determination process performed by the ultrasound observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 14 is a diagram illustrating an example (second example) when it is determined that the afterimage condition is not satisfied in the afterimage condition determination process performed by the ultrasound observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 15 is a diagram illustrating an outline of a method for calculating afterimage feature points performed by the ultrasound observation apparatus according to the first embodiment.
  • FIG. 16 is a diagram showing a display example of the feature amount image displayed by the display unit of the ultrasonic observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 17 is a diagram schematically showing the image shown in FIG. 16 in black and white.
  • FIG. 18 is a diagram schematically showing a situation observed by the ultrasonic observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 19 shows a display example (first example) of a feature amount image displayed on the display unit in a conventional ultrasonic observation apparatus under a situation where the relative positional relationship between the ultrasonic probe and the specimen changes with time.
  • FIG. FIG. 20 shows a display example (second example) of a feature amount image displayed on the display unit in a conventional ultrasonic observation apparatus under a situation where the relative positional relationship between the ultrasonic probe and the specimen changes with time.
  • FIG. FIG. 21 is a diagram schematically showing a display example of a feature amount image displayed on the display unit in the same situation as FIG. 19 in the ultrasonic observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 22 is a diagram schematically illustrating a display example of the feature amount image displayed by the display unit in the ultrasonic observation apparatus according to Embodiment 1 of the present invention under the same situation as FIG.
  • FIG. 23 is a diagram for explaining the effect of the attenuation correction treatment performed by the ultrasound observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 24 is a flowchart showing an outline of the feature amount image data generation process performed by the feature amount image data generation unit of the ultrasonic observation apparatus according to the second embodiment of the present invention.
  • FIG. 25 is a flowchart showing an outline of afterimage condition determination processing performed by the ultrasound observation apparatus according to Embodiment 2 of the present invention.
  • FIG. 26 is a diagram illustrating a configuration of the feature amount space when it is determined that the afterimage condition is satisfied in the afterimage condition determination process performed by the ultrasound observation apparatus according to Embodiment 2 of the present invention.
  • FIG. 27 is a diagram illustrating a configuration of the feature amount space when it is determined that the afterimage condition is not satisfied in the afterimage condition determination process performed by the ultrasound observation apparatus according to Embodiment 2 of the present invention.
  • FIG. 28 is a diagram showing an overview of afterimage feature point calculation processing (first example) performed by the ultrasound observation apparatus according to Embodiment 2 of the present invention.
  • FIG. 29 is a diagram showing an overview of afterimage feature point calculation processing (second example) performed by the ultrasound observation apparatus according to Embodiment 2 of the present invention.
  • FIG. 30 is a flowchart showing an outline of processing of the ultrasonic observation apparatus according to Embodiment 3 of the present invention.
  • FIG. 31 is a diagram showing an outline of attenuation correction processing performed by the ultrasonic observation apparatus according to Embodiment 3 of the present invention.
  • FIG. 1 is a block diagram showing a configuration of an ultrasonic observation apparatus according to Embodiment 1 of the present invention.
  • An ultrasonic observation apparatus 1 shown in FIG. 1 is an apparatus that observes tissue properties of a specimen to be observed using ultrasonic waves.
  • the ultrasonic observation apparatus 1 transmits and receives electrical signals between the ultrasonic probe 2 that outputs an ultrasonic pulse to the outside and receives an ultrasonic echo reflected from the outside, and the ultrasonic probe 2.
  • the image processing unit 5 that performs the image processing, an interface such as a keyboard, a mouse, and a touch panel, and an input unit 6 that receives various information inputs, and a display panel that includes a liquid crystal, an organic EL, or the like.
  • a storage unit 8 for storing various types of information including information on tissue properties of known samples, and a control for controlling the operation of the ultrasound observation apparatus 1. It includes a 9, a.
  • the ultrasonic probe 2 converts an electrical pulse signal received from the transmission / reception unit 3 into an ultrasonic pulse (acoustic pulse signal), and converts an ultrasonic echo reflected by an external specimen into an electrical echo signal.
  • a signal conversion unit 21 for conversion is included.
  • the ultrasonic probe 2 may be one that mechanically scans an ultrasonic transducer, or one that electronically scans a plurality of ultrasonic transducers.
  • the transmission / reception unit 3 is electrically connected to the ultrasonic probe 2 and transmits a pulse signal to the ultrasonic probe 2 and receives an echo signal as a reception signal from the ultrasonic probe 2. Specifically, the transmission / reception unit 3 generates a pulse signal based on a preset waveform and transmission timing, and transmits the generated pulse signal to the ultrasound probe 2.
  • the transmitting / receiving unit 3 is electrically connected to the ultrasonic probe 2, transmits a pulse signal to the ultrasonic probe 2, and receives an echo signal from the ultrasonic probe 2. Specifically, the transmission / reception unit 3 generates a pulse signal based on a preset waveform and transmission timing, and transmits the generated pulse signal to the ultrasound probe 2. Further, the transmission / reception unit 3 performs processing such as amplification and filtering on the received echo signal, and then performs A / D conversion to generate and output a digital RF signal.
  • the transmission / reception unit 3 has a multi-channel circuit for beam synthesis corresponding to the plurality of ultrasonic transducers.
  • the calculation unit 4 performs a frequency analysis of the echo signal by performing a fast Fourier transform (FFT) on the digital RF signal output from the transmission / reception unit 3, and a frequency spectrum calculated by the frequency analysis unit 41.
  • a feature quantity extraction unit 42 that extracts the feature quantity of the specimen by performing an attenuation correction process and an approximation process that reduce the contribution of attenuation generated according to the reception depth and frequency of the ultrasonic wave when propagating. And having.
  • the frequency analysis unit 41 calculates a frequency spectrum by performing a fast Fourier transform on an FFT data group having a predetermined amount of data for each sound ray (line data).
  • the frequency spectrum shows different tendencies depending on the tissue properties of the specimen. This is because the frequency spectrum has a correlation with the size, density, acoustic impedance, and the like of the specimen as a scatterer that scatters ultrasonic waves.
  • tissue characteristics refers to, for example, any of cancer, endocrine tumors, mucinous tumors, normal tissues, vasculature, and the like. When the specimen is pancreas, the tissue characteristics include chronic pancreatitis, autoimmunity It includes pancreatitis.
  • the feature amount extraction unit 42 approximates the approximation unit 421 that calculates the pre-correction feature amount before performing the attenuation correction process by performing an approximation process on the frequency spectrum calculated by the frequency analysis unit 41 and the approximation unit 421.
  • An attenuation correction unit 422 that extracts a feature amount by performing an attenuation correction process on the uncorrected feature amount.
  • “intensity” refers to any of parameters such as voltage, power, sound pressure, and acoustic energy.
  • the inclination a 0 has a correlation with the size of the ultrasonic scatterer, and it is generally considered that the larger the scatterer, the smaller the inclination.
  • the intercept b 0 has a correlation with the size of the scatterer, the difference in acoustic impedance, the density (concentration) of the scatterer, and the like. Specifically, it is considered that the intercept b 0 has a larger value as the scatterer is larger, a larger value as the acoustic impedance is larger, and a larger value as the density (concentration) of the scatterer is larger.
  • the intensity at the center frequency f MID (hereinafter simply referred to as “intensity”) c 0 is an indirect parameter derived from the slope a 0 and the intercept b 0 , and gives the spectrum intensity at the center in the effective frequency band. Therefore, the intensity c 0 is considered to have a certain degree of correlation with the brightness of the B-mode image in addition to the size of the scatterer, the difference in acoustic impedance, and the density of the scatterer.
  • the approximate polynomial calculated by the feature amount extraction unit 42 is not limited to a linear expression, and it is possible to use a quadratic or higher approximate polynomial.
  • is the attenuation rate
  • z is the ultrasonic reception depth
  • f is the frequency.
  • the attenuation amount A is proportional to the frequency f.
  • a configuration in which the value of the attenuation rate ⁇ can be changed by an input from the input unit 6 is also possible.
  • the image processing unit 5 includes a B-mode image data generation unit 51 that generates B-mode image data from an echo signal, and a feature amount image data generation unit 52 that generates feature amount image data including information on the feature amount.
  • the B-mode image data generation unit 51 performs signal processing using a known technique such as a bandpass filter, logarithmic conversion, gain processing, contrast processing, and the like on the digital signal, and also according to the image display range on the display unit 7.
  • B-mode image data is generated by thinning out data in accordance with the data step width determined in advance.
  • the feature amount image data generation unit 52 uses the B mode image data generated by the B mode image data generation unit 51 and the feature amount of the specimen extracted by the feature amount extraction unit 42 to temporally convert the feature amount image data. Generate continuously. Specifically, the feature amount image data generation unit 52 sets the frequency spectrum at the same data position in a feature amount space in which a coordinate system in which at least a part of the feature amount extracted by the feature amount extraction unit 42 forms a coordinate component can be set. When the feature point of the second point approaches the second region having a lower image display priority than the first region from the predetermined first region with the passage of time, the feature point is moved from the second region to the position of the latest feature point.
  • Information relating to the feature amount is obtained by setting a virtual feature point at a position far from and within or around the first region and adding visual information corresponding to the virtual feature point to the same data position. Is continuously generated.
  • the first region is preferably set as a region corresponding to a tissue property having a high degree of importance to be found by observation, such as cancer.
  • a virtual feature point for displaying an afterimage as described above is set for the first region, but for the second region, the frequency spectrum feature at the same data position is set. Even if the point deviates from the second region over time, a virtual feature point is not set.
  • the feature amount image data generation unit 52 performs the afterimage processing only for the feature points existing in the first region on the feature amount space.
  • the storage unit 8 includes a known sample information storage unit 81 that stores known sample information including feature quantities of known samples, and a window function storage unit 82 that stores a window function used in the frequency analysis processing performed by the frequency analysis unit 41. And a correction information storage unit 83 that stores correction information to be referred to when the attenuation correction unit 422 performs an attenuation correction process, and a feature that is set based on the feature amount of the known specimen stored in the known specimen information storage unit 81.
  • Feature amount space information storage unit 84 that stores information about the amount space, and feature amount information storage that stores information about feature amounts calculated as coordinate values of points in the feature amount space stored in the feature amount space information storage unit 84 Part 85.
  • the known specimen information storage unit 81 stores the characteristic amount of the frequency spectrum extracted by the frequency analysis for the known specimen.
  • the known specimen information storage unit 81 stores an average and a standard deviation calculated for each group classified according to the type of tissue property in the known specimen with respect to the characteristic amount of the frequency spectrum related to the known specimen.
  • the average and standard deviation of the feature quantity of the frequency spectrum of the ultrasonic reception signal is a change in cell level such as the enlargement or deformity of the nucleus in the specimen, the increase of fibers in the stroma, or the fibers of the parenchyma.
  • classification of the tissue properties using the mean and standard deviation of the frequency spectrum features of the known specimen It is carried out.
  • the window function storage unit 82 stores at least one of window functions such as Hamming, Hanning, and Blackman.
  • the correction information storage unit 83 stores information related to the conversion of the equations (2) to (4).
  • the feature quantity space information storage unit 84 is obtained by classifying a plurality of known specimens based on the feature quantities as information on the feature quantity space set based on the known specimen information stored in the known specimen information storage section 81. A plurality of groups and representative points of each group are stored. This representative point may be, for example, the average of the feature amounts in the group, or may be the centroid of the feature amounts in the group.
  • FIG. 2 is a diagram schematically illustrating the configuration of the feature amount space stored in the feature amount space information storage unit 84.
  • the horizontal axis is the intercept b
  • the vertical axis is the intensity c (see formulas (3) and (4)).
  • the region G mu shown in FIG. 2 the G [nu, tissue characterization of known analyte known specimen information storage unit 81 stores have shown a group are each mu, [nu. A point ⁇ 0 in the region G ⁇ and a point ⁇ 0 in the region G ⁇ are representative points of feature points forming elements of each region.
  • the region G ⁇ is a first region (hereinafter referred to as an afterimage region) and the region G v is a second region.
  • the feature amount information storage unit 85 stores feature points used when calculating pixel values as visual information. As such feature points, in addition to the feature points extracted by the feature amount extraction unit 42, there are after-image feature points which are virtual feature points determined according to the positions of the feature points. Further, the feature amount information storage unit 85 stores an afterimage area flag having a different value depending on whether or not the feature point used when calculating the pixel value is a point in the remaining area in a predetermined storage area. To do. For example, the feature amount information storage unit 85 stores the afterimage area flag when the pixel value is calculated using the feature point in the afterimage area or the afterimage feature point as 1, while the feature amount information storage unit 85 uses the feature point or afterimage outside the afterimage area. The afterimage area flag when the pixel value is calculated using the feature point is stored as 0.
  • FIG. 2 also shows an h-axis (reference axis) that passes through the representative points ⁇ 0 and ⁇ 0 and has a direction of ⁇ 0 ⁇ ⁇ 0 as a positive direction. Whether the h-axis uses the latest feature point when the feature value image data generation unit 52 determines the pixel value of the pixel in the frame, or uses the pixel value of the afterimage feature point already stored It is used when judging.
  • h-axis reference axis
  • the two regions G ⁇ and G ⁇ exist in regions that do not intersect each other in the feature amount space.
  • grouping is performed using the characteristic amount of the frequency spectrum obtained by frequency analysis as an index, different groups can be distinguished from each other.
  • the region of each group in the feature amount space is more clearly separated as compared with the case where the attenuation correction is not performed. Can be obtained in the state.
  • the scales of the b-axis component and the c-axis component in the feature amount space are greatly different, it is desirable to appropriately perform weighting to make the contribution of each distance substantially equal.
  • the feature amount space information storage unit 84 stores the relationship between the points on the feature amount space and the pixel values as pixel value information that is visual information determined for each pixel.
  • the feature amount space information storage unit 84 stores the values of variables constituting the color space assigned to the intercept b and the intensity c.
  • the color space referred to here is, for example, an RGB color system or a complementary color system, a color system representing three attributes of light (hue, lightness, and saturation).
  • the storage unit 8 includes a ROM in which an operation program of the ultrasonic observation apparatus according to the first embodiment, a program for starting a predetermined OS, and the like are stored in advance, and a RAM in which calculation parameters and data of each process are stored. To be realized.
  • Components other than the ultrasound probe 2 of the ultrasound observation apparatus 1 having the above functional configuration are realized using a computer having a CPU having a calculation and control function.
  • the CPU provided in the ultrasound observation apparatus 1 reads out various programs including information stored and stored in the storage unit 8 and the above-described operation program of the ultrasound observation apparatus from the storage unit 8, so that the ultrasound according to the first embodiment is obtained. Arithmetic processing related to the operation method of the sound wave observation apparatus is executed.
  • the operation program of the ultrasonic observation apparatus may be recorded on a computer-readable recording medium such as a hard disk, a flash memory, a CD-ROM, a DVD-ROM, or a flexible disk and widely distributed. Is possible.
  • FIG. 3 is a flowchart showing an outline of processing of the ultrasonic observation apparatus 1 having the above configuration.
  • the flowchart shown in FIG. 3 shows an outline of processing to be performed on one frame.
  • the ultrasound observation apparatus 1 sets a variable i for frame identification to 1 (step S1). Subsequently, the ultrasound observation apparatus 1 first measures a new specimen by the ultrasound probe 2 (step S2).
  • the B-mode image data generation unit 51 generates B-mode image data using the B-mode image echo signal output from the transmission / reception unit 3 (step S3).
  • FIG. 4 is a diagram illustrating a display example of the B-mode image on the display unit 7.
  • a B-mode image 100 shown in the figure is a grayscale image in which values of R (red), G (green), and B (blue), which are variables when the RGB color system is adopted as a color space, are matched. .
  • the frequency analysis unit 41 calculates a frequency spectrum by performing frequency analysis by FFT calculation (step S5).
  • the process (step S5) performed by the frequency analysis unit 41 will be described in detail with reference to the flowchart shown in FIG.
  • the frequency analysis unit 41, the sound ray number L of acoustic lines the initially analyzed and the initial value L 0 (step S21).
  • the initial value L 0 may be given to the sound ray that is first received by the transmission / reception unit 3 or to the sound ray corresponding to one of the left and right boundary positions of the region of interest set by the input unit 6. May be given.
  • the frequency analysis unit 41 calculates the frequency spectrum of all of the plurality of data positions set on one sound ray.
  • the frequency analyzing unit 41 sets an initial value Z 0 of the data position Z (corresponding to the received depth) representative series of data groups to be acquired for FFT computation of (FFT data group) (step S22).
  • FIG. 6 is a diagram schematically showing a data array of one sound ray.
  • a white or black rectangle means one piece of data.
  • the sound ray LD is discretized at a time interval corresponding to a sampling frequency (for example, 50 MHz) in A / D conversion performed by the transmission / reception unit 3.
  • FIG. 6 shows the case of setting the first data of the sound ray LD as the initial value Z 0 of the data position Z. Note that FIG. 6 is merely an example, and the position of the initial value Z 0 can be arbitrarily set. For example, may be set data position Z corresponding to the upper end position of the region of interest as the initial value Z 0.
  • the frequency analysis unit 41 acquires the FFT data group at the data position Z (step S23), and causes the window function stored in the window function storage unit 82 to act on the acquired FFT data group (step S24). In this way, by applying the window function to the FFT data group, it is possible to avoid the FFT data group from becoming discontinuous at the boundary and to prevent the occurrence of artifacts.
  • the frequency analysis unit 41 determines whether or not the FFT data group at the data position Z is a normal data group (step S25).
  • the FFT data group needs to have a power number of 2 data.
  • the number of data in the FFT data group is 2 n (n is a positive integer).
  • the normal FFT data group means that the data position Z is the 2n- 1th position from the front in the FFT data group.
  • the FFT data groups F 2 , F 3 , and F K-1 are normal, while the FFT data groups F 1 and F K are abnormal.
  • step S25 If the result of determination in step S25 is that the FFT data group at the data position Z is normal (step S25: Yes), the frequency analysis unit 41 proceeds to step S27 described later.
  • step S25 If the result of determination in step S25 is that the FFT data group at the data position Z is not normal (step S25: No), the frequency analysis unit 41 generates a normal FFT data group by inserting zero data for the shortage (Ste S26).
  • the FFT function group determined to be not normal in step S25 is subjected to a window function before adding zero data. For this reason, discontinuity of data does not occur even if zero data is inserted into the FFT data group.
  • step S26 the frequency analysis unit 41 proceeds to step S27 described later.
  • step S27 the frequency analysis unit 41 obtains a frequency spectrum by performing an FFT operation using the FFT data group (step S27).
  • 7 and 8 are diagrams illustrating examples of frequency spectra calculated by the frequency analysis unit 41.
  • FIG. 7 and 8 the horizontal axis f is the frequency, and the vertical axis I is the intensity.
  • the lower limit frequency f LOW and the upper limit frequency f HIGH of the frequency spectrum are the frequency band of the ultrasound probe 2 and the pulse signal transmitted by the transmitting / receiving unit 3.
  • f LOW 3 MHz
  • f HIGH 10 MHz.
  • the lines L 1 and L 2 shown in FIGS. 7 and 8 will be described by the feature amount extraction processing will be described later.
  • the curve and the straight line are composed of a set of discrete points. This also applies to the embodiments described later.
  • the frequency analysis unit 41 adds a predetermined data step width D to the data position Z to calculate the data position Z of the next FFT data group to be analyzed (step S28).
  • the data step width D here is preferably the same as the data step width used when the B-mode image data generation unit 51 generates the B-mode image data. However, when it is desired to reduce the amount of calculation in the frequency analysis unit 41 In this case, a value larger than the data step width used by the B-mode image data generation unit 51 may be set.
  • the frequency analyzing unit 41 determines whether the data position Z is greater than the final data position Z max (step S29).
  • the final data position Zmax may be the data length of the sound ray LD, or may be the data position corresponding to the lower end of the region of interest.
  • the frequency analysis unit 41 increases the sound ray number L by 1 (step S30).
  • the frequency analyzing unit 41 returns to step S23.
  • [X] represents the maximum integer not exceeding X.
  • step S31: Yes When the sound ray number L after being increased in step S30 is larger than the final sound ray number Lmax (step S31: Yes), the frequency analysis unit 41 returns to the main routine shown in FIG. On the other hand, when the sound ray number L after being increased in step S30 is equal to or less than the final sound ray number Lmax (step S31: No), the frequency analysis unit 41 returns to step S22.
  • the frequency analysis unit 41 performs K FFT operations for each of (L max ⁇ L 0 +1) sound rays.
  • the final sound ray number L max may be assigned to the last sound ray received by the transmission / reception unit 3, for example, or may be assigned to the sound ray corresponding to either the left or right boundary of the region of interest.
  • P be the total number of FFT calculations (L max ⁇ L 0 +1) ⁇ K performed by the frequency analysis unit 41 for all sound rays.
  • the approximating unit 421 extracts a pre-correction feature quantity by performing regression analysis on the P frequency spectra calculated by the frequency analyzing unit 41 as an approximating process (step S6). Specifically, the approximating unit 421 calculates a linear expression that approximates the frequency spectrum of the frequency band f LOW ⁇ f ⁇ f HIGH by regression analysis, and thereby has a slope a 0 , an intercept b 0 , extracting the intensity c 0 as the pre-correction feature amount.
  • the attenuation correction unit 422 performs an attenuation correction process on the pre-correction feature quantity extracted by the approximation unit 421 (step S7).
  • the data sampling frequency is 50 MHz
  • the data sampling time interval is 20 (nsec).
  • the sound speed is 1530 (m / sec)
  • the number of data steps from the first data of the sound ray LD up to the data position of the FFT data group to be processed is k
  • the data position Z is 0.0153 k (mm).
  • the attenuation correction unit 422 substitutes the value of the data position Z thus obtained for the reception depth z in the above-described equations (2) to (4), so that the slope a, the intercept b, The intensity c is calculated.
  • Figure 9 is a diagram showing a straight line determined from the feature after the attenuation correction on the feature amount associated with the straight line L 1 shown in FIG.
  • the straight line L 1 ′ has a larger slope and the same intercept value as compared with the straight line L 1 .
  • FIG. 10 is a flowchart showing an outline of the feature amount image data generation process performed by the feature amount image data generation unit 52.
  • a set (b i (j), c i (j)) of an intercept b i (j) and an intensity c i (j) corresponding to the pixel j of the i-th frame (i-th frame). Is referred to as a feature point and described as S i (j).
  • the feature image data generation unit 52 sets a variable j for pixel identification to 1 (step S41).
  • the feature amount image data generation unit 52 acquires the feature points (first feature points) S i (j) extracted by the feature amount extraction unit 42 (step S42), and the acquired feature points S i (j)
  • the afterimage area flag is read from the feature amount space information storage unit 84, and the value of the afterimage area flag is determined (step S43).
  • the feature image data generation unit 52 calculates the pixel value of the pixel j using the feature point S i (j) (step S44).
  • step S43 the feature amount image data generation unit 52 determines whether or not the afterimage condition is satisfied. A determination is made (step S45).
  • FIG. 11 is a flowchart showing an outline of the afterimage condition determination process.
  • the feature amount image data generation unit 52 projects the feature points S i (j) and the afterimage feature points (second feature points) T i ⁇ 1 (j) onto the h-axis in the feature amount space.
  • the coordinates of the points S ′ i (j) and T ′ i ⁇ 1 (j) are calculated (step S61).
  • the feature quantity image data generation unit 52 uses two vectors ⁇ 0 S ′, having a representative point ⁇ 0 as a start point and projection points S ′ i (j) and T ′ i ⁇ 1 (j) as end points, respectively. It is determined whether or not the directions of ⁇ 0 T ′ are the same (step S62). As a result of the determination, when the directions of the two vectors ⁇ 0 S ′ and ⁇ 0 T ′ are the same (step S62: Yes), the feature image data generation unit 52 determines the projection point S ′ i (j) and the representative point. It calculates the distance d T of the distance d S, and the projection points T 'i-1 (j) and representative point mu 0 and mu 0 (step S63).
  • FIG. 12 is a diagram illustrating a situation of a feature space in which two vectors ⁇ 0 S ′ and ⁇ 0 T ′ have the same direction and d S ⁇ d T.
  • the projection point S ′ i (j) is closer to the representative point ⁇ 0 of the region G ⁇ than the projection point T ′ i ⁇ 1 (j).
  • FIG. 13 is a diagram illustrating the state of the feature amount space when two vectors ⁇ 0 S ′ and ⁇ 0 T ′ have the same direction and d S ⁇ d T.
  • the projection point S ′ i (j) is farther from the representative point ⁇ 0 of the region G ⁇ than the projection point T ′ i ⁇ 1 (j). Therefore, those who set the pixel values based on the feature points within the region G ⁇ S i (j) is, to display an image having a pixel value that is granted on the basis of the more accurate position in the region G mu Can do.
  • step S62 when the directions of the two vectors ⁇ 0 S ′ and ⁇ 0 T ′ are not the same (step S62: No), the feature amount image data generation unit 52 proceeds to step S66.
  • FIG. 14 is a diagram illustrating the state of the feature amount space when two vectors ⁇ 0 S ′ and ⁇ 0 T ′ have different directions.
  • the projection point S ′ i (j) is farther from the representative point ⁇ 0 of the region G ⁇ than the projection point T ′ i ⁇ 1 (j). Therefore, when the pixel value is determined based on the feature point S i (j), an image having a pixel value assigned based on a more accurate position in the region G ⁇ can be displayed.
  • step S46: Yes If the afterimage condition is satisfied as a result of the afterimage condition determination process in step S45 (step S46: Yes), the feature amount image data generation unit 52 uses the afterimage feature point T i-1 (j) to obtain a pixel value. Is calculated (step S47). On the other hand, when the afterimage condition is not satisfied (step S46: No), the feature amount image data generation unit 52 proceeds to step S44.
  • the feature amount image data generation unit 52 has the feature point S i (j) or the afterimage feature point T i-1 (j) used for the calculation of the pixel value in the afterimage area. It is determined whether or not (step S48). When the feature point S i (j) or the afterimage feature point T i-1 (j) does not exist in the afterimage area (step S48: No), the feature image data generation unit 52 sets the afterimage area flag to 0. Processing is performed (step S49).
  • step S50 Yes
  • the feature amount image data generation unit 52 ends the feature amount image data generation process.
  • step S50: No if the pixel value variable j is smaller than the maximum value jmax (step S50: No), the feature amount image data generation unit 52 increases the variable j by 1 (step S51), and returns to step S42. Note that the increase in the variable j here means only the change of the pixel to be processed. Therefore, the variables of the feature points assigned to the individual pixels and the afterimage feature points do not change.
  • FIG. 15 is a diagram showing an outline of a method for calculating afterimage feature points T i (j). As shown in FIG. 15, the afterimage feature point T i (j) is obtained by shifting each component of the feature point S i (j) by a predetermined amount.
  • the coordinates of the afterimage feature point T i (j) are given by (b i (j) + ⁇ , c i (j) + ⁇ ).
  • both ⁇ and ⁇ are positive constants, and are set as values such that the afterimage feature point T i (j) is closer to the representative point ⁇ 0 of the region G ⁇ than the feature point S i (j).
  • FIG. 15 illustrates a case where the shifting direction is parallel to the h-axis, but this is merely an example.
  • FIG. 16 is a diagram illustrating a display example of the feature amount image displayed by the display unit 7.
  • FIG. 17 is a diagram schematically showing the image shown in FIG. 16 in black and white. Compared with the B-mode image 100, the feature amount image 200 shown in these figures is colored, and the difference in color according to the group is clear. The feature amount image 200 is roughly divided into a green region 200g and a red region 200r, and the boundary between the two regions is displayed in a yellow color (not shown in FIG. 17). As shown in FIG. 16, each area is not configured by a single color.
  • the green region 200g is a region where pixels having colors close to green are gathered.
  • the red region 200r is a region where pixels having colors close to red are gathered.
  • An observer who sees such a feature amount image 200 can clearly recognize a difference in group, that is, a difference in organizational properties.
  • the control unit 9 may display the feature amount image and the B-mode image side by side on the display unit 7. Thereby, the difference between both images can be recognized on one screen.
  • step S10: Yes when an instruction signal for ending the process is input by the input unit 6 (step S10: Yes), the ultrasound observation apparatus 1 ends a series of processes. On the other hand, when the instruction signal for ending the process is not input by the input unit 6 (step S10: No), the ultrasound observation apparatus 1 increases the variable i for frame identification by 1 (step S11), and step S2 Return to.
  • FIG. 18 is a diagram schematically illustrating a situation observed by the ultrasound observation apparatus 1.
  • an ultrasound probe 2 is provided at the tip of the ultrasound observation apparatus 1.
  • the ultrasonic probe 2 has a transducer group 22 composed of a plurality of transducers.
  • the plurality of transducers constituting the transducer group 22 sequentially transmit ultrasonic waves at a predetermined timing.
  • the transmitted ultrasonic wave reaches the slice plane PL having a certain thickness in the specimen.
  • the slice plane PL is shown in a rectangular parallelepiped shape, but this is for convenience, and the actual shape of the slice plane PL varies depending on the observation portion of the specimen.
  • the relative positional relationship between the ultrasonic probe 2 and the specimen may change due to movement of at least one of the ultrasonic probe 2 and the specimen.
  • the slice plane PL to be observed changes.
  • the tissue Or in the specimen observed in the first frame is not observed in the subsequent frame.
  • Such a situation is considered to be caused by the fact that the tissue Or observed in the first frame is very small or is located far from the ultrasonic probe.
  • FIG. 19 shows a display example (first example) of a feature amount image displayed on the display unit in a conventional ultrasonic observation apparatus under a situation where the relative positional relationship between the ultrasonic probe and the specimen changes with time.
  • FIG. 19 the tissue Or1 displayed in the first feature amount image 301 has disappeared in the feature amount images 302, 303, and 304 displayed subsequently.
  • FIG. 20 shows a display example (second example) of a feature amount image displayed on the display unit in a conventional ultrasonic observation apparatus under a situation where the relative positional relationship between the ultrasonic probe and the specimen changes with time.
  • FIG. 20 shows a display example (second example) of a feature amount image displayed on the display unit in a conventional ultrasonic observation apparatus under a situation where the relative positional relationship between the ultrasonic probe and the specimen changes with time.
  • the tissue Or2 displayed in the first feature amount image 401 disappears in the feature amount image 402 displayed thereafter.
  • a tissue Or3 having a shape different from that of the tissue Or2 is displayed. This organization Or3 disappears in the subsequent feature amount image 404.
  • FIG. 21 and 22 are diagrams for explaining the effect of the processing performed by the ultrasound observation apparatus 1 according to the first embodiment.
  • FIG. 21 is a diagram schematically showing a display example of the display unit 7 under the same situation as FIG.
  • the organization Or1 is observed only at the time of capturing the feature amount image 501 displayed first, as in FIG.
  • afterimages Or11, Or12, and Or13 having the same shape are displayed at the same positions as the tissue Or1 in the subsequent feature amount images 502, 503, and 504, respectively.
  • the display colors of these afterimages Or11, Or12, and Or13 are similar to the display color of the tissue Or1, but are slightly different. This is because in the feature amount space, the feature points corresponding to the pixels in the region constituting each afterimage are different from the feature points corresponding to the pixels in the tissue Or1.
  • FIG. 22 is a diagram schematically showing a display example of the display unit 7 under the same situation as FIG.
  • the tissue Or2 is observed and displayed only at the time of capturing the feature amount image 601 displayed first.
  • the afterimage Or21 of the tissue Or2 is displayed in the feature amount image 602 corresponding to the feature amount image 402 of FIG.
  • the tissue Or3 is displayed in the same manner as the feature amount image 403 in FIG.
  • an afterimage Or31 of the tissue Or3 is displayed.
  • the display color of the tissue Or2 and the display color of the afterimage Or21 are different, and the display color of the tissue Or3 and the display color of the afterimage Or31 are different.
  • an afterimage is drawn based on the tissue or afterimage displayed immediately before that. Even if a tissue having a high display priority cannot be observed in a certain frame, a desired tissue can be displayed for a long time by displaying an afterimage using an image of the immediately preceding frame. As a result, the user can continuously observe images he / she wants to see.
  • FIG. 23 is a diagram for explaining the effect of attenuation correction in the first embodiment.
  • An image 700 shown in FIG. 23 is a feature amount image when attenuation correction is not performed.
  • the feature amount image in this case is the feature amount b equally assigned to R (red), G (green), and B (blue) with respect to the B mode image generated by the B mode image data generation unit 51. It is a grayscale image.
  • the feature amount image 700 the signal intensity is lowered due to the influence of attenuation in the region where the reception depth is large (the lower region in the figure), and the image is dark.
  • the feature image 800 obtained by performing attenuation correction using the same B-mode image provides an image with uniform brightness over the entire screen.
  • the feature points of the frequency spectrum at the predetermined data position exist in the predetermined first region in the i-th frame (i is a natural number),
  • the first area is located farther from the second area than the latest feature point position.
  • a virtual feature point is set at a position inside or around the image, and visual information corresponding to the latest feature point in the (i + 1) th frame at a predetermined data position is obtained by visual information corresponding to the virtual feature point.
  • a feature amount is extracted by performing attenuation correction on a feature amount before correction of the frequency spectrum obtained by analyzing the frequency of the received ultrasonic wave, and the extracted feature amount is used.
  • the features of the frequency spectrum extracted based on the ultrasonic waves reflected by a plurality of known specimens are used, the difference between tissues can be clearly distinguished without using the strain amount and elastic modulus of the living tissue. be able to. Therefore, the reliability of the observation result can be improved by observing the specimen with high accuracy.
  • the feature amount obtained by performing the attenuation correction of the feature amount before correction of the frequency spectrum obtained by frequency analysis is used as an index. Since classification and determination are performed, different tissue properties can be distinguished.
  • the region of each group in the feature amount space is further compared to the case where the feature amount extracted without performing attenuation correction is used. It can be obtained in a clearly separated state.
  • Ultrasonic elastography has a problem in that the pressure applied to the lower part of blood vessels such as blood vessels and lymph vessels is difficult to be transmitted. Therefore, when a tumor is formed in the vicinity of the blood vessel, the boundary of the tumor is unclear, it is difficult to distinguish the infiltration of the tumor into the blood vessel, and the sample may not be observed accurately.
  • ultrasonic elastography has a problem that the reliability of observation results is low because individual differences are likely to occur in the pressure and compression speed when the examiner compresses the examination location. According to the first embodiment, as described above, since the reliability of the observation result can be improved by observing the specimen with high accuracy, it is suitable for solving the problems peculiar to ultrasonic elastography. Technology can be provided.
  • the second embodiment of the present invention is different from the first embodiment in feature image data generation processing performed by a feature image data generation unit.
  • the configuration of the ultrasonic observation apparatus according to the second embodiment is the same as the configuration of the ultrasonic observation apparatus 1 described in the first embodiment. Therefore, in the following description, the same reference numerals are given to the components corresponding to the components of the ultrasonic observation apparatus 1.
  • the feature amount information storage unit 85 further stores boundary feature points U i (j).
  • the boundary feature point U i (j) is the feature point S i (j) or the afterimage feature point T i (j) used for the calculation of the pixel value, and the afterimage in the feature amount space in the next frame. It is used to set a boundary that is necessary when determining the condition.
  • FIG. 24 is a flowchart showing an outline of a feature amount image data generation process performed by the feature amount image data generation unit 52 of the ultrasound observation apparatus 1 according to the second embodiment.
  • the feature amount image data generation unit 52 sets a variable j for pixel identification to 1 (step S71).
  • the feature amount image data generation unit 52 acquires the feature points (third feature points) S i (j) extracted by the feature amount extraction unit 42 (step S72), and the acquired feature points S i (j)
  • the afterimage area flag is read from the feature amount space information storage unit 84, and the value of the afterimage area flag is determined (step S73).
  • the feature image data generation unit 52 calculates the pixel value of the pixel j using the feature point S i (j) (step S74).
  • step S73 when the afterimage area flag of the acquired feature point S i (j) is 1 (step S73: “1”), the feature amount image data generation unit 52 determines whether or not the afterimage condition is satisfied. A determination is made (step S75).
  • FIG. 25 is a flowchart showing an outline of the afterimage condition determination process.
  • the feature amount image data generation unit 52 first sets a reference boundary that passes through the boundary feature point U i-1 (j) in the feature amount space and is orthogonal to the reference axis (h axis) ( Step S91).
  • the feature amount image data generation unit 52 determines whether or not the feature point S i (j) is on the same side as the second region with respect to the reference boundary (step S92). When the feature point S i (j) is on the same side as the second region with respect to the reference boundary (step S92: Yes), the feature amount image data generation unit 52 determines that the afterimage condition is satisfied (step S92). S93), the process proceeds to step S76.
  • FIG. 26 is a diagram illustrating a configuration of the feature amount space when it is determined that the afterimage condition is satisfied in the afterimage condition determination process performed by the ultrasound observation apparatus 1. In FIG.
  • the feature point S i (j) is a region G that is a second region with respect to a reference boundary B that passes through the boundary feature point U i-1 (j) and is a straight line orthogonal to the h axis. On the same side as ⁇ .
  • the reference boundary is a plane.
  • FIG. 27 is a diagram illustrating a configuration of the feature amount space when it is determined that the afterimage condition is not satisfied in the afterimage condition determination process performed by the ultrasound observation apparatus 1.
  • the feature point S i (j) is located on the side different from the region G ⁇ with respect to the reference boundary B.
  • step S76 Yes
  • the feature amount image data generation unit 52 determines the afterimage feature point (fourth feature point) T i (j). Calculate (step S77).
  • FIG. 28 is a diagram showing an outline of the afterimage feature point calculation process (first example) in step S77.
  • the feature amount image data generation unit 52 first passes through the feature point S i (j), and intersects U ′ i ⁇ 1 (j between the straight line orthogonal to the reference boundary B (a straight line parallel to the h axis) and the reference boundary B. ) And a distance d S1 between the intersection U ′ i ⁇ 1 (j) and the feature point S i (j) is calculated.
  • the point located on the straight line that is closer to the region G v and passes through the boundary feature point U i-1 (j) and is orthogonal to the reference boundary B is defined as an afterimage feature point T i (j). It is also possible to define the distance d T1 as a constant value.
  • the feature image data generation unit 52 calculates the pixel value of the pixel j using the afterimage feature points T i (j) (step S78).
  • step S76 If the afterimage condition is not satisfied in step S76 (step S76: No), the feature amount image data generation unit 52 proceeds to step S74.
  • the feature image data generation unit 52 determines whether or not the feature point S i (j) or the after-image feature point T i (j) used for calculating the pixel value exists in the after-image region. Is determined (step S79). When the feature point S i (j) or the after-image feature point T i (j) does not exist in the afterimage area (step S79: No), the feature image data generation unit 52 performs a process of setting the afterimage area flag to 0. This is performed (step S80).
  • step S81: Yes the feature amount image data generation unit 52 ends the feature amount image data generation processing.
  • step S81: No the feature amount image data generation unit 52 increases the variable j by 1 (step S82), and returns to step S72.
  • the increase in the variable j only means a change in the pixel to be processed. Therefore, the variables of the feature points assigned to the individual pixels and the afterimage feature points do not change.
  • step S79 Yes.
  • the feature amount image data generation unit 52 performs a process of setting the afterimage region flag to 1 (step S83), and the feature point S i (j) or the afterimage feature point T i (j used for calculating the pixel value).
  • step S84 As a boundary feature point U i (j) (step S84), and the process proceeds to step S81.
  • the feature points of the frequency spectrum at the predetermined data position exist in the predetermined first region in the i-th frame (i is a natural number),
  • the first area is located farther from the second area than the latest feature point position.
  • a virtual feature point is set at a position inside or around the image, and visual information corresponding to the latest feature point in the (i + 1) th frame at a predetermined data position is obtained by visual information corresponding to the virtual feature point.
  • the feature amount is extracted by performing attenuation correction on the pre-correction feature amount of the frequency spectrum obtained by analyzing the frequency of the received ultrasonic wave, and the extracted feature amount is used.
  • the features of the frequency spectrum extracted based on the ultrasonic waves reflected by a plurality of known specimens are used, the difference between tissues can be clearly distinguished without using the strain amount and elastic modulus of the living tissue. be able to. Therefore, the reliability of the observation result can be improved by observing the specimen with high accuracy. As a result, a technique suitable for ultrasonic elastography can be provided.
  • FIG. 29 is a diagram showing an outline of another example (second example) of the afterimage feature point calculation process in step S77 of FIG.
  • the feature amount image data generation unit 52 first calculates a distance d S2 between the boundary feature point U i-1 (j) and the feature point S i (j).
  • the third embodiment of the present invention differs from the first embodiment in the feature amount extraction processing performed by the feature amount extraction unit.
  • the configuration of the ultrasonic observation apparatus according to the third embodiment is the same as the configuration of the ultrasonic observation apparatus 1 described in the first embodiment. Therefore, in the following description, the same reference numerals are given to the components corresponding to the components of the ultrasonic observation apparatus 1.
  • the attenuation correction unit 422 first performs an attenuation correction process on the frequency spectrum calculated by the frequency analysis unit 41. Thereafter, the approximating unit 421 performs an approximation process on the frequency spectrum that has been attenuation-corrected by the attenuation correcting unit 422, thereby extracting a feature quantity of the frequency spectrum.
  • FIG. 30 is a flowchart showing an outline of processing of the ultrasonic observation apparatus according to the third embodiment.
  • the processing of steps S101 to S105 sequentially corresponds to the processing of steps S1 to S5 of FIG.
  • step S106 the attenuation correction unit 422 performs attenuation correction on all frequency spectra calculated by the frequency analysis unit 41 by the FFT calculation (step S106).
  • FIG. 31 is a diagram schematically showing an outline of the processing in step S106. As shown in FIG. 31, the attenuation correction unit 422 performs new correction on the frequency spectrum curve C 3 by adding the above-described attenuation amount A of the equation (1) to the intensity I for all frequencies f. A simple frequency spectrum curve C 3 ′ is obtained. Thereby, the frequency spectrum which reduced the contribution of attenuation accompanying propagation of an ultrasonic wave can be obtained.
  • the approximating unit 421 extracts the characteristic amount of the frequency spectrum by performing regression analysis of all the frequency spectra that have been attenuation-corrected by the attenuation correcting unit 422 (step S107). Specifically, the approximating unit 421 calculates the gradient c, the intercept b, and the intensity c at the center frequency f MID of the linear expression by regression analysis.
  • a straight line L 3 shown in FIG. 31 is a regression line (intercept b 3 ) obtained by performing feature amount extraction processing on the frequency spectrum curve C 3 in step S107.
  • the processing in steps S108 to S111 corresponds to the processing in steps S8 to S11 in FIG.
  • the feature points of the frequency spectrum at the predetermined data position exist in the predetermined first region in the i-th frame (i is a natural number),
  • the first area is located farther from the second area than the latest feature point position.
  • a virtual feature point is set at a position inside or around the image, and visual information corresponding to the latest feature point in the (i + 1) th frame at a predetermined data position is obtained by visual information corresponding to the virtual feature point.
  • the frequency spectrum obtained by analyzing the frequency of the received ultrasonic wave is subjected to attenuation correction, the feature amount is extracted from the frequency spectrum subjected to the attenuation correction, and the extracted feature amount is used.
  • the features of the frequency spectrum extracted based on the ultrasonic waves reflected by a plurality of known specimens are used, the difference between tissues can be clearly distinguished without using the strain amount and elastic modulus of the living tissue. be able to. Therefore, the reliability of the observation result can be improved by observing the specimen with high accuracy. As a result, a technique suitable for ultrasonic elastography can be provided.

Abstract

 超音波観測装置は、受信した超音波の周波数スペクトルを近似することによって抽出された特徴量の少なくとも一部が座標成分をなす座標系を設定可能な特徴量空間において、所定のデータ位置における周波数スペクトルの特徴点が、表示部における第iフレーム(iは自然数)で所定の第1領域内に存在し、次の第(i+1)フレームで第1領域よりも画像表示の優先度が低い第2領域へ近づいた場合、最新の特徴点の位置よりも第2領域から遠い位置であって第1領域の内部または周辺の位置に仮想的な特徴点を設置し、該仮想的な特徴点に対応する視覚情報により、所定のデータ位置の第(i+1)フレームにおける最新の特徴点に対応する視覚情報を置き換えることで特徴量画像データを生成し、表示する。

Description

超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
 本発明は、超音波を用いて検体の組織を観測する超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラムに関する。
 従来、超音波を用いた乳がん等の検査技術として、超音波エラストグラフィという技術が知られている(例えば、特許文献1を参照)。超音波エラストグラフィは、生体内の癌や腫瘍組織の硬さが病気の進行状況や生体によって異なることを利用する技術である。この技術では、外部から検査箇所を圧迫した状態で、超音波を用いてその検査箇所における生体組織の歪量や弾性率を計測し、この計測結果を断層像として画像表示している。
国際公開第2005/122906号
 一般に、超音波を用いて検体の組織を観測する超音波観測装置は、検体内で一定の厚さを有するスライス平面を観測対象としている。ところで、観測時には、超音波観測装置が備える超音波探触子(スコープ)および検体の少なくともいずれか一方が動くことによって両者の相対的な位置関係が変化する場合がある。この場合には、超音波探触子が観測するスライス平面が変化する。超音波観測装置が観測するスライス平面が変化すると、最初のフレームで観測した検体内の組織が、その後のフレームで観測されない事態が生じることがあった。このような事態が生じるのは、最初のフレームで観測した組織が微小であったり、超音波探触子から遠くに位置していたりすることが原因であると考えられている。
 上述したように、従来の超音波観測装置では、観測対象との相対的な位置関係が時間とともに変化することによって、所望の組織を長時間にわたって観測することができないという問題があった。
 本発明は、上記に鑑みてなされたものであって、観測対象との相対的な位置関係が時間とともに変化したとしても、所望の組織を長時間にわたって観測することができる超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係る超音波観測装置は、検体に対して超音波を送信するとともに前記検体によって反射された超音波を受信する超音波観測装置であって、受信した超音波に対して定められる複数のデータ位置における周波数スペクトルを算出する周波数解析部と、前記周波数解析部が算出した周波数スペクトルを近似することによって前記周波数スペクトルに対する一または複数の特徴量を抽出する特徴量抽出部と、前記特徴量抽出部が抽出した特徴量に関する情報を含む特徴量画像データを順次生成する画像処理部と、前記画像処理部が順次生成した特徴量画像データに対応する画像を順次表示する表示部と、を備え、前記一または複数の特徴量の少なくとも一部が座標成分をなす座標系を設定可能な特徴量空間において、所定のデータ位置における周波数スペクトルの特徴点が、前記表示部における第iフレーム(iは自然数)で所定の第1領域内に存在し、次の第(i+1)フレームで前記第1領域よりも画像表示の優先度が低い第2領域へ近づいた場合、前記画像処理部は、最新の特徴点の位置よりも前記第2領域から遠い位置であって前記第1領域の内部または周辺の位置に仮想的な特徴点を設置し、該仮想的な特徴点に対応する視覚情報により、前記所定のデータ位置の第(i+1)フレームにおける前記最新の特徴点に対応する視覚情報を置き換えることで前記特徴量画像データを生成することを特徴とする。
 また、本発明に係る超音波観測装置は、上記発明において、前記画像処理部は、同じデータ位置における周波数スペクトルの特徴点であって前記第(i+1)フレームを生成する際に算出する第1特徴点および前記第iフレームを生成する際に算出する第2特徴点を、前記第1および第2領域の代表点をそれぞれ通過する基準軸へ射影し、この射影した点と前記第2領域の代表点との距離に基づいて、前記第1および第2特徴点と前記第2領域との位置関係を判定することを特徴とする。
 また、本発明に係る超音波観測装置は、上記発明において、前記第1特徴点は、前記特徴量抽出部が抽出した特徴量から定まる特徴点であり、前記第2特徴点は、前記仮想的な特徴点であることを特徴とする。
 また、本発明に係る超音波観測装置は、上記発明において、前記画像処理部は、前記第1および第2領域の代表点をそれぞれ通過する基準軸と直交する直線または平面であって、前記第iフレームを生成する際に、同じデータ位置における特徴点としてそれぞれ算出する第3および第4特徴点のいずれか一方を通過する直線または平面を基準境界として、前記第(i+1)フレームを生成する際に算出する特徴点と前記第2領域との位置関係を判定し、前記第3特徴点は、前記特徴量抽出部が抽出した特徴量から定まる特徴点であり、前記第4特徴点は、前記仮想的な特徴点であることを特徴とする。
 また、本発明に係る超音波観測装置は、上記発明において、前記画像処理部は、前記第iフレームにおける前記第3および第4特徴点のうち前記基準境界に含まれる特徴点の位置および前記基準軸を用いることにより、前記第(i+1)フレームにおける前記仮想的な特徴点の位置を定めることを特徴とする。
 また、本発明に係る超音波観測装置は、上記発明において、前記画像処理部は、前記第iフレームにおける前記第3および第4特徴点のうち前記基準境界に含まれる特徴点の位置および前記第2領域の代表点の位置を用いることにより、前記第(i+1)フレームにおける前記仮想的な特徴点の位置を定めることを特徴とする。
 また、本発明に係る超音波観測装置は、上記発明において、前記特徴量抽出部は、前記周波数解析部が算出した周波数スペクトルに対し、超音波が伝播する際に該超音波の受信深度および周波数に応じて発生する減衰の寄与を削減する減衰補正処理と近似処理とを行うことにより、前記特徴量を抽出することを特徴とする。
 また、本発明に係る超音波観測装置は、上記発明において、前記特徴量抽出部は、前記周波数解析部が算出した周波数スペクトルに対して前記近似処理を行うことにより、前記減衰補正処理を行う前の補正前特徴量を抽出する近似部と、前記近似部が抽出した補正前特徴量に対して前記減衰補正処理を行うことにより、前記周波数スペクトルの特徴量を抽出する減衰補正部と、を有することを特徴とする。
 また、本発明に係る超音波観測装置は、上記発明において、前記特徴量抽出部は、前記周波数スペクトルに対して前記減衰補正処理を行う減衰補正部と、前記減衰補正部が補正した周波数スペクトルに対して前記近似処理を行うことにより、前記周波数スペクトルの特徴量を抽出する近似部と、を有することを特徴とする。
 また、本発明に係る超音波観測装置は、上記発明において、前記減衰補正部は、超音波の受信深度が大きいほど大きな補正を行うことを特徴とする。
 また、本発明に係る超音波観測装置は、上記発明において、前記近似部は、回帰分析によって前記周波数スペクトルを多項式で近似することを特徴とする。
 また、本発明に係る超音波観測装置は、上記発明において、前記視覚情報は、色空間を構成する変数であることを特徴とする。
 また、本発明に係る超音波観測装置の作動方法は、検体に対して超音波を送信するとともに前記検体によって反射された超音波を受信する超音波観測装置の作動方法であって、受信した超音波の周波数を解析することによって周波数スペクトルを周波数解析部により算出する周波数解析ステップと、前記周波数解析ステップで算出した周波数スペクトルを近似することによって前記周波数スペクトルに対する一または複数の特徴量を抽出する特徴量抽出ステップと、前記特徴量抽出ステップで抽出した特徴量に関する情報を含む特徴量画像データを画像処理部により生成する画像処理ステップと、前記画像処理ステップで順次生成した特徴量画像データに対応する画像を表示部により順次表示する表示ステップと、を有し、前記周波数解析ステップから前記表示ステップを繰り返し行い、前記一または複数の特徴量の少なくとも一部が座標成分をなす座標系を設定可能な特徴量空間において、所定のデータ位置における周波数スペクトルの特徴点が、前記表示部における第iフレーム(iは自然数)で所定の第1領域内に存在し、次の第(i+1)フレームで前記第1領域よりも画像表示の優先度が低い第2領域へ近づいた場合、前記画像処理ステップは、最新の特徴点の位置よりも前記第2領域から遠い位置であって前記第1領域の内部または周辺の位置に仮想的な特徴点を設置し、該仮想的な特徴点に対応する視覚情報により、前記所定のデータ位置の第(i+1)フレームにおける前記最新の特徴点に対応する視覚情報を置き換えることで前記特徴量画像データを生成することを特徴とする。
 また、本発明に係る超音波観測装置の作動プログラムは、検体に対して超音波を送信するとともに前記検体によって反射された超音波を受信する超音波観測装置に、受信した超音波の周波数を解析することによって周波数スペクトルを周波数解析部により算出する周波数解析ステップと、前記周波数解析ステップで算出した周波数スペクトルを近似することによって前記周波数スペクトルに対する一または複数の特徴量を抽出する特徴量抽出ステップと、前記特徴量抽出ステップで抽出した特徴量に関する情報を含む特徴量画像データを画像処理部により生成する画像処理ステップと、前記画像処理ステップで順次生成した特徴量画像データに対応する画像を表示部により順次表示する表示ステップと、を繰り返し実行させ、前記一または複数の特徴量の少なくとも一部が座標成分をなす座標系を設定可能な特徴量空間において、所定のデータ位置における周波数スペクトルの特徴点が、前記表示部における第iフレーム(iは自然数)で所定の第1領域内に存在し、次の第(i+1)フレームで前記第1領域よりも画像表示の優先度が低い第2領域へ近づいた場合、前記画像処理ステップは、最新の特徴点の位置よりも前記第2領域から遠い位置であって前記第1領域の内部または周辺の位置に仮想的な特徴点を設置し、該仮想的な特徴点に対応する視覚情報により、前記所定のデータ位置の第(i+1)フレームにおける前記最新の特徴点に対応する視覚情報を置き換えることで前記特徴量画像データを生成することを特徴とする。
 本発明によれば、特徴量空間において、所定のデータ位置における周波数スペクトルの特徴点が、第iフレーム(iは自然数)で所定の第1領域内に存在し、次の第(i+1)フレームで第1領域よりも画像表示の優先度が低い第2領域へ近づいた場合、最新の特徴点の位置よりも前記第2領域から遠い位置であって前記第1領域の内部または周辺の位置に仮想的な特徴点を設置し、該仮想的な特徴点に対応する視覚情報により、所定のデータ位置の第(i+1)フレームにおける最新の特徴点に対応する視覚情報を置き換えることで特徴量に関する情報を含む特徴量画像データを生成し、この生成した特徴量画像データに対応する画像を順次表示するため、画像表示の優先度が高い領域の近くの特徴点に対応した画素値を有する画像をなるべく長く表示することができる。したがって、観測対象との相対的な位置関係が時間とともに変化したとしても、所望の組織を長時間にわたって観測することができる。
図1は、本発明の実施の形態1に係る超音波観測装置の構成を示すブロック図である。 図2は、本発明の実施の形態1に係る超音波観測装置が記憶する特徴量空間の構成を模式的に示す図である。 図3は、本発明の実施の形態1に係る超音波観測装置の処理の概要を示すフローチャートである。 図4は、本発明の実施の形態1に係る超音波観測装置の表示部におけるBモード画像の表示例を示す図である。 図5は、本発明の実施の形態1に係る超音波観測装置の周波数解析部が行う処理の概要を示すフローチャートである。 図6は、一つの音線のデータ配列を模式的に示す図である。 図7は、本発明の実施の形態1に係る超音波観測装置の周波数解析部が算出した周波数スペクトルの例(第1例)を示す図である。 図8は、本発明の実施の形態1に係る超音波観測装置の周波数解析部が算出した周波数スペクトルの例(第2例)を示す図である。 図9は、図7に示す直線に関連する特徴量に対して減衰補正を行った後の特徴量から定まる新たな直線を示す図である。 図10は、本発明の実施の形態1に係る超音波観測装置の特徴量画像データ生成部が行う特徴量画像データ生成処理の概要を示す図である。 図11は、本発明の実施の形態1に係る超音波観測装置の特徴量画像データ生成部が行う残像条件判定処理の概要を示すフローチャートである。 図12は、本発明の実施の形態1に係る超音波観測装置が行う残像条件判定処理において、残像条件を満足していると判定する場合を模式的に示す図である。 図13は、本発明の実施の形態1に係る超音波観測装置が行う残像条件判定処理において、残像条件を満足していないと判定する場合の例(第1例)を示す図である。 図14は、本発明の実施の形態1に係る超音波観測装置が行う残像条件判定処理において、残像条件を満足していないと判定する場合の例(第2例)を示す図である。 図15は、本実施の形態1に係る超音波観測装置が行う残像用特徴点の算出方法の概要を示す図である。 図16は、本発明の実施の形態1に係る超音波観測装置の表示部が表示する特徴量画像の表示例を示す図である。 図17は、図16に示す画像を白黒で模式的に示す図である。 図18は、本発明の実施の形態1に係る超音波観測装置が観測する状況を模式的に示す図である。 図19は、従来の超音波観測装置において、超音波探触子と検体の相対的な位置関係が時間とともに変化する状況下で、表示部が表示する特徴量画像の表示例(第1例)を模式的に示す図である。 図20は、従来の超音波観測装置において、超音波探触子と検体の相対的な位置関係が時間とともに変化する状況下で、表示部が表示する特徴量画像の表示例(第2例)を模式的に示す図である。 図21は、本発明の実施の形態1に係る超音波観測装置において、図19と同じ状況下で、表示部が表示する特徴量画像の表示例を模式的に示す図である。 図22は、本発明の実施の形態1に係る超音波観測装置において、図20と同じ状況下で、表示部が表示する特徴量画像の表示例を模式的に示す図である。 図23は、本発明の実施の形態1に係る超音波観測装置が行う減衰補正処置の効果を説明する図である。 図24は、本発明の実施の形態2に係る超音波観測装置の特徴量画像データ生成部が行う特徴量画像データ生成処理の概要を示すフローチャートである。 図25は、本発明の実施の形態2に係る超音波観測装置が行う残像条件判定処理の概要を示すフローチャートである。 図26は、本発明の実施の形態2に係る超音波観測装置が行う残像条件判定処理において、残像条件を満足していると判定する場合の特徴量空間の構成を示す図である。 図27は、本発明の実施の形態2に係る超音波観測装置が行う残像条件判定処理において、残像条件を満足していないと判定する場合の特徴量空間の構成を示す図である。 図28は、本発明の実施の形態2に係る超音波観測装置が行う残像用特徴点算出処理(第1例)の概要を示す図である。 図29は、本発明の実施の形態2に係る超音波観測装置が行う残像用特徴点算出処理(第2例)の概要を示す図である。 図30は、本発明の実施の形態3に係る超音波観測装置の処理の概要を示すフローチャートである。 図31は、本発明の実施の形態3に係る超音波観測装置が行う減衰補正処理の概要を示す図である。
 以下、添付図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)を説明する。
(実施の形態1)
 図1は、本発明の実施の形態1に係る超音波観測装置の構成を示すブロック図である。同図に示す超音波観測装置1は、超音波を用いて観測対象である検体の組織性状を観測する装置である。
 超音波観測装置1は、外部へ超音波パルスを出力するとともに、外部で反射された超音波エコーを受信する超音波探触子2と、超音波探触子2との間で電気信号の送受信を行う送受信部3と、超音波エコーを変換した電気的なエコー信号に対して所定の演算を施す演算部4と、超音波エコーを変換した電気的なエコー信号を用いて各種画像データの生成を行う画像処理部5と、キーボード、マウス、タッチパネル等のインタフェースを用いて実現され、各種情報の入力を受け付ける入力部6と、液晶または有機EL等からなる表示パネルを用いて実現され、画像処理部5が生成した画像を含む各種情報を表示する表示部7と、既知検体の組織性状に関する情報を含む各種情報を記憶する記憶部8と、超音波観測装置1の動作制御を行う制御部9と、を備える。
 超音波探触子2は、送受信部3から受信した電気的なパルス信号を超音波パルス(音響パルス信号)に変換するとともに、外部の検体で反射された超音波エコーを電気的なエコー信号に変換する信号変換部21を有する。超音波探触子2は、超音波振動子をメカ的に走査させるものであってもよいし、複数の超音波振動子を電子的に走査させるものであってもよい。
 送受信部3は、超音波探触子2と電気的に接続され、パルス信号を超音波探触子2へ送信するとともに、超音波探触子2から受信信号であるエコー信号を受信する。具体的には、送受信部3は、予め設定された波形および送信タイミングに基づいてパルス信号を生成し、この生成したパルス信号を超音波探触子2へ送信する。
 送受信部3は、超音波探触子2と電気的に接続され、パルス信号を超音波探触子2へ送信するとともに、超音波探触子2からエコー信号を受信する。具体的には、送受信部3は、予め設定された波形および送信タイミングに基づいてパルス信号を生成し、この生成したパルス信号を超音波探触子2へ送信する。また、送受信部3は、受信したエコー信号に増幅、フィルタリング等の処理を施した後、A/D変換することによってデジタルRF信号を生成して出力する。なお、超音波探触子2が複数の超音波振動子を電子的に走査させるものである場合、送受信部3は、複数の超音波振動子に対応したビーム合成用の多チャンネル回路を有する。
 演算部4は、送受信部3が出力したデジタルRF信号に高速フーリエ変換(FFT)を施すことによってエコー信号の周波数解析を行う周波数解析部41と、周波数解析部41が算出した周波数スペクトルに対し、超音波が伝播する際に該超音波の受信深度および周波数に応じて発生する減衰の寄与を削減する減衰補正処理と近似処理とを行うことにより、検体の特徴量を抽出する特徴量抽出部42と、を有する。
 周波数解析部41は、各音線(ラインデータ)に対し、所定のデータ量からなるFFTデータ群を高速フーリエ変換することによって周波数スペクトルを算出する。周波数スペクトルは、検体の組織性状によって異なる傾向を示す。これは、周波数スペクトルが、超音波を散乱する散乱体としての検体の大きさ、密度、音響インピーダンス等と相関を有しているためである。ここでいう「組織性状」とは、例えば癌、内分泌腫瘍、粘液性腫瘍、正常組織、脈管などのいずれかであり、検体が膵臓である場合には、組織性状として慢性膵炎、自己免疫性膵炎なども含まれる。
 特徴量抽出部42は、周波数解析部41が算出した周波数スペクトルに対し、近似処理を行うことによって減衰補正処理を行う前の補正前特徴量を算出する近似部421と、近似部421が近似した補正前特徴量に対して減衰補正処理を行うことによって特徴量を抽出する減衰補正部422と、を有する。
 近似部421は、回帰分析によって周波数スペクトルを一次式で近似することにより、この近似した一次式を特徴付ける補正前特徴量を抽出する。具体的には、近似部421は、回帰分析によって一次式の傾きaおよび切片bを算出するとともに、周波数スペクトルにおける周波数帯域内の特定周波数における強度を補正前特徴量として算出する。本実施の形態1において、近似部421は、中心周波数fMID=(fLOW+fHIGH)/2における強度(Mid−band fit)c=aMID+bを算出するものとするが、これはあくまでも一例に過ぎない。ここでいう「強度」とは、電圧、電力、音圧、音響エネルギー等のパラメータのいずれかを指す。
 三つの特徴量のうち、傾きaは、超音波の散乱体の大きさと相関を有し、一般に散乱体が大きいほど傾きが小さな値を有すると考えられる。また、切片bは、散乱体の大きさ、音響インピーダンスの差、散乱体の密度(濃度)等と相関を有している。具体的には、切片bは、散乱体が大きいほど大きな値を有し、音響インピーダンスが大きいほど大きな値を有し、散乱体の密度(濃度)が大きいほど大きな値を有すると考えられる。中心周波数fMIDにおける強度(以下、単に「強度」という)cは、傾きaと切片bから導出される間接的なパラメータであり、有効な周波数帯域内の中心におけるスペクトル強度を与える。このため、強度cは、散乱体の大きさ、音響インピーダンスの差、散乱体の密度に加えて、Bモード画像の輝度とある程度の相関を有していると考えられる。なお、特徴量抽出部42が算出する近似多項式は一次式に限定されるわけではなく、二次以上の近似多項式を用いることも可能である。
 減衰補正部422が行う補正について説明する。超音波の減衰量Aは、
 A=2αzf  ・・・(1)
と表すことができる。ここで、αは減衰率であり、zは超音波の受信深度であり、fは周波数である。式(1)からも明らかなように、減衰量Aは、周波数fに比例している。減衰率αの具体的な値は、生体の場合、0~1.0(dB/cm/MHz)、より好ましくは0.3~0.7(dB/cm/MHz)であり、観察対象の臓器の種類に応じて定まる。例えば、観察対象の臓器が膵臓である場合、α=0.6(dB/cm/MHz)と定められる。なお、本実施の形態1において、減衰率αの値を入力部6からの入力によって変更することが可能な構成とすることも可能である。
 減衰補正部422は、近似部421が抽出した補正前特徴量(傾きa,切片b,強度c)を、次のように補正する。
 a=a+2αz  ・・・(2)
 b=b  ・・・(3)
 c=c+2αzfMID(=afMID+b)  ・・・(4)
式(2)、(4)からも明らかなように、減衰補正部422は、超音波の受信深度zが大きいほど、補正量が大きい補正を行う。また、式(3)によれば、切片に関する補正は恒等変換である。これは、切片が周波数0(Hz)に対応する周波数成分であって減衰を受けないためである。
 画像処理部5は、エコー信号からBモード画像データを生成するBモード画像データ生成部51と、特徴量に関する情報を含む特徴量画像データを生成する特徴量画像データ生成部52と、を有する。
 Bモード画像データ生成部51は、デジタル信号に対してバンドパスフィルタ、対数変換、ゲイン処理、コントラスト処理等の公知の技術を用いた信号処理を行うとともに、表示部7における画像の表示レンジに応じて定まるデータステップ幅に応じたデータの間引き等を行うことによってBモード画像データを生成する。
 特徴量画像データ生成部52は、Bモード画像データ生成部51が生成したBモード画像データ、および特徴量抽出部42が抽出した検体の特徴量を用いることにより、特徴量画像データを時間的に連続して生成する。具体的には、特徴量画像データ生成部52は、特徴量抽出部42が抽出した特徴量の少なくとも一部が座標成分をなす座標系を設定可能な特徴量空間において、同じデータ位置における周波数スペクトルの特徴点が、時間の経過とともに、所定の第1領域内から、第1領域よりも画像表示の優先度が低い第2領域へ近づいた場合、最新の特徴点の位置よりも第2領域から遠い位置であって第1領域の内部または周辺の位置に仮想的な特徴点を設置し、該仮想的な特徴点に対応する視覚情報を前記同じデータ位置へ付与することにより、特徴量に関する情報を含む特徴量画像データを連続的に生成する。ここで、第1領域は、例えば癌のように観測で発見すべき重要度が高い組織性状に対応した領域として設定されることが好ましい。
 本実施の形態1においては、第1領域に対しては上記の如く残像を表示するための仮想的な特徴点を設置するが、第2領域に対しては、同じデータ位置における周波数スペクトルの特徴点が、時間の経過とともに第2領域から逸脱したとしても、仮想的な特徴点を設置することはない。換言すれば、特徴量画像データ生成部52が残像処理を行うのは、特徴量空間上の第1領域に存在する特徴点に対してのみである。
 記憶部8は、既知検体の特徴量を含む既知検体情報を記憶する既知検体情報記憶部81と、周波数解析部41が行う周波数解析処理の際に使用する窓関数を記憶する窓関数記憶部82と、減衰補正部422が減衰補正処理を行う際に参照する補正情報を記憶する補正情報記憶部83と、既知検体情報記憶部81が記憶する既知検体の特徴量をもとに設定される特徴量空間に関する情報を記憶する特徴量空間情報記憶部84と、特徴量空間情報記憶部84が記憶する特徴量空間内の点の座標値として算出される特徴量に関する情報を記憶する特徴量情報記憶部85と、を有する。
 既知検体情報記憶部81は、既知検体に対する周波数解析によって抽出された周波数スペクトルの特徴量を記憶している。また、既知検体情報記憶部81は、既知検体に関連した周波数スペクトルの特徴量に対し、既知検体における組織性状の種別に応じて分類されたグループごとに算出された平均および標準偏差を記憶している。本実施の形態1では、超音波受信信号の周波数スペクトルの特徴量の平均および標準偏差が、検体における核の腫大や異形などの細胞レベルの変化、間質における線維の増生や実質組織の線維への置換などの組織的な変化を反映しており、組織性状に応じて特有の値を示すことに鑑みて、既知検体の周波数スペクトルの特徴量の平均および標準偏差を用いて組織性状の分類を行っている。
 窓関数記憶部82は、Hamming,Hanning,Blackmanなどの窓関数のうち少なくともいずれか一つの窓関数を記憶している。補正情報記憶部83は、式(2)~(4)の変換に関する情報を記憶している。
 特徴量空間情報記憶部84は、既知検体情報記憶部81が記憶する既知検体情報に基づいて設定される特徴量空間に関する情報として、複数の既知検体を特徴量に基づいて分類することによって得られる複数のグループおよび各グループの代表点を記憶している。この代表点は、例えばグループ内の特徴量の平均としてもよいし、グループ内の特徴量の重心としてもよい。
 図2は、特徴量空間情報記憶部84が記憶する特徴量空間の構成を模式的に示す図である。図2に示す特徴量空間は、横軸が切片b、縦軸が強度cである(式(3)、(4)を参照)。また、図2に示す領域Gμ,Gνは、既知検体情報記憶部81が記憶する既知検体の組織性状が、それぞれμ,νであるグループを示している。領域Gμ内の点μおよび領域Gν内の点νは、各領域の要素をなす特徴点の代表点である。本実施の形態1においては、領域Gμが第1領域(以下、残像領域という)であり、領域Gνが第2領域であるとする。
 特徴量情報記憶部85は、視覚情報としての画素値を算出する際に使用する特徴点を記憶する。このような特徴点としては、特徴量抽出部42が抽出した特徴点のほか、特徴点の位置に応じて定められる仮想的な特徴点である残像用特徴点がある。また、特徴量情報記憶部85は、画素値を算出する際に使用する特徴点が残量領域内の点であるか否かに応じて異なる値をとる残像領域フラグを所定の記憶領域で記憶する。例えば、特徴量情報記憶部85は、残像領域内の特徴点または残像用特徴点を用いて画素値を算出した場合の残像領域フラグを1として記憶する一方、残像領域外の特徴点または残像用特徴点を用いて画素値を算出した場合の残像領域フラグを0として記憶する。
 図2では、代表点μおよびνを通過し、μ→νの向きを正の向きとするh軸(基準軸)も記載されている。このh軸は、特徴量画像データ生成部52がフレーム中の画素の画素値を決定する際に、最新の特徴点を用いるが、あるいはすでに記憶されている残像用特徴点の画素値を用いるかを判定する際に用いられる。
 図2に示す場合、二つの領域Gμ,Gνは、特徴量空間上において、互いに交わりを有しない領域に存在している。このように、本実施の形態1では、周波数解析によって得られた周波数スペクトルの特徴量を指標としてグループ分けを行うため、互いに異なるグループを峻別することができる。特に、本実施の形態1では、超音波のエコー信号に対して減衰補正を行っているため、減衰補正を行わない場合と比較して、特徴量空間における各グループの領域もより明確に分離した状態で得ることができる。なお、特徴量空間におけるb軸成分とc軸成分のスケールが大きく異なる場合には、各距離の寄与を略均等にするための重み付けを適宜行うことが望ましい。
 また、特徴量空間情報記憶部84は、画素ごとに定められる視覚情報である画素値の情報として、特徴量空間上の点と画素値との関係を記憶している。例えば、特徴量空間情報記憶部84は、切片bと強度cに対して割り当てられた色空間を構成する変数の値を記憶している。ここでいう色空間とは、例えばRGB表色系や補色系の変数、光の3属性(色相、明度、彩度)を表す表色系等である。
 記憶部8は、本実施の形態1に係る超音観測装置の作動プログラムや所定のOSを起動するプログラム等が予め記憶されたROM、および各処理の演算パラメータやデータ等を記憶するRAM等を用いて実現される。
 以上の機能構成を有する超音波観測装置1の超音波探触子2以外の構成要素は、演算および制御機能を有するCPUを備えたコンピュータを用いて実現される。超音波観測装置1が備えるCPUは、記憶部8が記憶、格納する情報および上述した超音波観測装置の作動プログラムを含む各種プログラムを記憶部8から読み出すことにより、本実施の形態1に係る超音波観測装置の作動方法に関連した演算処理を実行する。
 なお、本実施の形態1に係る超音波観測装置の作動プログラムは、ハードディスク、フラッシュメモリ、CD−ROM、DVD−ROM、フレキシブルディスク等のコンピュータ読み取り可能な記録媒体に記録して広く流通させることも可能である。
 図3は、以上の構成を有する超音波観測装置1の処理の概要を示すフローチャートである。図3に示すフローチャートは、一つのフレームに対して行う処理の概要を示している。以下の説明において、フレームを識別するための変数をi(=1,2,・・・)とする。
 図3において、まず超音波観測装置1は、フレーム識別用の変数iを1と設定する(ステップS1)。続いて、超音波観測装置1は、まず超音波探触子2によって新規の検体の測定を行う(ステップS2)。
 この後、Bモード画像データ生成部51は、送受信部3から出力されたBモード画像用エコー信号を用いてBモード画像データを生成する(ステップS3)。
 続いて、制御部9は、Bモード画像データ生成部51が生成したBモード画像データに対応するBモード画像を表示部7に表示させる制御を行う(ステップS4)。図4は、表示部7におけるBモード画像の表示例を示す図である。同図に示すBモード画像100は、色空間としてRGB表色系を採用した場合の変数であるR(赤)、G(緑)、B(青)の値を一致させたグレースケール画像である。
 その後、周波数解析部41は、FFT演算による周波数解析を行うことによって周波数スペクトルを算出する(ステップS5)。ここで、周波数解析部41が行う処理(ステップS5)について、図5に示すフローチャートを参照して詳細に説明する。まず、周波数解析部41は、最初に解析対象とする音線の音線番号Lを初期値Lとする(ステップS21)。初期値Lは、例えば送受信部3が最初に受信する音線に対して付与してもよいし、入力部6によって設定される関心領域の左右の一方の境界位置に対応する音線に対して付与してもよい。
 続いて、周波数解析部41は、一つの音線上に設定した複数のデータ位置全ての周波数スペクトルを算出する。まず、周波数解析部41は、FFT演算用に取得する一連のデータ群(FFTデータ群)を代表するデータ位置Z(受信深度に相当)の初期値Zを設定する(ステップS22)。図6は、一つの音線のデータ配列を模式的に示す図である。同図に示す音線LDにおいて、白または黒の長方形は、一つのデータを意味している。音線LDは、送受信部3が行うA/D変換におけるサンプリング周波数(例えば50MHz)に対応した時間間隔で離散化されている。図6では、音線LDの1番目のデータをデータ位置Zの初期値Zとして設定した場合を示している。なお、図6はあくまでも一例に過ぎず、初期値Zの位置は任意に設定することができる。例えば、関心領域の上端位置に対応するデータ位置Zを初期値Zとして設定してもよい。
 その後、周波数解析部41は、データ位置ZのFFTデータ群を取得し(ステップS23)、取得したFFTデータ群に対し、窓関数記憶部82が記憶する窓関数を作用させる(ステップS24)。このようにFFTデータ群に対して窓関数を作用させることにより、FFTデータ群が境界で不連続になることを回避し、アーチファクトが発生するのを防止することができる。
 続いて、周波数解析部41は、データ位置ZのFFTデータ群が正常なデータ群であるか否かを判定する(ステップS25)。ここで、FFTデータ群は、2のべき乗のデータ数を有している必要がある。以下、FFTデータ群のデータ数を2(nは正の整数)とする。FFTデータ群が正常であるとは、データ位置ZがFFTデータ群で前から2n−1番目の位置であること意味する。換言すると、FFTデータ群が正常であるとは、データ位置Zの前方に2n−1−1(=Nとする)個のデータがあり、データ位置Zの後方に2n−1(=Mとする)個のデータがあることを意味する。図6に示す場合、FFTデータ群F、F、FK−1は正常である一方、FFTデータ群F、Fは異常である。ただし、図6ではn=4(N=7,M=8)としている。
 ステップS25における判定の結果、データ位置ZのFFTデータ群が正常である場合(ステップS25:Yes)、周波数解析部41は、後述するステップS27へ移行する。
 ステップS25における判定の結果、データ位置ZのFFTデータ群が正常でない場合(ステップS25:No)、周波数解析部41は、不足分だけゼロデータを挿入することによって正常なFFTデータ群を生成する(ステップS26)。ステップS25において正常でないと判定されたFFTデータ群は、ゼロデータを追加する前に窓関数が作用されている。このため、FFTデータ群にゼロデータを挿入してもデータの不連続は生じない。ステップS26の後、周波数解析部41は、後述するステップS27へ移行する。
 ステップS27において、周波数解析部41は、FFTデータ群を用いてFFT演算を行うことにより、周波数スペクトルを得る(ステップS27)。図7および図8は、周波数解析部41が算出した周波数スペクトルの例を示す図である。図7および図8では、横軸fが周波数であり、縦軸Iが強度である。図7および図8にそれぞれ示す周波数スペクトル曲線CおよびCにおいて、周波数スペクトルの下限周波数fLOWおよび上限周波数fHIGHは、超音波探触子2の周波数帯域、送受信部3が送信するパルス信号の周波数帯域などをもとに決定されるパラメータであり、例えばfLOW=3MHz、fHIGH=10MHzである。なお、図7および図8にそれぞれ示す直線LおよびLについては、後述する特徴量抽出処理で説明する。本実施の形態1において、曲線および直線は、離散的な点の集合からなる。この点については、後述する実施の形態においても同様である。
 続いて、周波数解析部41は、データ位置Zに所定のデータステップ幅Dを加算して次の解析対象のFFTデータ群のデータ位置Zを算出する(ステップS28)。ここでのデータステップ幅Dは、Bモード画像データ生成部51がBモード画像データを生成する際に利用するデータステップ幅と一致させることが望ましいが、周波数解析部41における演算量を削減したい場合には、Bモード画像データ生成部51が利用するデータステップ幅より大きい値を設定してもよい。図6では、D=15の場合を示している。
 その後、周波数解析部41は、データ位置Zが最終データ位置Zmaxより大きいか否かを判定する(ステップS29)。ここで、最終データ位置Zmaxは、音線LDのデータ長としてもよいし、関心領域の下端に対応するデータ位置としてもよい。判定の結果、データ位置Zが最終データ位置Zmaxより大きい場合(ステップS29:Yes)、周波数解析部41は、音線番号Lを1だけ増加する(ステップS30)。一方、データ位置Zが最終データ位置Zmax以下である場合(ステップS29:No)、周波数解析部41はステップS23へ戻る。このようにして、周波数解析部41は、一つの音線LDに対して、[{(Zmax−Z)/D}+1](=K)個のFFTデータ群に対するFFT演算を行う。ここで、[X]は、Xを超えない最大の整数を表す。
 ステップS30で増加した後の音線番号Lが最終音線番号Lmaxより大きい場合(ステップS31:Yes)、周波数解析部41は図2に示すメインルーチンへ戻る。一方、ステップS30で増加した後の音線番号Lが最終音線番号Lmax以下である場合(ステップS31:No)、周波数解析部41はステップS22へ戻る。
 このようにして、周波数解析部41は、(Lmax−L+1)本の音線の各々についてK回のFFT演算を行う。なお、最終音線番号Lmaxは、例えば送受信部3が受信する最終の音線に付与してもよいし、関心領域の左右のいずれか一方の境界に対応する音線に付与してもよい。以下、周波数解析部41が全ての音線に対して行うFFT演算の総数(Lmax−L+1)×KをPとおく。
 以上説明したステップS5の周波数解析処理に続いて、近似部421は、近似処理として周波数解析部41が算出したP個の周波数スペクトルを回帰分析することにより、補正前特徴量を抽出する(ステップS6)。具体的には、近似部421は、周波数帯域fLOW<f<fHIGHの周波数スペクトルを近似する一次式を回帰分析によって算出することにより、この一次式を特徴づける傾きa,切片b,強度cを補正前特徴量として抽出する。図7に示す直線Lおよび図8に示す直線Lは、このステップS6において、周波数スペクトル曲線CおよびCに対して特徴量抽出処理をそれぞれ行うことによって得られる回帰直線である。
 この後、減衰補正部422は、近似部421が抽出した補正前特徴量に対して減衰補正処理を行う(ステップS7)。例えば、データのサンプリング周波数が50MHzである場合、データのサンプリングの時間間隔は20(nsec)である。ここで、音速を1530(m/sec)とすると、データのサンプリング距離間隔は、1530(m/sec)×20(nsec)/2=0.0153(mm)となる。処理対象のFFTデータ群のデータ位置までの音線LDの1番目のデータからのデータステップ数がkであるとすると、そのデータ位置Zは0.0153k(mm)となる。減衰補正部422は、このようにして求まるデータ位置Zの値を上述した式(2)~(4)の受信深度zへ代入することにより、周波数スペクトルの特徴量である傾きa,切片b,強度cを算出する。図9は、図7に示す直線Lに関連する特徴量に対して減衰補正を行った後の特徴量から定まる直線を示す図である。図9に示す直線L’を表す式は、
 I=af+b=(a+2αZ)f+b  ・・・(5)
である。この式(5)からも明らかなように、直線L’は、直線Lと比較して、傾きが大きく、かつ切片の値が同じである。
 この後、特徴量画像データ生成部52は、特徴量画像データを生成する(ステップS8)。図10は、特徴量画像データ生成部52が行う特徴量画像データ生成処理の概要を示すフローチャートである。以下の説明において、フレームに含まれる画素を識別するための変数をj(=1,2,・・・,jmax)とする。また、第i番目のフレーム(第iフレーム)の画素jに対応する特徴量である切片b(j)および強度c(j)の組(b(j),c(j))を特徴点と呼んでS(j)と記載する。
 図10において、まず特徴量画像データ生成部52は、画素識別用の変数jを1と設定する(ステップS41)。
 その後、特徴量画像データ生成部52は、特徴量抽出部42が抽出した特徴点(第1特徴点)S(j)を取得し(ステップS42)、取得した特徴点S(j)の残像領域フラグを特徴量空間情報記憶部84から読み出して、残像領域フラグの値を判定する(ステップS43)。残像領域フラグが0である場合(ステップS43:「0」)、特徴量画像データ生成部52は、特徴点S(j)を用いて画素jの画素値を算出する(ステップS44)。
 これに対し、取得した特徴点S(j)の残像領域フラグが1である場合(ステップS43:「1」)、特徴量画像データ生成部52は、残像条件を満足しているか否かの判定を行う(ステップS45)。
 図11は、残像条件判定処理の概要を示すフローチャートである。図11において、特徴量画像データ生成部52は、特徴点S(j)および残像用特徴点(第2特徴点)Ti−1(j)を特徴量空間内のh軸へ射影した射影点S’(j)およびT’i−1(j)の座標をそれぞれ算出する(ステップS61)。
 続いて、特徴量画像データ生成部52は、代表点μを始点とし、射影点S’(j)およびT’i−1(j)をそれぞれ終点とする二つのベクトルμS’,μT’の向きが同じであるか否かを判定する(ステップS62)。判定の結果、二つのベクトルμS’,μT’の向きが同じである場合(ステップS62:Yes)、特徴量画像データ生成部52は、射影点S’(j)と代表点μとの距離d、および射影点T’i−1(j)と代表点μとの距離dを算出する(ステップS63)。
 その後、特徴量画像データ生成部52は、二つの距離dとdを比較する(ステップS64)。比較の結果、d≧dであれば(ステップS64:Yes)、特徴量画像データ生成部52は、残像条件を満足すると判定し(ステップS65)、ステップS46へ移行する。図12は、二つのベクトルμS’,μT’が同じ向きを有し、かつd≧dである特徴量空間の状況を示す図である。この場合、射影点S’(j)は射影点T’i−1(j)よりも領域Gνの代表点νに近い。したがって、残像用特徴点Ti−1(j)に基づいて画素値を定めた方が、特徴量が領域Gμにある場合の表示態様に近い画像を表示することができる。換言すれば、特徴点S(j)に対応する画素値を仮想的な特徴点である残像用特徴点Ti−1(j)に対応する画素値に置き換えて表示した方が、特徴量が領域Gμにある場合に近い表示態様で画像を表示することができる。
 ステップS64における比較の結果、d<dであれば(ステップS64:No)、特徴量画像データ生成部52は、残像条件を満足しないと判定し(ステップS66)、ステップS46へ移行する。図13は、二つのベクトルμS’,μT’が同じ向きを有し、かつd<dである場合の特徴量空間の状況を示す図である。この場合、射影点S’(j)は射影点T’i−1(j)よりも領域Gνの代表点νから遠い。したがって、領域Gμ内の特徴点S(j)に基づいて画素値を定めた方が、領域Gμ内におけるより正確な位置をもとに付与された画素値を有する画像を表示することができる。
 ステップS62において、二つのベクトルμS’,μT’の向きが同じでない場合(ステップS62:No)、特徴量画像データ生成部52は、ステップS66へ移行する。図14は、二つのベクトルμS’,μT’が異なる向きを有している場合の特徴量空間の状況を示す図である。この場合、射影点S’(j)は射影点T’i−1(j)よりも領域Gνの代表点νから遠い。したがって、特徴点S(j)に基づいて画素値を定めた方が、領域Gμ内におけるより正確な位置をもとに付与された画素値を有する画像を表示することができる。
 再び図10を参照して説明する。ステップS45の残像条件判定処理の結果、残像条件を満足している場合(ステップS46:Yes)、特徴量画像データ生成部52は、残像用特徴点Ti−1(j)を用いて画素値を算出する(ステップS47)。一方、残像条件を満足していない場合(ステップS46:No)、特徴量画像データ生成部52は、ステップS44へ移行する。
 ステップS44またはステップS47の後、特徴量画像データ生成部52は、画素値の算出に使用した特徴点S(j)または残像用特徴点Ti−1(j)が残像領域内に存在するか否かを判定する(ステップS48)。特徴点S(j)または残像用特徴点Ti−1(j)が残像領域内に存在しない場合(ステップS48:No)、特徴量画像データ生成部52は、残像領域フラグを0とする処理を行う(ステップS49)。
 その後、画素値の変数jが最大値jmaxであれば(ステップS50:Yes)、特徴量画像データ生成部52は特徴量画像データ生成処理を終了する。一方、画素値の変数jが最大値jmaxより小さければ(ステップS50:No)、特徴量画像データ生成部52は、変数jを1だけ増加し(ステップS51)、ステップS42へ戻る。なお、ここでの変数jの増加は、処理対象の画素の変更を意味しているに過ぎない。したがって、個々の画素に対して付与された特徴点や残像用特徴点の変数が変化するわけではない。
 ステップS48において、特徴点S(j)または残像用特徴点Ti−1(j)が残像領域内に存在する場合(ステップS48:Yes)を説明する。この場合、特徴量画像データ生成部52は、残像領域フラグを1とする処理を行い(ステップS52)、特徴点S(j)を用いて残像用特徴点T(j)を算出し、特徴量空間情報記憶部84へ記録し(ステップS53)、ステップS50へ移行する。図15は、残像用特徴点T(j)の算出方法の概要を示す図である。図15に示すように、残像用特徴点T(j)は、特徴点S(j)の各成分を所定量だけシフトすることによって得られる。すなわち残像用特徴点T(j)の座標は(b(j)+β,c(j)+γ)で与えられる。ここで、β,γはともに正の定数であり、残像用特徴点T(j)が特徴点S(j)よりも領域Gνの代表点νに近づくような値として設定される。なお、図15では、シフトする方向がh軸と平行である場合を図示しているが、これはあくまでも一例に過ぎない。
 続いて、表示部7は、特徴量画像データ生成部52が生成した特徴量画像を表示する(ステップS9)。図16は、表示部7が表示する特徴量画像の表示例を示す図である。図17は、図16に示す画像を白黒で模式的に示す図である。これらの図に示す特徴量画像200は、Bモード画像100と比較して、画像がカラー化しており、グループに応じた色の違いが鮮明になっている。特徴量画像200は、大別して緑色系領域200gおよび赤色系領域200rからなり、2つの領域の境界部は黄色系の色で表示されている(図17では図示せず)。図16に示すように、各領域は単一の色によって構成されているわけではない。例えば、緑色系領域200gは、緑色に近い色からなる画素が集まっている領域である。同様に、赤色系領域200rは、赤色に近い色からなる画素が集まっている領域である。このような特徴量画像200を見た観測者は、グループの違いすなわち組織性状の違いを明確に認識することができる。なお、制御部9は、表示部7に特徴量画像とBモード画像とを並べて表示させるようにしてもよい。これにより、両画像の違いを一つの画面上で認識することができる。
 この後、入力部6によって処理を終了する指示信号が入力された場合(ステップS10:Yes)、超音波観測装置1は一連の処理を終了する。これに対し、入力部6によって処理を終了する指示信号が入力されない場合(ステップS10:No)、超音波観測装置1はフレーム識別用の変数iを1だけ増加して(ステップS11)、ステップS2へ戻る。
 ここで、本実施の形態1の効果を説明する。一般に、超音波観測装置1は、検体内で一定の厚さを有するスライス平面を観測対象としている。図18は、超音波観測装置1が観測する状況を模式的に示す図である。図18に示すように、超音波観測装置1の先端部には、超音波探触子2が設けられている。超音波探触子2は、複数の振動子からなる振動子群22を有している。振動子群22を構成する複数の振動子は、それぞれ所定のタイミングで超音波を順次送信する。送信された超音波は、検体内で一定の厚さを有するスライス平面PLに到達する。なお、図18においては、スライス平面PLを直方体状に記載しているが、これは便宜的なものであり、実際のスライス平面PLの形状が、検体の観測部分によって変化する。
 図18に示す状況下において、従来の超音波観測装置では、超音波探触子2および検体の少なくともいずれか一方が動くことにより、両者の相対的な位置関係が変化する場合がある。この場合には、観測対象であるスライス平面PLが変化する。スライス平面PLが変化すると、最初のフレームで観測した検体内の組織Orが、その後のフレームで観測されない事態が生じることがあった。このような事態が生じるのは、最初のフレームで観測した組織Orが微小であったり、超音波探触子から遠くに位置していたりすることが原因であると考えられている。
 図19は、従来の超音波観測装置において、超音波探触子と検体の相対的な位置関係が時間とともに変化する状況下で、表示部が表示する特徴量画像の表示例(第1例)を模式的に示す図である。図19に示す場合、最初の特徴量画像301で表示される組織Or1は、その後に続けて表示される特徴量画像302、303、304において全て消滅している。
 図20は、従来の超音波観測装置において、超音波探触子と検体の相対的な位置関係が時間とともに変化する状況下で、表示部が表示する特徴量画像の表示例(第2例)を模式的に示す図である。図20に示す場合、最初の特徴量画像401で表示される組織Or2は、その後に表示される特徴量画像402で消滅している。また、特徴量画像402の後に表示される特徴量画像403では、組織Or2とは形状が異なる組織Or3が表示される。この組織Or3は、その後の特徴量画像404で消滅している。
 図19および図20に示すように、従来の超音波観測装置では、超音波探触子と検体の相対的な位置関係が時間とともに変化することによって、所望の組織を長時間にわたって観測することができないという問題があった。
 図21および図22は、本実施の形態1に係る超音波観測装置1が行う処理の効果を説明する図である。このうち、図21は、図19と同じ状況下における表示部7の表示例を模式的に示す図である。図21に示す場合、組織Or1は、図19と同様に、最初に表示されている特徴量画像501を撮像する時点でのみ観測される。しかしながら、上述した処理を行うことにより、後に続く特徴量画像502、503、504でも、組織Or1と同じ位置に同じ形状の残像Or11、Or12、Or13がそれぞれ表示される。ただし、これらの残像Or11、Or12、Or13の表示色は、組織Or1の表示色と似ているものの若干異なっている。これは、特徴量空間において、各残像を構成する領域内の画素に対応する特徴点が、組織Or1内の画素に対応する特徴点と異なっているからである。
 図22は、図20と同じ状況下における表示部7の表示例を模式的に示す図である。図22に示す場合、組織Or2は、最初に表示されている特徴量画像601を撮像する時点でのみ観測されて表示される。図22では、図20の特徴量画像402に対応する特徴量画像602において、組織Or2の残像Or21が表示される。また、特徴量画像602の後に続く特徴量画像603では、図20の特徴量画像403と同様に組織Or3が表示される。特徴量画像603に続く特徴量画像604では、組織Or3の残像Or31が表示される。なお、図22に示す場合、組織Or2の表示色と残像Or21の表示色が異なっており、組織Or3の表示色と残像Or31の表示色が異なっている。
 このように、本実施の形態1においては、特徴量画像を表示する際、従来は組織が表示されなかったフレームにおいても、その直前に表示された組織または残像に基づいて残像を描画するため、仮にあるフレームで表示の優先度が高い組織を観測できなくても、その直前のフレームの画像を用いて残像表示することにより、所望の組織を長時間にわたって表示することができる。この結果、ユーザは、見たい画像を連続的に観察することができる。
 図23は、本実施の形態1における減衰補正の効果を説明する図である。図23に示す画像700は、減衰補正を行わなかった場合の特徴量画像である。この場合の特徴量画像は、Bモード画像データ生成部51が生成したBモード画像に対して、特徴量bをR(赤)、G(緑)、B(青)に対して均等に割り当てたグレースケール画像である。特徴量画像700は、受信深度が大きい領域(図の下方領域)で減衰の影響によって信号強度が下がり、画像が暗くなっている。これに対し、同じBモード画像を用いて減衰補正を行った特徴量画像800では、画面全体にわたって均一な明るさの画像が得られていることがわかる。
 以上説明した本発明の実施の形態1によれば、特徴量空間において、所定のデータ位置における周波数スペクトルの特徴点が、第iフレーム(iは自然数)で所定の第1領域内に存在し、次の第(i+1)フレームで第1領域よりも画像表示の優先度が低い第2領域へ近づいた場合、最新の特徴点の位置よりも前記第2領域から遠い位置であって前記第1領域の内部または周辺の位置に仮想的な特徴点を設置し、該仮想的な特徴点に対応する視覚情報により、所定のデータ位置の第(i+1)フレームにおける最新の特徴点に対応する視覚情報を置き換えることで特徴量に関する情報を含む特徴量画像データを生成し、この生成した特徴量画像データに対応する画像を順次表示するため、画像表示の優先度が高い領域の近くの特徴点に対応した画素値を有する画像をなるべく長く表示することができる。したがって、観測対象との相対的な位置関係が時間とともに変化したとしても、所望の組織を長時間にわたって観測することができる。
 また、本実施の形態1によれば、受信した超音波の周波数を解析することによって得た周波数スペクトルの補正前特徴量を減衰補正することによって特徴量を抽出し、この抽出した特徴量を用いるとともに複数の既知検体によって反射された超音波をもとに抽出された周波数スペクトルの特徴量を用いているため、生体組織の歪量や弾性率を用いることなく、組織の違いを明確に峻別することができる。したがって、検体を高精度で観測することによって観測結果の信頼性を向上させることができる。
 また、本実施の形態1によれば、既知検体の特徴量を求める際にも、周波数解析によって得た周波数スペクトルの補正前特徴量を減衰補正することによって得られる特徴量を指標として組織性状の分類、判定を行うため、互いに異なる組織性状を峻別することができる。特に、本実施の形態1では、減衰補正を行った特徴量を用いているため、減衰補正を行わずに抽出した特徴量を用いる場合と比較して、特徴量空間における各グループの領域もより明確に分離した状態で得ることができる。
 超音波エラストグラフィでは、血管やリンパ管などの脈管の下部には押し付ける圧力が伝わりにくいという問題があった。そのため、脈管の近傍に腫瘍が形成されている場合、腫瘍の境界が不明りょうであり、脈管内への腫瘍の浸潤の鑑別も難しく、検体の観測を精度よく行うことができない場合があった。また、超音波エラストグラフィでは、検査者が検査箇所を圧迫する際の圧力や圧迫速度に個人差が生じやすいため、観測結果の信頼性が低いという問題もあった。本実施の形態1によれば、上述したように、検体を高精度で観測することによって観測結果の信頼性を向上させることができるため、超音波エラストグラフィ特有の問題を解決するのに好適な技術を提供することができる。
(実施の形態2)
 本発明の実施の形態2は、特徴画像データ生成部が行う特徴画像データ生成処理が、実施の形態1と異なる。本実施の形態2に係る超音波観測装置の構成は、実施の形態1で説明した超音波観測装置1の構成と同様である。そこで、以下の説明において、超音波観測装置1の構成要素と対応する構成要素には同一の符号を付すものとする。
 本実施の形態2において、特徴量情報記憶部85は、境界用特徴点U(j)をさらに記憶している。この境界用特徴点U(j)は、画素値の算出に用いられた特徴点S(j)または残像用特徴点T(j)であり、次のフレームにおいて、特徴量空間で残像条件の判定を行う際に必要となる境界を設定するために用いられる。
 図24は、本実施の形態2に係る超音波観測装置1の特徴量画像データ生成部52が行う特徴量画像データ生成処理の概要を示すフローチャートである。図24において、特徴量画像データ生成部52は、画素識別用の変数jを1と設定する(ステップS71)。
 その後、特徴量画像データ生成部52は、特徴量抽出部42が抽出した特徴点(第3特徴点)S(j)を取得し(ステップS72)、取得した特徴点S(j)の残像領域フラグを特徴量空間情報記憶部84から読み出して、残像領域フラグの値を判定する(ステップS73)。残像領域フラグが0である場合(ステップS73:「0」)、特徴量画像データ生成部52は、特徴点S(j)を用いて画素jの画素値を算出する(ステップS74)。
 これに対し、取得した特徴点S(j)の残像領域フラグが1である場合(ステップS73:「1」)、特徴量画像データ生成部52は、残像条件を満足しているか否かの判定を行う(ステップS75)。
 図25は、残像条件判定処理の概要を示すフローチャートである。図25において、まず特徴量画像データ生成部52は、特徴量空間内で境界用特徴点Ui−1(j)を通過し、かつ基準軸(h軸)と直交する基準境界を設定する(ステップS91)。
 続いて、特徴量画像データ生成部52は、特徴点S(j)が基準境界に対して第2領域と同じ側にあるか否かを判定する(ステップS92)。特徴点S(j)が基準境界に対して第2領域と同じ側にある場合(ステップS92:Yes)、特徴量画像データ生成部52は、残像条件を満足していると判定し(ステップS93)、ステップS76へ移行する。図26は、超音波観測装置1が行う残像条件判定処理において、残像条件を満足していると判定する場合の特徴量空間の構成を示す図である。図26において、特徴点S(j)は、境界用特徴点Ui−1(j)を通過するとともにh軸と直交する直線からなる基準境界Bに対して、第2領域である領域Gνと同じ側にある。なお、特徴量空間が3次元空間である場合、基準境界は平面である。
 一方、特徴点S(j)が基準境界に対して第2領域と同じ側にない場合(ステップS92:No)、特徴量画像データ生成部52は、残像条件を満足していないと判定し(ステップS94)、ステップS76へ移行する。図27は、超音波観測装置1が行う残像条件判定処理において、残像条件を満足していないと判定する場合の特徴量空間の構成を示す図である。図27において、特徴点S(j)は、基準境界Bに対して領域Gνと異なる側に位置する。
 再び図24を参照して説明する。ステップS75の残像条件判定処理の結果、残像条件を満足している場合(ステップS76:Yes)、特徴量画像データ生成部52は、残像用特徴点(第4特徴点)T(j)を算出する(ステップS77)。
 図28は、ステップS77の残像用特徴点算出処理(第1例)の概要を示す図である。特徴量画像データ生成部52は、まず特徴点S(j)を通過し、基準境界Bと直交する直線(h軸に平行な直線)と基準境界Bとの交点U’i−1(j)を求め、この交点U’i−1(j)と特徴点S(j)との距離dS1を算出する。続いて、特徴量画像データ生成部52は、境界用特徴点U(j)から距離dT1=dS1/n(n>1,nは定数)だけ離れ、境界用特徴点U(j)よりも領域Gνに近く、かつ境界用特徴点Ui−1(j)を通過して基準境界Bと直交する直線上に位置する点を残像用特徴点T(j)とする。なお、距離dT1を一定値として定義することも可能である。
 この後、特徴量画像データ生成部52は、残像用特徴点T(j)を用いて画素jの画素値を算出する(ステップS78)。
 ステップS76において残像条件を満足していない場合(ステップS76:No)、特徴量画像データ生成部52は、ステップS74へ移行する。
 ステップS74またはステップS78の後、特徴量画像データ生成部52は、画素値の算出に使用した特徴点S(j)または残像用特徴点T(j)が残像領域内に存在するか否かを判定する(ステップS79)。特徴点S(j)または残像用特徴点T(j)が残像領域内に存在しない場合(ステップS79:No)、特徴量画像データ生成部52は、残像領域フラグを0とする処理を行う(ステップS80)。
 その後、画素値の変数jが最大値jmaxであれば(ステップS81:Yes)、特徴量画像データ生成部52は特徴量画像データ生成処理を終了する。一方、画素値の変数jが最大値jmaxより小さければ(ステップS81:No)、特徴量画像データ生成部52は、変数jを1だけ増加し(ステップS82)、ステップS72へ戻る。なお、ここでも、変数jの増加は、処理対象の画素の変更を意味しているに過ぎない。したがって、個々の画素に対して付与された特徴点や残像用特徴点の変数が変化するわけではない。
 ステップS79において、特徴点S(j)または残像用特徴点T(j)が残像領域内に存在する場合(ステップS79:Yes)を説明する。この場合、特徴量画像データ生成部52は、残像領域フラグを1とする処理を行い(ステップS83)、画素値の算出に用いた特徴点S(j)または残像用特徴点T(j)を境界用特徴点U(j)として特徴量情報記憶部85へ記録し(ステップS84)、ステップS81へ移行する。
 以上説明した本発明の実施の形態2によれば、特徴量空間において、所定のデータ位置における周波数スペクトルの特徴点が、第iフレーム(iは自然数)で所定の第1領域内に存在し、次の第(i+1)フレームで第1領域よりも画像表示の優先度が低い第2領域へ近づいた場合、最新の特徴点の位置よりも前記第2領域から遠い位置であって前記第1領域の内部または周辺の位置に仮想的な特徴点を設置し、該仮想的な特徴点に対応する視覚情報により、所定のデータ位置の第(i+1)フレームにおける最新の特徴点に対応する視覚情報を置き換えることで特徴量に関する情報を含む特徴量画像データを生成し、この生成した特徴量画像データに対応する画像を順次表示するため、画像表示の優先度が高い領域の近くの特徴点に対応した画素値を有する画像をなるべく長く表示することができる。したがって、観測対象との相対的な位置関係が時間とともに変化したとしても、所望の組織を長時間にわたって観測することができる。
 また、本実施の形態2によれば、受信した超音波の周波数を解析することによって得た周波数スペクトルの補正前特徴量を減衰補正することによって特徴量を抽出し、この抽出した特徴量を用いるとともに複数の既知検体によって反射された超音波をもとに抽出された周波数スペクトルの特徴量を用いているため、生体組織の歪量や弾性率を用いることなく、組織の違いを明確に峻別することができる。したがって、検体を高精度で観測することによって観測結果の信頼性を向上させることができる。この結果、超音波エラストグラフィにも好適な技術を提供することができる。
 図29は、図24のステップS77の残像用特徴点算出処理の別な例(第2例)の概要を示す図である。特徴量画像データ生成部52は、まず境界用特徴点Ui−1(j)および特徴点S(j)との距離dS2を算出する。続いて、特徴量画像データ生成部52は、境界用特徴点U(j)から距離dT2=dS2/n(n>1,nは定数)だけ離れ、境界用特徴点U(j)よりも領域Gνに近く、かつ境界用特徴点U(j)および領域Gνをの代表点νを通過する直線上に位置する点を残像用特徴点T(j)とする。
(実施の形態3)
 本発明の実施の形態3は、特徴量抽出部が行う特徴量抽出処理が、実施の形態1と異なる。本実施の形態3に係る超音波観測装置の構成は、実施の形態1で説明した超音波観測装置1の構成と同様である。そこで、以下の説明において、超音波観測装置1の構成要素と対応する構成要素には同一の符号を付すものとする。
 本実施の形態3における特徴量抽出処理においては、まず減衰補正部422が、周波数解析部41によって算出された周波数スペクトルに対して減衰補正処理を行う。その後、近似部421は、減衰補正部422によって減衰補正された周波数スペクトルに対して近似処理を行うことにより、周波数スペクトルの特徴量を抽出する。
 図30は、本実施の形態3に係る超音波観測装置の処理の概要を示すフローチャートである。図30において、ステップS101~S105の処理は、図3のステップS1~S5の処理に順次対応している。
 ステップS106において、減衰補正部422は、周波数解析部41がFFT演算によって算出した全ての周波数スペクトルに対して減衰補正を行う(ステップS106)。図31は、このステップS106の処理の概要を模式的に示す図である。図31に示すように、減衰補正部422は、周波数スペクトル曲線Cに対し、上述した式(1)の減衰量Aを強度Iに加える補正を全ての周波数fに対して行うことにより、新たな周波数スペクトル曲線C’を得る。これにより、超音波の伝播に伴う減衰の寄与を削減した周波数スペクトルを得ることができる。
 この後、近似部421は、減衰補正部422によって減衰補正された全ての周波数スペクトルを回帰分析することによって周波数スペクトルの特徴量を抽出する(ステップS107)。具体的には、近似部421は、回帰分析によって一次式の傾きa、切片bおよび中心周波数fMIDにおける強度cを算出する。図31に示す直線Lは、このステップS107で周波数スペクトル曲線Cに対して特徴量抽出処理を行うことによって得られる回帰直線(切片b)である。
 ステップS108~S111の処理は、図3のステップS8~S11の処理に順次対応している。
 以上説明した本発明の実施の形態3によれば、特徴量空間において、所定のデータ位置における周波数スペクトルの特徴点が、第iフレーム(iは自然数)で所定の第1領域内に存在し、次の第(i+1)フレームで第1領域よりも画像表示の優先度が低い第2領域へ近づいた場合、最新の特徴点の位置よりも前記第2領域から遠い位置であって前記第1領域の内部または周辺の位置に仮想的な特徴点を設置し、該仮想的な特徴点に対応する視覚情報により、所定のデータ位置の第(i+1)フレームにおける最新の特徴点に対応する視覚情報を置き換えることで特徴量に関する情報を含む特徴量画像データを生成し、この生成した特徴量画像データに対応する画像を順次表示するため、画像表示の優先度が高い領域の近くの特徴点に対応した画素値を有する画像をなるべく長く表示することができる。したがって、観測対象との相対的な位置関係が時間とともに変化したとしても、所望の組織を長時間にわたって観測することができる。
 また、本実施の形態3によれば、受信した超音波の周波数を解析することによって得た周波数スペクトルを減衰補正し、減衰補正した周波数スペクトルから特徴量を抽出し、この抽出した特徴量を用いるとともに複数の既知検体によって反射された超音波をもとに抽出された周波数スペクトルの特徴量を用いているため、生体組織の歪量や弾性率を用いることなく、組織の違いを明確に峻別することができる。したがって、検体を高精度で観測することによって観測結果の信頼性を向上させることができる。この結果、超音波エラストグラフィにも好適な技術を提供することができる。
 1 超音波観測装置
 2 超音波探触子
 3 送受信部
 4 演算部
 5 画像処理部
 6 入力部
 7 表示部
 8 記憶部
 9 制御部
 21 信号変換部
 41 周波数解析部
 42 特徴量抽出部
 51 Bモード画像データ生成部
 52 特徴量画像データ生成部
 81 既知検体情報記憶部
 82 窓関数記憶部
 83 補正情報記憶部
 84 特徴量空間情報記憶部
 85 特徴量情報記憶部
 100 Bモード画像
 200、301~304、401~404、501~504、601~604、700、800 特徴量画像
 200g 緑色系領域
 200r 赤色系領域
 421 近似部
 422 減衰補正部

Claims (14)

  1.  検体に対して超音波を送信するとともに前記検体によって反射された超音波を受信する超音波観測装置であって、
     受信した超音波に対して定められる複数のデータ位置における周波数スペクトルを算出する周波数解析部と、
     前記周波数解析部が算出した周波数スペクトルを近似することによって前記周波数スペクトルに対する一または複数の特徴量を抽出する特徴量抽出部と、
     前記特徴量抽出部が抽出した特徴量に関する情報を含む特徴量画像データを順次生成する画像処理部と、
     前記画像処理部が順次生成した特徴量画像データに対応する画像を順次表示する表示部と、
     を備え、
     前記一または複数の特徴量の少なくとも一部が座標成分をなす座標系を設定可能な特徴量空間において、所定のデータ位置における周波数スペクトルの特徴点が、前記表示部における第iフレーム(iは自然数)で所定の第1領域内に存在し、次の第(i+1)フレームで前記第1領域よりも画像表示の優先度が低い第2領域へ近づいた場合、
     前記画像処理部は、最新の特徴点の位置よりも前記第2領域から遠い位置であって前記第1領域の内部または周辺の位置に仮想的な特徴点を設置し、該仮想的な特徴点に対応する視覚情報により、前記所定のデータ位置の第(i+1)フレームにおける前記最新の特徴点に対応する視覚情報を置き換えることで前記特徴量画像データを生成することを特徴とする超音波観察装置。
  2.  前記画像処理部は、
     同じデータ位置における周波数スペクトルの特徴点であって前記第(i+1)フレームを生成する際に算出する第1特徴点および前記第iフレームを生成する際に算出する第2特徴点を、前記第1および第2領域の代表点をそれぞれ通過する基準軸へ射影し、この射影した点と前記第2領域の代表点との距離に基づいて、前記第1および第2特徴点と前記第2領域との位置関係を判定することを特徴とする請求項1に記載の超音波観察装置。
  3.  前記第1特徴点は、前記特徴量抽出部が抽出した特徴量から定まる特徴点であり、
     前記第2特徴点は、前記仮想的な特徴点であることを特徴とする請求項2に記載の超音波観測装置。
  4.  前記画像処理部は、
    前記第1および第2領域の代表点をそれぞれ通過する基準軸と直交する直線または平面であって、前記第iフレームを生成する際に、同じデータ位置における特徴点としてそれぞれ算出する第3および第4特徴点のいずれか一方を通過する直線または平面を基準境界として、前記第(i+1)フレームを生成する際に算出する特徴点と前記第2領域との位置関係を判定し、
     前記第3特徴点は、前記特徴量抽出部が抽出した特徴量から定まる特徴点であり、
     前記第4特徴点は、前記仮想的な特徴点であることを特徴とする請求項1に記載の超音波観測装置。
  5.  前記画像処理部は、
     前記第iフレームにおける前記第3および第4特徴点のうち前記基準境界に含まれる特徴点の位置および前記基準軸を用いることにより、前記第(i+1)フレームにおける前記仮想的な特徴点の位置を定めることを特徴とする請求項4に記載の超音波観察装置。
  6.  前記画像処理部は、
     前記第iフレームにおける前記第3および第4特徴点のうち前記基準境界に含まれる特徴点の位置および前記第2領域の代表点の位置を用いることにより、前記第(i+1)フレームにおける前記仮想的な特徴点の位置を定めることを特徴とする請求項4に記載の超音波観測装置。
  7.  前記特徴量抽出部は、
     前記周波数解析部が算出した周波数スペクトルに対し、超音波が伝播する際に該超音波の受信深度および周波数に応じて発生する減衰の寄与を削減する減衰補正処理と近似処理とを行うことにより、前記特徴量を抽出することを特徴とする請求項1~6のいずれか1項に記載の超音波観測装置。
  8.  前記特徴量抽出部は、
     前記周波数解析部が算出した周波数スペクトルに対して前記近似処理を行うことにより、前記減衰補正処理を行う前の補正前特徴量を抽出する近似部と、
     前記近似部が抽出した補正前特徴量に対して前記減衰補正処理を行うことにより、前記周波数スペクトルの特徴量を抽出する減衰補正部と、
     を有することを特徴とする請求項7に記載の超音波観測装置。
  9.  前記特徴量抽出部は、
     前記周波数スペクトルに対して前記減衰補正処理を行う減衰補正部と、
     前記減衰補正部が補正した周波数スペクトルに対して前記近似処理を行うことにより、前記周波数スペクトルの特徴量を抽出する近似部と、
     を有することを特徴とする請求項7に記載の超音波観測装置。
  10.  前記減衰補正部は、
     超音波の受信深度が大きいほど大きな補正を行うことを特徴とする請求項8または9に記載の超音波観測装置。
  11.  前記近似部は、
     回帰分析によって前記周波数スペクトルを多項式で近似することを特徴とする請求項7~10のいずれか一項に記載の超音波観測装置。
  12.  前記視覚情報は、色空間を構成する変数であることを特徴とする請求項1~11のいずれか一項に記載の超音波観測装置。
  13.  検体に対して超音波を送信するとともに前記検体によって反射された超音波を受信する超音波観測装置の作動方法であって、
     受信した超音波の周波数を解析することによって周波数スペクトルを周波数解析部により算出する周波数解析ステップと、
     前記周波数解析ステップで算出した周波数スペクトルを近似することによって前記周波数スペクトルに対する一または複数の特徴量を抽出する特徴量抽出ステップと、
     前記特徴量抽出ステップで抽出した特徴量に関する情報を含む特徴量画像データを画像処理部により生成する画像処理ステップと、
     前記画像処理ステップで順次生成した特徴量画像データに対応する画像を表示部により順次表示する表示ステップと、
     を有し、
     前記周波数解析ステップから前記表示ステップを繰り返し行い、
     前記一または複数の特徴量の少なくとも一部が座標成分をなす座標系を設定可能な特徴量空間において、所定のデータ位置における周波数スペクトルの特徴点が、前記表示部における第iフレーム(iは自然数)で所定の第1領域内に存在し、次の第(i+1)フレームで前記第1領域よりも画像表示の優先度が低い第2領域へ近づいた場合、
     前記画像処理ステップは、最新の特徴点の位置よりも前記第2領域から遠い位置であって前記第1領域の内部または周辺の位置に仮想的な特徴点を設置し、該仮想的な特徴点に対応する視覚情報により、前記所定のデータ位置の第(i+1)フレームにおける前記最新の特徴点に対応する視覚情報を置き換えることで前記特徴量画像データを生成することを特徴とする超音波観測装置の作動方法。
  14.  検体に対して超音波を送信するとともに前記検体によって反射された超音波を受信する超音波観測装置に、
     受信した超音波の周波数を解析することによって周波数スペクトルを周波数解析部により算出する周波数解析ステップと、
     前記周波数解析ステップで算出した周波数スペクトルを近似することによって前記周波数スペクトルに対する一または複数の特徴量を抽出する特徴量抽出ステップと、
     前記特徴量抽出ステップで抽出した特徴量に関する情報を含む特徴量画像データを画像処理部により生成する画像処理ステップと、
     前記画像処理ステップで順次生成した特徴量画像データに対応する画像を表示部により順次表示する表示ステップと、
     を繰り返し実行させ、
     前記一または複数の特徴量の少なくとも一部が座標成分をなす座標系を設定可能な特徴量空間において、所定のデータ位置における周波数スペクトルの特徴点が、前記表示部における第iフレーム(iは自然数)で所定の第1領域内に存在し、次の第(i+1)フレームで前記第1領域よりも画像表示の優先度が低い第2領域へ近づいた場合、
     前記画像処理ステップは、最新の特徴点の位置よりも前記第2領域から遠い位置であって前記第1領域の内部または周辺の位置に仮想的な特徴点を設置し、該仮想的な特徴点に対応する視覚情報により、前記所定のデータ位置の第(i+1)フレームにおける前記最新の特徴点に対応する視覚情報を置き換えることで前記特徴量画像データを生成することを特徴とする超音波観測装置の作動プログラム。
PCT/JP2011/076605 2010-11-11 2011-11-11 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム WO2012063977A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN2011800175532A CN102834059B (zh) 2010-11-11 2011-11-11 超声波观测装置、超声波观测装置的动作方法以及超声波观测装置的动作程序
EP11840634.7A EP2526870B1 (en) 2010-11-11 2011-11-11 Ultrasound observation device, method of operation of ultrasound observation device, and program for operation of ultrasound observation device
JP2012526216A JP5066306B2 (ja) 2010-11-11 2011-11-11 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
US13/491,782 US8447091B2 (en) 2010-11-11 2012-06-08 Ultrasonic observation apparatus, operation method of the same, and computer readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-253291 2010-11-11
JP2010253291 2010-11-11

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/491,782 Continuation US8447091B2 (en) 2010-11-11 2012-06-08 Ultrasonic observation apparatus, operation method of the same, and computer readable recording medium

Publications (1)

Publication Number Publication Date
WO2012063977A1 true WO2012063977A1 (ja) 2012-05-18

Family

ID=46051108

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/076605 WO2012063977A1 (ja) 2010-11-11 2011-11-11 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム

Country Status (5)

Country Link
US (1) US8447091B2 (ja)
EP (1) EP2526870B1 (ja)
JP (1) JP5066306B2 (ja)
CN (1) CN102834059B (ja)
WO (1) WO2012063977A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103717146A (zh) * 2012-05-30 2014-04-09 奥林巴斯医疗株式会社 超声波观测装置、超声波观测装置的动作方法和超声波观测装置的动作程序
WO2014054469A1 (ja) * 2012-10-01 2014-04-10 オリンパスメディカルシステムズ株式会社 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
EP2878271A4 (en) * 2012-07-27 2016-04-13 Olympus Corp ULTRASOUND OBSERVATION APPARATUS, METHOD FOR OPERATING ULTRASOUND OBSERVATION APPARATUS, AND OPERATING PROGRAM FOR ULTRASONIC OBSERVATION APPARATUS

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101501479B1 (ko) * 2013-05-09 2015-03-11 알피니언메디칼시스템 주식회사 초음파 최적화 방법과 그를 위한 초음파 의료 장치
EP3005945A4 (en) * 2013-05-29 2017-01-25 Olympus Corporation Ultrasonic observation device, operation method for ultrasonic observation device, and operation program for ultrasonic observation device
JP5897227B1 (ja) * 2014-06-11 2016-03-30 オリンパス株式会社 医用診断装置、医用診断装置の作動方法および医用診断装置の作動プログラム
CN108472018B (zh) 2015-12-24 2021-01-05 奥林巴斯株式会社 超声波观测装置、超声波观测装置的工作方法以及超声波观测装置的工作程序
US10776989B1 (en) * 2019-05-13 2020-09-15 Robert Edwin Douglas Method and apparatus for prioritized volume rendering
US11275159B2 (en) * 2019-01-08 2022-03-15 Shenzhen Mindray Bio-Medical Electronics Co., Ltd. Attenuation estimation using ultrasound

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004049925A (ja) * 2002-07-23 2004-02-19 Medison Co Ltd 臓器認識装置及びその方法
JP2005253827A (ja) * 2004-03-15 2005-09-22 Fuji Photo Film Co Ltd 超音波撮像方法及び装置
WO2005122906A1 (ja) 2004-06-18 2005-12-29 Hitachi Medical Corporation 超音波診断装置
JP2007097671A (ja) * 2005-09-30 2007-04-19 Toshiba Corp 画像診断支援装置、及び画像診断支援プログラム
JP2007524431A (ja) * 2003-02-03 2007-08-30 ザ クリーヴランド クリニック ファウンデーション 非侵襲性組織特性顕示システムと方法
JP2009523059A (ja) * 2006-01-11 2009-06-18 ボストン サイエンティフィック サイムド,インコーポレイテッド 医用画像検索

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0734742B1 (en) * 1995-03-31 2005-05-11 Kabushiki Kaisha Toshiba Ultrasound therapeutic apparatus
US6875176B2 (en) * 2000-11-28 2005-04-05 Aller Physionix Limited Systems and methods for making noninvasive physiological assessments
JP5022700B2 (ja) * 2006-12-27 2012-09-12 株式会社東芝 超音波診断装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004049925A (ja) * 2002-07-23 2004-02-19 Medison Co Ltd 臓器認識装置及びその方法
JP2007524431A (ja) * 2003-02-03 2007-08-30 ザ クリーヴランド クリニック ファウンデーション 非侵襲性組織特性顕示システムと方法
JP2005253827A (ja) * 2004-03-15 2005-09-22 Fuji Photo Film Co Ltd 超音波撮像方法及び装置
WO2005122906A1 (ja) 2004-06-18 2005-12-29 Hitachi Medical Corporation 超音波診断装置
JP2007097671A (ja) * 2005-09-30 2007-04-19 Toshiba Corp 画像診断支援装置、及び画像診断支援プログラム
JP2009523059A (ja) * 2006-01-11 2009-06-18 ボストン サイエンティフィック サイムド,インコーポレイテッド 医用画像検索

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2526870A4

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103717146A (zh) * 2012-05-30 2014-04-09 奥林巴斯医疗株式会社 超声波观测装置、超声波观测装置的动作方法和超声波观测装置的动作程序
US8917919B2 (en) * 2012-05-30 2014-12-23 Olympus Medical Systems Corp. Ultrasonic observation apparatus, operation method of the same, and computer readable recording medium
EP2878271A4 (en) * 2012-07-27 2016-04-13 Olympus Corp ULTRASOUND OBSERVATION APPARATUS, METHOD FOR OPERATING ULTRASOUND OBSERVATION APPARATUS, AND OPERATING PROGRAM FOR ULTRASONIC OBSERVATION APPARATUS
WO2014054469A1 (ja) * 2012-10-01 2014-04-10 オリンパスメディカルシステムズ株式会社 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
JP5568199B1 (ja) * 2012-10-01 2014-08-06 オリンパスメディカルシステムズ株式会社 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
CN104125804A (zh) * 2012-10-01 2014-10-29 奥林巴斯医疗株式会社 超声波观测装置、超声波观测装置的动作方法以及超声波观测装置的动作程序
US9427208B2 (en) 2012-10-01 2016-08-30 Olympus Corporation Ultrasonic observation apparatus, operation method of the same, and computer readable recording medium

Also Published As

Publication number Publication date
US8447091B2 (en) 2013-05-21
EP2526870A1 (en) 2012-11-28
CN102834059A (zh) 2012-12-19
US20130011038A1 (en) 2013-01-10
EP2526870A4 (en) 2013-03-06
JP5066306B2 (ja) 2012-11-07
JPWO2012063977A1 (ja) 2014-05-12
EP2526870B1 (en) 2014-01-01
CN102834059B (zh) 2013-12-04

Similar Documents

Publication Publication Date Title
JP5054254B2 (ja) 超音波診断装置、超音波診断装置の作動方法および超音波診断装置の作動プログラム
JP5066306B2 (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
JP5433097B2 (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
JP5307939B2 (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
JP5079177B2 (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
JP5054253B2 (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
WO2014054469A1 (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
US8917919B2 (en) Ultrasonic observation apparatus, operation method of the same, and computer readable recording medium
US20130096429A1 (en) Ultrasonic diagnosis apparatus, operation method of the same, and computer readable recording medium
WO2012011414A1 (ja) 超音波診断装置、超音波診断装置の作動方法および超音波診断装置の作動プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180017553.2

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2012526216

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11840634

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011840634

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE