WO2015190180A1 - 医用診断装置、医用診断装置の作動方法および医用診断装置の作動プログラム - Google Patents

医用診断装置、医用診断装置の作動方法および医用診断装置の作動プログラム Download PDF

Info

Publication number
WO2015190180A1
WO2015190180A1 PCT/JP2015/062606 JP2015062606W WO2015190180A1 WO 2015190180 A1 WO2015190180 A1 WO 2015190180A1 JP 2015062606 W JP2015062606 W JP 2015062606W WO 2015190180 A1 WO2015190180 A1 WO 2015190180A1
Authority
WO
WIPO (PCT)
Prior art keywords
classification
feature amount
unit
specimen
feature
Prior art date
Application number
PCT/JP2015/062606
Other languages
English (en)
French (fr)
Inventor
川島 知直
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2015540935A priority Critical patent/JP5897227B1/ja
Priority to EP15806921.1A priority patent/EP3155971A4/en
Priority to CN201580003164.2A priority patent/CN105828726B/zh
Publication of WO2015190180A1 publication Critical patent/WO2015190180A1/ja
Priority to US15/180,569 priority patent/US9655593B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52033Gain control of receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52036Details of receivers using analysis of echo signal for target characterisation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52071Multicolour displays; using colour coding; Optimising colour or information content in displays, e.g. parametric imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/40ICT specially adapted for the handling or processing of patient-related medical or healthcare data for data related to laboratory analysis, e.g. patient specimen analysis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/032Recognition of patterns in medical or anatomical images of protuberances, polyps nodules, etc.

Definitions

  • the present invention relates to a medical diagnostic apparatus that generates diagnostic image data using a received signal received from a specimen, an operating method of the medical diagnostic apparatus, and an operating program of the medical diagnostic apparatus.
  • a medical diagnostic apparatus that generates diagnostic image data using a received signal from a specimen
  • a plurality of learning windows are set from images, and texture feature quantities of learning windows set on different texture regions are used as feature spaces.
  • a technique for setting a standard for plotting the above and calculating the similarity based on the distribution of the texture feature amount in the feature space is disclosed (for example, see Patent Document 1). According to this technique, it is possible to automatically discriminate all tissues of a specimen, and for example, it is possible to detect the surface of a tubular organ or a boundary of a tissue such as a tumor by a simple method.
  • the tissue under examination is automatically discriminated whether it is tissue A, tissue B, tissue C, or lumen.
  • this technique first, two types of the four types of tissues are selected.
  • the feature quantity of the known specimen whose pathological result is the two types is compared with the feature quantity of the tissue of the unknown specimen under examination.
  • the determination is repeated while changing the selection of the combination of the two types of tissues.
  • the tissue under examination has been classified as an unknown tissue by determining that the tissue is most frequently discriminated from among the two types of the above-described discriminating results.
  • the attribute (organizational property) of the tissue to be differentiated is often narrowed down to some extent.
  • classification is performed by comparing with all kinds of tissues of known specimens. Therefore, if the number of types of known tissues is large, the processing amount becomes very large, and a classification result may be output. It was very late. In particular, if the attributes of the organization to be identified are narrowed down, the amount of processing should be narrowed down, but since the processing is executed for all types of tissues, there are many extra processes and the efficiency is low.
  • the present invention has been made in view of the above, and is a medical diagnostic device capable of efficiently generating image data in which tissues are classified according to the contents of diagnosis, a method for operating the medical diagnostic device, and a medical diagnostic device.
  • the purpose is to provide an operating program.
  • the medical diagnostic apparatus includes a feature amount calculation unit that calculates a plurality of types of feature amounts based on received signals received from a specimen, and the feature amount calculation.
  • the attribute of the tissue of the specimen is classified using a feature amount determined according to a classification item selected in advance from among the plurality of types of feature amounts calculated by the unit, and visual information corresponding to the classification result is obtained as the received signal
  • a classification unit that assigns to each pixel of the image based on the image
  • a feature amount image data generation unit that generates feature amount image data on which the visual information assigned to each pixel of the image based on the received signal is superimposed. It is characterized by that.
  • the medical diagnostic apparatus associates the attribute of the tissue to be classified corresponding to the classification item, the type of feature quantity to be used for classification, and visual information corresponding to the value of the feature quantity.
  • a classification information storage unit that stores classification information including at least one of the information; and the classification unit assigns the classification and the visual information with reference to the classification information storage unit.
  • the known specimen information including at least one of a reception signal from a specimen whose attribute is known and information calculated based on the reception signal is associated with the attribute.
  • the apparatus further comprises a known specimen information storage section that stores data, and a classification information setting section that sets the classification information using the known specimen information stored in the known specimen information storage section.
  • the feature amount calculation unit extracts a plurality of parameters based on the received signal received from a predetermined region of the specimen, and uses the plurality of parameters. The feature amount is calculated.
  • the medical diagnosis apparatus is characterized in that, in the above invention, the feature amount calculation unit calculates a statistic amount of the same type of parameters among the plurality of parameters as the feature amount.
  • the medical diagnostic apparatus is characterized in that, in the above invention, the visual information is a variable constituting a color space.
  • the medical diagnostic apparatus is characterized in that, in the above invention, the visual information is luminance.
  • the medical diagnostic apparatus is characterized in that, in the above invention, the medical diagnostic apparatus further includes a display unit for displaying a feature amount image corresponding to the feature amount image data generated by the feature amount image data generation unit.
  • the medical diagnostic apparatus is characterized in that, in the above-described invention, the medical diagnostic apparatus further includes an input unit that receives a selection input of the classification item.
  • the medical diagnostic apparatus transmits an ultrasonic wave to a specimen and receives an electrical echo signal obtained by converting an ultrasonic echo reflected by the specimen as the reception signal. It is further provided with a tentacle.
  • the medical diagnostic apparatus further includes a frequency analysis unit that calculates a frequency spectrum by analyzing a frequency of the echo signal in the above-described invention, and the feature amount calculation unit uses the frequency spectrum to calculate the plurality of frequency spectra. It is characterized by calculating the type of feature amount.
  • the medical diagnosis apparatus is characterized in that, in the above invention, the feature amount calculation unit calculates the plurality of types of feature amounts based on luminance of each pixel of the image based on the received signal.
  • An operating method of a medical diagnostic apparatus is an operating method of a medical diagnostic apparatus that generates diagnostic image data based on a received signal received from a specimen, wherein a feature amount calculation unit includes a plurality of features in the received signal.
  • a feature amount calculating step for calculating a feature amount of a type, and a classification unit classifying the tissue attribute of the specimen using a feature amount determined according to a pre-selected classification item among the plurality of types of feature amounts
  • a feature amount image data generation step for generating feature amount image data on which information is superimposed.
  • An operation program for a medical diagnostic apparatus includes: a medical diagnostic apparatus that generates diagnostic image data based on a reception signal received from a specimen; and a feature amount calculation unit that calculates a plurality of types of feature amounts in the reception signal.
  • the feature amount calculating step for calculating and the classification unit classify the tissue attribute of the specimen using the feature amount determined according to the classification item selected in advance among the plurality of types of feature amounts, and the classification result is obtained.
  • a feature amount image data generation step for generating amount image data.
  • a plurality of types of feature amounts are calculated based on a received signal from a sample, and a tissue of the sample is used using a feature amount determined according to a classification item selected in advance among the plurality of feature amounts.
  • FIG. 1 is a block diagram showing a configuration of an ultrasound observation apparatus that is a medical diagnostic apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram showing the relationship between the reception depth and the amplification factor in the amplification processing performed by the signal amplification unit of the ultrasonic observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 3 is a diagram showing a relationship between the reception depth and the amplification factor in the amplification process performed by the amplification correction unit of the ultrasonic observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 4 is a diagram schematically showing a data array in one sound ray of the ultrasonic signal.
  • FIG. 5 is a diagram illustrating an example of a frequency spectrum calculated by the frequency analysis unit of the ultrasonic observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 6 is a diagram schematically illustrating an outline of processing performed by the feature amount calculation unit of the ultrasound observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 7 is a diagram schematically showing classification information stored in the classification information storage unit according to Embodiment 1 of the present invention.
  • FIG. 8 is a diagram schematically showing classification and color assignment when the classification item is tumor screening.
  • FIG. 9 is a diagram schematically illustrating classification and color assignment when the classification item is malignant / benign discrimination.
  • FIG. 10 is a diagram schematically illustrating classification and color assignment when the classification item is follow-up determination 1.
  • FIG. 11 is a diagram schematically illustrating classification and color assignment when the classification item is follow-up determination 2.
  • FIG. 12 is a flowchart showing an outline of processing performed by the ultrasound observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 13 is a diagram illustrating a display example of a selection screen displayed by the display unit when the input unit accepts a selection input of a classification item.
  • FIG. 14 is a flowchart showing an outline of processing performed by the frequency analysis unit of the ultrasonic observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 15 is a diagram schematically illustrating a display example of the feature amount image on the display unit of the ultrasonic observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 12 is a flowchart showing an outline of processing performed by the ultrasound observation apparatus according to Embodiment 1 of the present invention.
  • FIG. 13 is a diagram illustrating a display example of a selection screen displayed by the display unit when the input unit accepts a selection
  • FIG. 16 is a block diagram showing a configuration of an ultrasonic observation apparatus according to Embodiment 2 of the present invention.
  • FIG. 17 is a flowchart showing an outline of processing performed by the ultrasonic observation apparatus according to Embodiment 2 of the present invention.
  • FIG. 18 is a flowchart showing an outline of processing performed by the classification information setting unit of the ultrasonic observation apparatus according to Embodiment 2 of the present invention.
  • FIG. 19 is a diagram schematically illustrating an outline of processing performed by the classification information setting unit of the ultrasonic observation apparatus according to Embodiment 2 of the present invention.
  • FIG. 20 is a diagram schematically illustrating an outline of processing performed by the feature amount calculation unit of the ultrasonic observation apparatus according to another embodiment of the present invention.
  • FIG. 1 is a block diagram showing a configuration of an ultrasound observation apparatus that is a medical diagnostic apparatus according to Embodiment 1 of the present invention.
  • An ultrasonic observation apparatus 1 shown in FIG. 1 is an apparatus for observing a specimen that is a diagnosis target using ultrasonic waves.
  • the ultrasonic observation apparatus 1 transmits and receives electrical signals between the ultrasonic probe 2 that outputs an ultrasonic pulse to the outside and receives an ultrasonic echo reflected from the outside, and the ultrasonic probe 2.
  • a transmission / reception unit 3 for performing the calculation a calculation unit 4 for performing a predetermined calculation on the electrical echo signal obtained by converting the ultrasonic echo into an electrical signal, and image processing for generating image data corresponding to the electrical echo signal
  • It is realized using the unit 5 and a user interface such as a keyboard, mouse, touch panel, etc., and is realized using an input unit 6 that accepts input of various information and a display panel made up of liquid crystal or organic EL (Electro Luminescence), etc.
  • the ultrasonic observation apparatus 1 is a process in which the ultrasonic probe 2 provided with the ultrasonic transducer 21 and the ultrasonic probe 2 are detachably connected, and the above-described portions other than the ultrasonic probe 2 are provided.
  • Device processing
  • the ultrasonic probe 2 is a form of an external probe that irradiates ultrasonic waves from the body surface of a living body, and a long-axis insertion portion that is inserted into a lumen such as a digestive tract, bile pancreatic duct, or blood vessel. It may be in any form of a miniature ultrasonic probe provided, or an ultrasonic endoscope further including an optical system in the intraluminal ultrasonic probe.
  • an ultrasonic transducer 21 is provided on the distal end side of the insertion portion of the intraluminal ultrasonic probe, and the lumen
  • the inner ultrasonic probe is detachably connected to the processing apparatus on the proximal end side.
  • the ultrasonic probe 2 converts an electrical pulse signal received from the transmission / reception unit 3 into an ultrasonic pulse (acoustic pulse), and converts an ultrasonic echo reflected from an external specimen into an electrical echo signal.
  • the ultrasonic vibrator 21 is provided.
  • the ultrasonic probe 2 may be one that mechanically scans the ultrasonic transducer 21, or a plurality of elements are arranged in an array as the ultrasonic transducer 21, and the elements involved in transmission and reception are electronically arranged. Electronic scanning may be performed by switching or delaying transmission / reception of each element. In the first embodiment, it is possible to select and use any one of a plurality of different types of ultrasound probes 2 as the ultrasound probe 2.
  • the transmission / reception unit 3 is electrically connected to the ultrasound probe 2 and transmits an electrical pulse signal to the ultrasound probe 2, and an echo that is an electrical reception signal from the ultrasound probe 2. Receive a signal. Specifically, the transmission / reception unit 3 generates an electrical pulse signal based on a preset waveform and transmission timing, and transmits the generated pulse signal to the ultrasound probe 2.
  • the transmission / reception unit 3 includes a signal amplification unit 31 that amplifies the echo signal. More specifically, the signal amplifying unit 31 performs STC (Sensitivity Time Control) correction in which an echo signal having a larger reception depth is amplified with a higher amplification factor.
  • FIG. 2 is a diagram illustrating the relationship between the reception depth and the amplification factor in the amplification process performed by the signal amplification unit 31.
  • the reception depth z shown in FIG. 2 is an amount calculated based on the elapsed time from the reception start point of the ultrasonic wave. As shown in FIG.
  • the amplification factor ⁇ (dB) increases linearly from ⁇ 0 to ⁇ th (> ⁇ 0 ) as the reception depth z increases.
  • the amplification factor ⁇ (dB) takes a constant value ⁇ th when the reception depth z is equal to or greater than the threshold value z th .
  • the value of the threshold value z th is such a value that the ultrasonic signal received from the specimen is almost attenuated and the noise becomes dominant. More generally, when the reception depth z is smaller than the threshold value z th , the amplification factor ⁇ may increase monotonously as the reception depth z increases.
  • the transmission / reception unit 3 performs processing such as filtering on the echo signal amplified by the signal amplification unit 31, and then generates and outputs a time-domain digital RF signal by performing A / D conversion.
  • the transmission / reception unit 3 has a plurality of beams for beam synthesis corresponding to the plurality of elements.
  • a channel circuit is included.
  • the calculation unit 4 performs amplification correction on the digital high frequency (RF) signal output from the transmission / reception unit 3 and the amplification correction unit 41 that performs amplification correction so that the amplification factor ⁇ is constant regardless of the reception depth.
  • a frequency analysis unit 42 that calculates a frequency spectrum by performing a frequency analysis by applying a fast Fourier transform (FFT) to the digital RF signal, and a feature amount calculation unit that calculates a plurality of types of feature amounts in the frequency spectrum 43, and a classification unit 44 that classifies the attribute of the tissue of the specimen using the feature amount corresponding to the classification item of the tissue to be selected that has been selected in advance.
  • the calculation unit 4 is realized by using a CPU (Central Procuring Unit), various calculation circuits, and the like.
  • FIG. 3 is a diagram illustrating the relationship between the reception depth and the amplification factor in the amplification process performed by the amplification correction unit 41.
  • the amplification rate ⁇ (dB) in the amplification process performed by the amplification correction unit 41 takes the maximum value ⁇ th ⁇ 0 when the reception depth z is zero, and the reception depth z is zero from the threshold z th. Decreases linearly until reaching 0 and is zero when the reception depth z is greater than or equal to the threshold z th .
  • the amplification correction unit 41 amplifies and corrects the digital RF signal with the amplification factor determined in this way, thereby canceling the influence of STC correction in the signal amplification unit 31 and outputting a signal with a constant amplification factor ⁇ th. .
  • the relationship between the reception depth z and the amplification factor ⁇ performed by the amplification correction unit 41 is different depending on the relationship between the reception depth and the amplification factor in the signal amplification unit 31.
  • STC correction is a correction process that eliminates the influence of attenuation from the amplitude of the analog signal waveform by amplifying the amplitude of the analog signal waveform uniformly over the entire frequency band and with a gain that monotonously increases with respect to the depth. is there. For this reason, when generating a B-mode image using the amplitude of the echo signal and scanning a uniform tissue, the luminance value becomes constant regardless of the depth by performing STC correction. That is, an effect of eliminating the influence of attenuation from the B-mode luminance value can be obtained.
  • the STC correction cannot accurately eliminate the influence of attenuation associated with the propagation of the ultrasonic wave. This is because the amount of attenuation varies depending on the frequency, but the amplification factor of STC correction changes only with distance and remains constant with respect to frequency, as in equation (1) described later. A method of eliminating the influence of attenuation including the frequency dependence of the attenuation will be described later in step S9 of FIGS. 6 and 12 as “attenuation correction processing”.
  • the amplification correction unit 41 In order to eliminate the influence of the STC correction on the signal subjected to the STC correction for the B-mode image while maintaining the frame rate of the generated image data, the amplification correction unit 41 To correct the amplification factor.
  • the frequency analysis unit 42 performs a fast Fourier transform on each sound ray (line data) of a signal obtained by amplifying and correcting a digital RF signal based on an echo signal, and performing a fast Fourier transform on a plurality of amplitude data groups sampled at a predetermined time interval. A frequency spectrum at a location (data position) is calculated.
  • FIG. 4 is a diagram schematically showing a data array in one sound ray of the ultrasonic signal.
  • a white or black rectangle means one piece of data.
  • the sound ray data SR k is discretized at time intervals corresponding to a sampling frequency (for example, 50 MHz) in A / D conversion performed by the transmission / reception unit 3.
  • FIG. 4 shows the case where the first data position of the sound ray data SR k of the number k (described later) is set as the initial value Z (k) 0 in the direction of the reception depth z, but the position of the initial value is It can be set arbitrarily.
  • the calculation result by the frequency analysis unit 42 is obtained as a complex number and stored in the storage unit 8.
  • the amplitude data group needs to have a power number of 2 data.
  • a process for generating a normal amplitude data group is performed by inserting zero data in an insufficient amount. This point will be described in detail when the processing of the frequency analysis unit 42 described later is described (see FIG. 14).
  • FIG. 5 is a diagram illustrating an example of a frequency spectrum calculated by the frequency analysis unit 42.
  • the “frequency spectrum” illustrated in FIG. 5 means “intensity frequency distribution at a certain reception depth z” obtained by performing fast Fourier transform (FFT operation) on the amplitude data group.
  • FFT operation fast Fourier transform
  • the term “intensity” as used herein refers to any of parameters such as the voltage of the echo signal, the power of the echo signal, the sound pressure of the ultrasonic echo, the acoustic energy of the ultrasonic echo, the amplitude of these parameters, the time integral value, and combinations thereof. Point to. In FIG. 5, the horizontal axis is the frequency f.
  • the decibel expression log 10 (I / I c ) of the intensity obtained by dividing the intensity I by a specific reference intensity I c (constant) and taking the common logarithm is taken.
  • the intensity expressed in decibels is also simply referred to as I hereinafter.
  • the reception depth z is constant.
  • the curve and the straight line are composed of a set of discrete points.
  • the lower limit frequency f L and the upper limit frequency f H of the frequency band used for the subsequent calculations are the frequency band of the ultrasonic transducer 21 and the frequency band of the pulse signal transmitted by the transmitting / receiving unit 3.
  • f L 3 MHz
  • f H 10 MHz.
  • the frequency band determined from the lower limit frequency f L and the upper limit frequency f H is referred to as “frequency band F”.
  • the frequency spectrum shows a different tendency depending on the attribute of the tissue scanned with the ultrasonic wave. This is because the frequency spectrum has a correlation with the size, number density, acoustic impedance, and the like of the scatterer that scatters ultrasonic waves.
  • the “attribute” refers to, for example, a malignant tumor tissue, a benign tumor tissue, an endocrine tumor tissue, a mucinous tumor tissue, a normal tissue, a vessel, and the like.
  • the feature amount calculation unit 43 performs an attenuation correction process for correcting the influence of ultrasonic attenuation depending on the ultrasonic reception depth and frequency, and an approximate expression of the frequency spectrum after attenuation correction by regression analysis. And an approximation unit 432 for calculating.
  • FIG. 6 is a diagram schematically illustrating an outline of processing performed by the feature amount calculation unit 43.
  • FIG. 6 illustrates a case where feature amount calculation is performed on the frequency spectrum C 1 illustrated in FIG. 5.
  • the attenuation correction unit 431 corrects the frequency spectrum C 1 by adding the attenuation amount A (f, z) of the equation (1) to the intensity I (f, z) at all frequencies f (I (f, z z) ⁇ I (f, z) + A (f, z)).
  • the ultrasonic attenuation amount A (f, z) is attenuation that occurs while the ultrasonic waves reciprocate between the reception depth 0 and the reception depth z, and the intensity change before and after the reciprocation (difference in decibel expression).
  • a (f, z) is empirically known to be proportional to the frequency in a uniform tissue, and is expressed by Expression (1), where the proportionality coefficient is ⁇ .
  • a (f, z) 2 ⁇ zf (1)
  • is called an attenuation rate.
  • Z is the ultrasonic reception depth, and f is the frequency.
  • Frequency spectrum C 2 shown in FIG. 6 is a new frequency spectrum obtained as a result of correcting the influence of the attenuation due to propagation of ultrasonic by attenuation correction.
  • Approximation unit 432 by approximating the frequency spectrum C 2 performs a regression analysis in the frequency band F of the frequency spectrum C 2 by a linear equation (regression line), to extract the parameters necessary for calculating the feature quantity.
  • Mid-band fit c af M + b.
  • the inclination a has a correlation with the size of the ultrasonic scatterer, and it is generally considered that the larger the scatterer, the smaller the inclination.
  • the intercept b has a correlation with the size of the scatterer, the difference in acoustic impedance, the number density (concentration) of the scatterer, and the like. Specifically, the intercept b has a larger value as the scatterer is larger, a larger value as the difference in acoustic impedance is larger, and a larger value as the number density (concentration) of the scatterer is larger. It is done.
  • the mid-band fit c is an indirect parameter derived from the slope a and the intercept b, and gives the intensity of the spectrum at the center in the effective frequency band.
  • the midband fit c is considered to have a certain degree of correlation with the brightness of the B-mode image in addition to the size of the scatterer, the difference in acoustic impedance, and the number density of the scatterers.
  • the approximate expression calculated by the approximating unit 432 is not limited to a linear expression, and it is possible to use a second-order or higher order polynomial.
  • the feature amount calculation unit 43 can calculate a plurality of types of feature amounts using the parameters of the sample calculated within a predetermined region of interest. Specifically, the feature amount calculation unit 43 calculates the average of the slope a, the intercept b, and the midband fit c calculated by the approximation unit 432 in a plurality of unit regions (also referred to as discrimination windows) set in the region of interest. Calculate the standard deviation.
  • the plurality of unit regions in the region of interest have the same size (number of pixels). This size is set in advance when the input unit 6 receives a setting input, and is stored in the storage unit 8.
  • the feature amount calculated by the feature amount calculation unit 43 will be described by exemplifying the average and standard deviation of the slope a, the intercept b, and the mid-band fit c. However, like the variance and entropy other than the average and standard deviation, Various statistics may be applied.
  • the mean of slope a is Mean S
  • the standard deviation is Sd.
  • the mean of intercept b is Mean I
  • the standard deviation is Sd.
  • I the mean of midband fit c is Mean M
  • the standard deviation is Sd.
  • the classification unit 44 performs classification using a feature amount corresponding to a pre-selected classification item among a plurality of types of feature amounts that can be calculated by the feature amount calculation unit 43, and colors as visual information according to the classification result (Hue) is assigned to each pixel of the image generated from the electrical echo signal.
  • the visual information assigned to each pixel by the classification unit 44 is not limited to the hue, and any variable may be used as long as it is a variable constituting the color space.
  • a color space for example, a Munsell color system in which brightness and saturation are added to the hue may be adopted, or RGB colorimetrics having R (red), G (green), and B (blue) as variables. A system may be adopted.
  • the image processing unit 5 generates a feature image data that displays information corresponding to the feature amount extracted by the B-mode image data generation unit 51 that generates B-mode image data from the echo signal and the feature amount calculation unit 43.
  • a quantity image data generation unit 52 generates a feature image data that displays information corresponding to the feature amount extracted by the B-mode image data generation unit 51 that generates B-mode image data from the echo signal and the feature amount calculation unit 43.
  • the B-mode image data generation unit 51 performs signal processing using a known technique such as a bandpass filter, logarithmic conversion, gain processing, contrast processing, and the like on the digital signal, and also according to the image display range on the display unit 7.
  • B-mode image data is generated by thinning out data in accordance with the data step width determined in advance.
  • the B-mode image is a grayscale image in which values of R (red), G (green), and B (blue), which are variables when the RGB color system is adopted as a color space, are matched.
  • the storage unit 8 has a classification information storage unit 81.
  • the classification information storage unit 81 classifies the attributes of the tissue to be classified, and stores information on the classification result necessary when the feature amount image data generation unit 52 generates the feature amount image data.
  • the classification information storage unit 81 also stores information related to the unit area when calculating the feature amount.
  • FIG. 7 is a diagram schematically showing the classification information stored in the classification information storage unit 81.
  • the purpose of classification is assigned to the column of classification items.
  • an attribute of the organization to be separated is associated with a feature amount used for classification.
  • a color (hue) as visual information assigned to a pixel when displaying a feature amount image is associated with a feature amount value (value range).
  • the attributes (classification attributes) to be classified are normal tissue and malignant tumor tissue, and the feature quantity used for classification is the standard deviation Sd.
  • the feature values are 0 ⁇ Sd.
  • the pixel is M ⁇ M 11 is assigned red, pink is assigned to the pixels corresponding to the M 11 ⁇ Sd.
  • M ⁇ tissue is M 12.
  • no color is assigned to a pixel whose feature value is Sd.M ⁇ M 12 (described as “mask” in FIG. 7).
  • a tissue corresponding to a feature amount in a range to which no color is assigned is a normal tissue.
  • Sd. M M 12 is a threshold value for separating normal tissue and malignant tumor tissue.
  • the correspondence between the feature amount and the color is set according to the degree of tumor in the malignant tumor tissue, for example.
  • FIG. 8 is a diagram schematically showing classification and color assignment when the classification item is tumor screening.
  • the horizontal axis represents the standard deviation Sd. M of the midband fit
  • the vertical axis represents the feature quantity distribution of the known specimen in the feature quantity space, which is the mean mean M of the midband fit.
  • 3 schematically shows the relationship between the value of and the color assigned to the pixel.
  • the known specimen is another specimen whose tissue attribute has been clarified in advance by a pathological examination or the like before examining a new specimen in the first embodiment.
  • the arrow A 11 indicates the range of the feature amount Sd. M to which red is assigned
  • the arrow A 12 indicates the range of the feature amount Sd. M to which pink is assigned
  • the arrow A 13 indicates the feature amount to which no color is assigned.
  • the range of Sd.M is shown.
  • known specimens are roughly divided into two groups G 11 and G 12 according to attributes.
  • Group G 11 is a group of malignant tumor tissue
  • a group G 12 is a group of normal tissue.
  • the group G 11 and the group G 12 are clearly separated by Sd.
  • M M 12 in the direction of the horizontal axis Sd. M, but not separated in the direction of the vertical axis Mean M.
  • the classification item is tumor screening
  • the tissue attribute of the specimen can be accurately classified by adopting the standard deviation Sd.
  • the average Mean M value of the mid-band fit corresponding to M 11 and M 12 described above, the color information for the arrows A 11 , A 12 and A 13 , and the range and visual information (color and mask) of these Mean M A plurality of information in which information (hereinafter referred to as a color table) is associated with a plurality of tissue attributes before classification using a feature amount is started. Based on the distribution of the known specimens in the group, it is calculated by an external processing device (not shown), or one or both of the feature quantity calculation unit 43 and the classification unit 44. Then, it is stored in advance in the classification information storage unit 81 as a part of the classification information. When starting the classification, the classification unit 44 reads these from the classification information storage unit 81 and classifies the attributes of the organization.
  • the attributes of the classification target are a malignant tumor tissue and a benign tumor tissue, and the feature amount used for the classification is the average mean M of the midband fit.
  • no color is assigned to a pixel whose feature value is 0 ⁇ Mean M ⁇ M 21 .
  • blue is assigned to pixels whose feature value is M 21 ⁇ Mean M ⁇ M 22
  • light blue is assigned to pixels where M 22 ⁇ Mean M ⁇ M 23.
  • M 23 ⁇ Mean M Pixels with ⁇ M 24 are assigned yellow, pixels with M 24 ⁇ Mean M ⁇ M 25 are assigned pink, and pixels with Mean M ⁇ M 25 are assigned red.
  • FIG. 9 is a diagram schematically illustrating classification and color assignment when the classification item is malignant / benign discrimination.
  • the feature amount distribution of the known specimen in the feature amount space in which the horizontal axis is the standard deviation Sd. M of the midband fit and the vertical axis is the mean mean M of the midband fit is shown as a scatter diagram. 3 schematically shows the relationship between the value of and the color assigned to the pixel.
  • the known specimen is another specimen whose tissue attribute has been clarified in advance by a pathological examination or the like before examining a new specimen in the first embodiment.
  • FIG. 9 the feature amount distribution of the known specimen in the feature amount space in which the horizontal axis is the standard deviation Sd. M of the midband fit and the vertical axis is the mean mean M of the midband fit is shown as a scatter diagram. 3 schematically shows the relationship between the value of and the color assigned to the pixel.
  • the known specimen is another specimen whose tissue attribute has been clarified in advance by a pathological examination or the like before
  • an arrow A 21 indicates a range where no color is assigned
  • an arrow A 22 indicates a range where blue is assigned
  • an arrow A 23 indicates a range where light blue is assigned
  • an arrow A 24 indicates a range where yellow is assigned.
  • Arrow A 25 indicates a range in which pink is allocated
  • arrow A 26 indicates a range in which red is allocated.
  • known specimens are roughly divided into two groups G 21 and G 22 according to attributes.
  • Group G 21 is a group of benign tumor tissue
  • a group G 22 is a group of malignant tumor tissue.
  • Mean M M 24 in the direction of the vertical axis Mean M, but not separated in the direction of the horizontal axis Sd.
  • the classification item is malignant / benign discrimination
  • the tissue attribute of the specimen can be accurately classified by adopting the mean mean M of the midband fit.
  • the feature image displays the malignant tumor tissue and the benign tumor tissue so that they can be distinguished. Therefore, in FIG. 9, different colors are assigned to the groups G 21 and G 22 , respectively.
  • the average Mean M value of the midband fit corresponding to M 21 , M 22 , M 23 , M 24 , and M 25 described above, and the colors for the arrows A 21 , A 22 , A 23 , A 24 , A 25 , and A 26 The information and the information (color table) that associates the range of Mean M with the visual information (color and mask) before the classification using the feature amount is started. Based on the distribution of a plurality of known specimens whose pathology is revealed by pathological examination or the like, an external processing device (not shown), either the feature amount calculation unit 43 or the classification unit 44, or both It is calculated by. Then, it is stored in advance in the classification information storage unit 81 as a part of the classification information. When starting the classification, the classification unit 44 reads these from the classification information storage unit 81 and classifies the attributes of the organization.
  • the attributes of the classification target are the follow-up observation tissue and the benign tumor tissue, and the feature quantity used for the classification is the standard deviation Sd.
  • red is assigned to the feature value 0 ⁇ Sd.I ⁇ I 1
  • pink is assigned to the pixel having I 1 ⁇ Sd.I ⁇ I 2
  • Pixels with 3 are assigned light blue
  • pixels with I 3 ⁇ Sd. I ⁇ I 4 are assigned blue.
  • no color is assigned to a pixel whose feature value is Sd.I ⁇ I 4 .
  • FIG. 10 is a diagram schematically illustrating classification and color assignment when the classification item is follow-up determination 1.
  • the known specimen is another specimen whose tissue attribute has been clarified in advance by a pathological examination or the like before examining a new specimen in the first embodiment. Further, in FIG.
  • arrow A 31 indicates a range to which red is assigned
  • arrow A 32 indicates a range to which pink is assigned
  • arrow A 33 indicates a range to which light blue is assigned
  • arrow A 34 indicates a range to which blue is assigned
  • An arrow A 35 indicates a range to which no color is assigned.
  • Group G 31 is a group of essential observation organization
  • group G 32 is a group of benign tumor tissue.
  • the tissue attribute of the specimen can be accurately classified by adopting the standard deviation Sd.
  • the classification item is follow-up determination 1
  • the information (color table) that associates the range of I with the visual information (color and mask) belongs to which attribute of multiple types of tissue before classification using the feature quantity is started. Based on the distribution of known samples of a plurality of groups revealed by pathological examination or the like, it is calculated by an external processing device (not shown), or one or both of the feature amount calculation unit 43 and the classification unit 44 . Then, it is stored in advance in the classification information storage unit 81 as a part of the classification information. When starting the classification, the classification unit 44 reads these from the classification information storage unit 81 and classifies the attributes of the organization.
  • the attributes of the classification target are the follow-up observation tissue and the malignant tumor tissue, and the feature quantities used for the classification are the mean mean M of the midband fit and the standard deviation Sd. D (Mean M, Sd. I) calculated as a function of (hereinafter simply referred to as d).
  • This d is specifically defined as a linear combination of two feature quantities Mean M and Sd.
  • red is assigned to pixels whose feature value d is 0 ⁇ d ⁇ d 1
  • pink is assigned to pixels where d 1 ⁇ d ⁇ d 2
  • d 2 ⁇ d ⁇ d 3 A certain pixel is assigned green, and a pixel where d 3 ⁇ d ⁇ d 4 is assigned yellow.
  • no color is assigned to a pixel whose feature value is d ⁇ d 4 .
  • FIG. 11 is a diagram schematically illustrating classification and color assignment when the classification item is follow-up determination 2.
  • the relationship between the color and the color assigned to the pixel is schematically shown.
  • the known specimen is another specimen whose tissue attribute has been clarified in advance by a pathological examination or the like before examining a new specimen in the first embodiment.
  • FIG. 11 is a diagram schematically illustrating classification and color assignment when the classification item is follow-up determination 2.
  • an arrow A 41 indicates a range for assigning red
  • an arrow A 42 indicates a range for assigning pink
  • an arrow A 43 indicates a range for assigning green
  • an arrow A 44 indicates a range for assigning yellow
  • An arrow A 45 indicates a range to which no color is assigned.
  • group G 41 is a group of essential observation organization
  • group G 42 is a group of malignant tumor tissue.
  • the value of the feature quantity d is defined by the distance from the origin along the axis d.
  • the feature amount d (Mean M, Sd. I) which is a linear combination of the average Mean M of the midband fit and the standard deviation Sd. I of the intercept is adopted. Can accurately classify the tissue attributes of the specimen.
  • the classification item is follow-up determination 2
  • Each ratio (that is, the direction of the axis d) with respect to the feature amount d of the mean mean M of the mid-band fit and the standard deviation Sd.
  • the value of the quantity d, the color information for the arrows A 41 , A 42 , A 43 , A 44 , A 45 , and the information that correlates the value range of these d with the visual information (color and mask) (color table) Is not shown on the basis of the distribution of a plurality of groups of known specimens whose pathological examination reveals which attribute of a plurality of types of tissue belongs before the classification using the feature quantity is started It is calculated by an external processing device, or one or both of the feature amount calculation unit 43 and the classification unit 44. Then, it is stored in advance in the classification information storage unit 81 as a part of the classification information. When starting the classification, the classification unit 44 reads these from the classification information storage unit
  • the storage unit 8 has information necessary for amplification processing (relationship between the amplification factor and the reception depth shown in FIG. 2) and information necessary for amplification correction processing (the amplification factor and the reception depth shown in FIG. 3). ), Information necessary for the attenuation correction process (see Expression (1)), and information on window functions (Hamming, Hanning, Blackman, etc.) necessary for the frequency analysis process.
  • the storage unit 8 stores an operation program for executing the operation method of the ultrasonic observation apparatus 1 (medical diagnosis apparatus).
  • This operation program can be recorded on a computer-readable recording medium such as a hard disk, a flash memory, a CD-ROM, a DVD-ROM, or a flexible disk and widely distributed. Recording of various programs on a recording medium or the like may be performed when the computer or the recording medium is shipped as a product, or may be performed by downloading via a communication network.
  • the storage unit 8 having the above configuration is realized using a ROM (Read Only Memory) in which various programs are installed in advance, and a RAM (Random Access Memory) that stores calculation parameters and data of each process. .
  • the various programs described above can also be obtained by downloading via a communication network.
  • the communication network here is realized by, for example, an existing public line network, LAN (Local Area Network), WAN (Wide Area Network), etc., and may be wired or wireless.
  • the control unit 9 is realized by using a CPU (Central Procuring Unit) having various calculation and control functions, various arithmetic circuits, and the like.
  • the control unit 9 reads various programs including information stored and stored in the storage unit 8 and an operation program of the ultrasonic observation apparatus 1 from the storage unit 8, thereby performing various arithmetic processes related to the operation method of the ultrasonic observation apparatus 1.
  • the control unit 9 and the calculation unit 4 may be configured using a common CPU or the like.
  • FIG. 12 is a flowchart showing an outline of processing performed by the ultrasonic observation apparatus 1 having the above configuration.
  • the input unit 6 accepts a selection input for classification items (step S1).
  • FIG. 13 is a diagram illustrating a display example of a selection screen displayed by the display unit 7 when the input unit 6 receives a selection input of a classification item.
  • the selection screen 101 shown in FIG. 13 displays classification items and attributes (classification attributes) of classification target organizations.
  • a frame cursor 102 indicating the currently selected category item is displayed.
  • FIG. 13 shows a state where “tumor screening” is selected as the classification item.
  • the user completes the selection input by moving the frame cursor 102 to a desired category using a mouse or the like and then clicking the mouse to confirm the selection.
  • the input unit 6 outputs the received selection input signal to the control unit 9.
  • the ultrasonic observation apparatus 1 first measures a new specimen with the ultrasonic probe 2 (step S2). Specifically, the ultrasonic transducer 21 of the ultrasonic probe 2 converts an electrical pulse signal into an ultrasonic pulse and sequentially transmits it to the specimen. Each ultrasonic pulse is reflected by the specimen and an ultrasonic echo is generated. The ultrasonic transducer 21 converts ultrasonic echoes into electrical echo signals.
  • the frequency band of the pulse signal may be a wide band that substantially covers the linear response frequency band of the electroacoustic conversion of the pulse signal to the ultrasonic pulse in the ultrasonic transducer 21. Thus, it is possible to perform accurate approximation in the frequency spectrum approximation process described later.
  • the signal amplifying unit 31 that has received the echo signal from the ultrasonic probe 2 amplifies the echo signal (step S3).
  • the signal amplifying unit 31 performs amplification (STC correction) of the echo signal based on the relationship between the amplification factor and the reception depth shown in FIG. 2, for example.
  • the various processing frequency bands of the echo signal in the signal amplifying unit 31 may be a wide band that substantially covers the linear response frequency band of the acoustoelectric conversion of the ultrasonic echo to the echo signal by the ultrasonic transducer 21. This is also because it is possible to perform accurate approximation in the frequency spectrum approximation processing described later.
  • the B-mode image data generation unit 51 generates B-mode image data using the echo signal amplified by the signal amplification unit 31 (step S4).
  • the control part 9 may perform control which displays the B mode image corresponding to the produced
  • the amplification correction unit 41 performs amplification correction on the signal output from the transmission / reception unit 3 so that the amplification factor is constant regardless of the reception depth (step S5).
  • the amplification correction unit 41 performs amplification correction based on, for example, the relationship between the amplification factor and the reception depth shown in FIG.
  • step S7 the frequency analysis unit 42 calculates a frequency spectrum by performing frequency analysis by FFT calculation.
  • step S7 it is also possible to set the entire region of the image as the region of interest.
  • step S6: No when the region of interest is not set (step S6: No), when the input unit 6 receives an input of an instruction to end the process (step S8: Yes), the ultrasound observation apparatus 1 ends the process. To do.
  • step S6: No when the region of interest is not set (step S6: No), when the input unit 6 does not accept an input of an instruction to end the process (step S8: No), the ultrasound observation apparatus 1 performs the step Return to S6.
  • FIG. 14 is a flowchart showing an overview of the processing executed by the frequency analysis unit 42 in step S7.
  • the frequency analysis processing will be described in detail with reference to the flowchart shown in FIG.
  • the frequency analysis unit 42 sets a counter k for identifying a sound ray to be analyzed as k 0 (step S21).
  • the frequency analysis unit 42 sets an initial value Z (k) 0 of a data position (corresponding to a reception depth) Z (k) that represents a series of data groups (amplitude data group) acquired for FFT calculation.
  • FIG. 4 shows a case where the first data position of the sound ray SR k is set as the initial value Z (k) 0 as described above.
  • the frequency analysis unit 42 acquires the amplitude data group to which the data position Z (k) belongs (step S23), and applies the window function stored in the storage unit 8 to the acquired amplitude data group (step S24). .
  • the window function By applying the window function to the amplitude data group in this way, it is possible to avoid the amplitude data group from becoming discontinuous at the boundary and to prevent occurrence of artifacts.
  • the frequency analysis unit 42 determines whether or not the amplitude data group at the data position Z (k) is a normal data group (step S25).
  • the amplitude data group needs to have a data number of a power of two.
  • the number of data in the normal amplitude data group is 2 n (n is a positive integer).
  • the amplitude data groups F 2 and F 3 are both normal.
  • step S25 If the result of determination in step S25 is that the amplitude data group at data position Z (k) is normal (step S25: Yes), the frequency analysis unit 42 proceeds to step S27 described later.
  • step S25 when the amplitude data group at the data position Z (k) is not normal (step S25: No), the frequency analysis unit 42 inserts zero data as much as the deficient amount into the normal amplitude data group. Generate (step S26). A window function is applied to the amplitude data group determined to be not normal in step S25 (for example, the amplitude data groups F 1 and F K in FIG. 4) before adding zero data. For this reason, discontinuity of data does not occur even if zero data is inserted into the amplitude data group. After step S26, the frequency analysis unit 42 proceeds to step S27 described later.
  • step S27 the frequency analysis unit 42 performs an FFT operation using the amplitude data group to obtain a frequency spectrum that is a frequency distribution of the amplitude (step S27). This result is shown in FIG. 5, for example.
  • the frequency analysis unit 42 changes the data position Z (k) by the step width D (step S28). It is assumed that the step width D is stored in advance in the storage unit 8.
  • the step width D is desirably matched with the data step width used when the B-mode image data generation unit 51 generates the B-mode image data. A value larger than the data step width may be set as the width D.
  • the frequency analysis unit 42 determines whether or not the data position Z (k) is larger than the maximum value Z (k) max in the sound ray SR k (step S29).
  • the frequency analysis unit 42 increases the counter k by 1 (step S30). This means that the processing is shifted to the next sound ray.
  • the frequency analysis unit 42 returns to step S23.
  • the frequency analysis unit 42 performs an FFT operation on [(Z (k) max ⁇ Z (k) 0 +1) / D + 1] amplitude data groups for the sound ray SR k .
  • [X] represents the maximum integer not exceeding X.
  • step S30 the frequency analysis unit 42 determines whether or not the counter k is larger than the maximum value k max (step S31). When the counter k is greater than k max (step S31: Yes), the frequency analysis unit 42 ends the series of FFT processing. On the other hand, when the counter k is equal to or less than k max (step S31: No), the frequency analysis unit 42 returns to step S22.
  • the frequency analysis unit 42 performs the FFT operation a plurality of times for each of (k max ⁇ k 0 +1) sound rays in the region of interest.
  • the attenuation correction unit 431 performs attenuation correction on the frequency spectrum calculated by the frequency analysis unit 42 (step S9).
  • the attenuation correction unit 431 obtains a new frequency spectrum by performing a correction process for adding the attenuation amount A of the above-described equation (1) to the intensity I for all frequencies f. Thereby, the frequency spectrum which reduced the contribution of attenuation accompanying propagation of an ultrasonic wave can be obtained.
  • a frequency spectrum C 2 shown in FIG. 6 is a curve obtained as a result of performing attenuation correction processing on the frequency spectrum C 1 .
  • the approximation unit 432 approximates the attenuation-corrected frequency spectrum (corrected frequency spectrum) with a linear expression by performing regression analysis in a predetermined frequency band (step S10).
  • the approximating unit 432 calculates the slope a, the intercept b, and the midband fit c as parameters necessary for the feature amount calculation, and writes and stores them in the classification information storage unit 81.
  • the feature quantity calculation unit 43 refers to the classification information storage unit 81 and calculates a feature quantity necessary for classification according to the classification item selected in step S1 (step S11). For example, when tumor screening is selected as the classification item, the feature amount calculation unit 43 calculates the standard deviation Sd.M of the midband fit obtained in the unit region within the region of interest, as shown in FIG.
  • the classification unit 44 classifies the organization attributes using the feature amount calculated by the feature amount calculation unit 43, and assigns a color corresponding to the classification result to each pixel in the region of interest (step S12). For example, as described with reference to FIGS. 8 to 11, the color assignment is determined according to the feature value determined according to the classification item, and is performed for each unit region.
  • the feature amount image data generation unit 52 is based on the pixel color assignment information sent from the classification unit 44 via the control unit 9 for each pixel in the B mode image data generated by the B mode image data generation unit 51. Then, feature amount image data is generated by superimposing colors as visual information (step S13).
  • the display unit 7 displays a feature amount image corresponding to the feature amount image data generated by the feature amount image data generation unit 52 under the control of the control unit 9 (step S14).
  • FIG. 15 is a diagram schematically illustrating a display example of the feature amount image on the display unit 7.
  • a feature amount image 201 shown in the figure includes an examination content display area 202, an image display area 203, and a color characteristic display area 204.
  • the examination content display area 202 is provided at the top of the screen, and displays information such as classification items, feature amounts used for classification, classification attributes, specimen IDs, and terms representing classification attributes for both poles of the color bar (described later).
  • FIG. 15 illustrates a case where the classification item is tumor screening.
  • the image display area 203 displays a composite image in which a color based on the classification result is superimposed on each pixel of the B-mode image.
  • the image display area 203 displays the region of interest 231 and displays attributes in the region of interest 231 in a corresponding color.
  • a red region D 1 and a pink region D 2 are displayed as malignant tumor tissues.
  • the color characteristic display area 204 displays a color bar indicating the relationship between the color displayed in the image display area 203 and the feature value.
  • ⁇ Terms corresponding to the corresponding classification attribute are displayed at the upper and lower poles of this color bar.
  • the classification item is “No. I: tumor screening”, “normal” / “abnormal (malignant)” is displayed as shown in FIG.
  • the classification item is “No. II: malignant / benign discrimination”, “benign” / “malignant” is displayed, and when the classification item is “No. III: follow-up judgment 1”, “benign” / “requires observation”. Is displayed, and when the classification item is “No. IV: follow-up observation determination 2”, “observation required” / “malignant” is displayed.
  • the term indicating the polarity of the color bar and the information indicating the correspondence between the term and the classification item are also stored in advance as part of the classification information before the classification using the feature amount is started. Stored in the unit 81.
  • the image processing unit 5 reads these from the classification information storage unit 81 and classifies the attributes of the tissue.
  • step S4 and the processes of steps S5 to S14 may be performed in parallel to display the B-mode image and the feature image in parallel.
  • a plurality of types of feature amounts are calculated based on the received signal from the specimen, and among the plurality of feature amounts, they are determined according to a pre-selected classification item.
  • Classify tissue attributes to classify specimen tissue attributes using feature values and generate feature image data that assigns visual information corresponding to the classification results to each pixel of the image based on the received signal
  • the user can clearly distinguish the attribute of the tissue of the specimen.
  • the attribute classification is performed using the feature amount obtained by attenuation correction of the frequency spectrum obtained by frequency analysis as an index. Compared to the case where the feature amount calculated without correction is used, each group region in the feature amount space can be obtained in a more clearly separated state, and different attributes can be distinguished from each other.
  • the frequency feature value range necessary for classification, visual information (color and mask) corresponding to the range, and information that associates the range and visual information (color table). are stored in the classification information storage unit 81 in advance as part of the classification information.
  • the classification information in the first embodiment is all information derived from a specimen whose tissue attributes are clear by pathological examination or the like before classification by the classification unit 44.
  • the medical diagnostic apparatus according to the second embodiment of the present invention updates the classification information while accumulating the feature amount of the examination target part in the specimen whose attribute of the examination target tissue is clarified by pathological examination or the like as the known specimen information. It has the function to do.
  • FIG. 16 is a block diagram showing a configuration of an ultrasonic observation apparatus that is a medical diagnosis apparatus according to the second embodiment.
  • the ultrasonic observation apparatus 11 shown in the figure has the same configuration as the ultrasonic observation apparatus 1 described in the first embodiment, except for the calculation unit 12 and the storage unit 13. For this reason, the same components as those of the ultrasonic observation apparatus 1 are described with the same reference numerals as those of the ultrasonic observation apparatus 1.
  • the calculation unit 12 includes an amplification correction unit 41, a frequency analysis unit 42, a feature amount calculation unit 43, a classification unit 44, and a classification information setting unit 121.
  • the classification information setting unit 121 performs a process of updating the classification information when information on a sample whose tissue attribute has been clarified by pathological examination or the like is added as known sample information.
  • the storage unit 13 includes a classification information storage unit 81, an attribute-determined image storage unit 131 that stores B-mode image data including an examination target portion whose attribute has been determined by pathological examination, and the like.
  • a known specimen information storage unit 132 that stores values in association with attributes of tissues of known specimens;
  • FIG. 17 is a flowchart showing an outline of a known specimen information creation process performed by the ultrasound observation apparatus 11 having the above configuration.
  • the known specimen information creation process will be described with reference to the flowchart shown in FIG.
  • control unit 9 reads out the attribute-determined B-mode image data from the attribute-determined image storage unit 131, and causes the display unit 7 to display a B-mode image corresponding to the B-mode image data (step S41).
  • the input unit 6 accepts a setting input of a data acquisition area for creating as known specimen information for the B-mode image being displayed (step S42).
  • the data acquisition area is set as an area having a shape such as a circle, an ellipse, a square, a rectangle, or a sector.
  • the frequency analysis unit 42 performs frequency analysis of the data acquisition area (step S43).
  • the attenuation correction unit 431 performs attenuation correction on the frequency spectrum calculated by the frequency analysis unit 42 (step S44).
  • the approximating unit 432 approximates the attenuation-corrected frequency spectrum with a linear expression by performing regression analysis in a predetermined frequency band (step S45).
  • the frequency analysis processing, attenuation correction processing, and approximation processing here are performed in the same manner as the frequency analysis processing, attenuation correction processing, and approximation processing described in the first embodiment.
  • the feature amount calculation unit 43 calculates a feature amount using a newly calculated parameter added to a group of known samples having the same attribute as a new population (step S46). For example, when the slope a, intercept b, and midband fit c in the data acquisition area are calculated as parameters, the mean Mean S and standard deviation Sd. S of the slope a in the population plus these, the mean Mean I of the intercept b, and Standard deviation Sd.I, average Mean M of midband fit c, and standard deviation Sd.M are calculated as feature quantities.
  • control unit 9 writes and stores the feature quantity calculated by the feature quantity calculation unit 43 in the known specimen information storage unit 132 in association with the attribute (step S47).
  • a new attribute can be added as an attribute. For this reason, even when a certain medical facility wants to define a new attribute based on a different standard from other medical facilities, information on known samples can be accumulated according to the new attribute. In addition, information on known specimens will be accumulated according to new attributes even if there are changes or additions to disease names / tissue names and disease classification methods / tissue classification methods due to revisions to rules such as academic society guidelines and handling standards. be able to.
  • FIG. 18 is a flowchart showing an outline of processing performed by the classification information setting unit 121.
  • the classification information update process performed by the classification information setting unit 121 according to the classification items will be described.
  • the classification information setting unit 121 refers to the known sample information storage unit 132 and acquires known sample information (step S51). Specifically, the classification information setting unit 121 acquires information on the feature amount of each known specimen.
  • the classification information setting unit 121 calculates a direction in which the feature amount of the known specimen is separated (step S52). At this time, the classification information setting unit 121 performs a calculation in which the separation direction is the direction in which the attribute to be determined is best separated when grouped for each tissue attribute of the specimen in the feature amount space.
  • FIG. 19 is a diagram schematically illustrating an outline of the separation direction determination process.
  • FIG. 19 illustrates a case where the separation directions of two groups G 51 and G 52 having different attributes are determined.
  • the point on the feature space to form a group G 51 (indicated by circles), the average value mu 1 distribution 301 as viewed along any axis d 'of the feature space, 1 standard deviation ⁇
  • the average value of the distribution 302 when the points on the feature amount space constituting the group G 52 (indicated by x) are viewed along the axis d ′ is ⁇ 2
  • the standard deviation is ⁇ 2 .
  • the classification information setting unit 121 creates a color table that associates the feature amount with the color assignment (step S53).
  • the classification information setting unit 121 determines the ratio of the tissue attribute of the specimen included in each region for each region having a predetermined width along the separation direction set in step S52, and assigns a color according to the determination result. Create a color table.
  • the classification information setting unit 121 for example along the axis d 'by dividing the area for every width sigma 1/10, and calculates the ratio of tissue attributes for the sample in each region. Thereafter, the classification information setting unit 121 assigns different colors according to the proportion of the points of the group G 51 in each region. For example, when dividing into three regions according to the proportion of the points of the group G 51 , the region where the points of the group G 51 are included 70% or more of the whole and the points of the group G 51 are 30% or more and less than 70% of the whole A color bar is created by assigning different colors to the included area and the area including less than 30% of the points of the group G 51 . Note that the number of divided areas and the assigned colors can be set as appropriate. It is also possible to set an area (mask area) to which no color is assigned.
  • the classification information setting unit 121 writes and stores the created color table as classification information in the classification information storage unit 81 under the control of the control unit 9 (step S54).
  • the feature image generation and display processing performed by the ultrasound observation apparatus 11 is the same as in the first embodiment.
  • the tissue attribute of the specimen based on the optimum feature amount according to the diagnosis content, and the tissue according to the diagnosis content. Can be generated efficiently.
  • the user can clearly distinguish the attribute of the tissue of the specimen, and the classification accuracy can be improved by performing attenuation correction on the ultrasonic signal.
  • the same effect as in the first embodiment can be obtained.
  • the feature quantity of the examination target part in the specimen whose attribute of the examination target tissue is clarified by pathological examination or the like is accumulated as the known specimen information, and the classification information is updated. Therefore, classification with higher accuracy can be performed.
  • the ultrasonic observation apparatus 1 may change the classification items that can be selected according to the type of the ultrasound probe 2 in view of the types of the ultrasound probe 2 depending on the application. Good.
  • the correspondence between the type of the ultrasound probe 2 and selectable classification items may be stored in the classification information storage unit 81.
  • the type of the ultrasound probe 2 provided in the ultrasound observation apparatus 1 has a configuration that the apparatus itself can recognize in advance.
  • the type of the ultrasonic endoscope is set at the end of the ultrasonic endoscope on the processing apparatus connection side. It is only necessary to provide a connection pin for making it discriminate. Thereby, the processing apparatus can determine the kind of ultrasonic endoscope according to the shape of the connection pin of the connected ultrasonic endoscope.
  • the color information for the feature quantity (for example, Mean M value) and the color table that associates the feature value range with the visual information are calculated based on the distribution of the known specimen. It had been.
  • the classification information storage unit 81 included in the storage unit 8 stores the color information and the color table as part of the classification information.
  • the present invention is not limited to this embodiment, and may be configured as follows.
  • the classification information storage unit 81 performs A / D conversion from the received signal by the frequency spectrum, the received signal, or the transmission / reception unit 3 of all the known samples necessary for configuring the distributions of FIGS.
  • the digital RF signal may be stored in advance.
  • the feature amount calculation unit 43 calculates in advance the feature amounts of all known samples from the above information of all known samples, and the classification unit 44 A part of the classification information (that is, the above-described color information and color table) is calculated from the feature amount, and the classification information storage unit 81 stores the classification information again.
  • the information used as “known specimen information” as described above may be information calculated based on a received signal from a specimen whose attribute is known, or the received signal itself. By doing so, the same effect as in the first embodiment of the present invention can be obtained. Furthermore, it goes without saying that this embodiment may be applied to the second embodiment of the present invention.
  • the ultrasonic probe 2 whose use is limited may be limited to the classification items corresponding to the use.
  • Examples of the ultrasonic probe 2 whose use is limited include a miniature probe having a small diameter. This miniature probe is inserted not only into the digestive tract and blood vessels, but particularly into the bile duct and pancreatic duct, and is used for performing the classification item “malignant / benign discrimination” in the table Tb of FIG. For this reason, the ultrasound observation apparatus 1 to which the miniature probe is connected may automatically perform the classification process for the classification item “malignant / benign discrimination”.
  • FIG. 20 is a diagram schematically illustrating an outline of processing when the feature amount calculation unit 43 performs attenuation correction processing after performing frequency spectrum approximation processing.
  • a straight line L 10 illustrated in FIG. 20 is a regression line obtained as a result of the approximation unit 432 approximating the frequency band F of the frequency spectrum C 1 .
  • the attenuation correction unit 431 obtains a straight line L 1 by performing attenuation correction on the straight line L 10 .
  • Feature amount calculation unit 43 the slope of the straight line L 1, and calculates the intercept, and the mid-band fit as the feature amount.
  • a texture feature quantity can be applied as a feature quantity other than the feature quantity calculated by frequency analysis.
  • Texture features include energy of brightness within the region of interest, entropy, correlation, local homogeneity, inertia, short run emphasis, Long run emphasis, concentration level distribution (gray level distribution), run length distribution (run length distribution), run percentage (run percentage), etc. can be mentioned (details are disclosed in, for example, JP-A-4- 236952).
  • the organization attributes may be classified by appropriately combining these texture feature amounts and the feature amounts obtained by frequency analysis.
  • a color or luminance pattern superimposed on the feature amount image may be analyzed to calculate a texture feature amount based on the pattern, and classification may be performed based on the texture feature amount.
  • a luminance table is created that uses luminance as visual information and displays attribute differences depending on the luminance difference. You may make it create.
  • a user such as a doctor may be able to switch classification items during the examination.
  • the control unit 9 may display the selection screen 101 shown in FIG.
  • the classification item “II malignant / benign discrimination” can be performed only with a simple operation during the examination.
  • Follow-up Judgment 2 whether the lesion is malignant or benign, whether to follow up, whether to treat immediately Judgment can be made. This eliminates the need for re-examination for screening after screening, and makes medical treatment very efficient.
  • FIG. 8 to FIG. 10 the classification with one kind of feature amount has been described. This means that classification is possible even if the feature amount space is taken in one dimension.
  • FIG. 11 illustrates the classification with two types of feature amounts. This means that the feature space can be classified in two dimensions.
  • the type of feature quantity used for classification that is, the dimension of the feature quantity space is not limited to these examples, and may be three or more high dimensions.
  • the separation axis d ′′ shown in FIG. 19 is not a one-dimensional area but a partial space in a two-dimensional (plane) or more feature amount space.
  • the average and standard deviation have been described as examples of the statistical quantity serving as the feature quantity.
  • dispersion may be used.
  • the statistics are not limited to these one-dimensional statistics.
  • multi-dimensional statistics such as correlation coefficients, principal axes of inertia, inertia tensors, eigenvalues, and eigenvectors are calculated for the groups G 41 and G 42 . It may be used as a quantity.
  • the feature space is 3D or more, it can be considered that mass points with different masses are distributed in a space of 2D or more. Therefore, the sum of squares calculated by regarding the center of gravity, mass moment, and mass of the distribution as amplitude.
  • a statistic such as (energy) may be calculated and used as a feature amount.
  • X-ray CT Computed Tomography
  • MRI Magnetic Resonance Imaging
  • external ultrasound diagnostic devices that emit ultrasound from the body surface such as the chest and abdomen It can also be realized as a medical diagnostic apparatus.
  • the present invention can include various embodiments and the like without departing from the technical idea described in the claims.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Vascular Medicine (AREA)
  • Physiology (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

 超音波観測装置は、検体から受信した受信信号に基づいて複数種類の特徴量を算出する特徴量算出部と、前記特徴量算出部が算出した前記複数種類の特徴量のうち、予め選択された分類項目に応じて定められる特徴量を用いて前記検体の組織の属性を分類し、分類結果に応じた視覚情報を前記受信信号に基づく画像の各画素に対して割り当てる分類部と、前記受信信号に基づく画像の各画素に割り当てられた前記視覚情報を重畳した特徴量画像データを生成する特徴量画像データ生成部と、を備える。

Description

医用診断装置、医用診断装置の作動方法および医用診断装置の作動プログラム
 本発明は、検体から受信する受信信号を用いて診断用の画像データを生成する医用診断装置、医用診断装置の作動方法および医用診断装置の作動プログラムに関する。
 従来、検体からの受信信号を用いて診断用の画像データを生成する医用診断装置として、画像から複数の学習窓を設定し、異なるテクスチャ領域上に設定された学習窓のテクスチャ特徴量を特徴空間上にプロットし、特徴空間上のテクスチャ特徴量の分布により類似度を算出する基準を設定する技術が開示されている(例えば、特許文献1を参照)。この技術によれば、検体の全組織を自動判別することができ、例えば管腔状臓器の表面や腫瘍などの組織の境界を簡易な方法によって検出することができる。
 具体的に、例えば、検査中の組織が、組織A、組織B、組織C、内腔のうちいずれであるかを自動判別する場合を考える。この技術では、まず、上記4種組織のうち2種を選択する。次に、病理結果がこの2種であった既知の検体の特徴量と、検査中の未知の検体の組織の特徴量とを比較する。次に、検査中の組織の特徴量が既知の2種組織の特徴量のうちどちらに近いかを判別する。こうして、2種組織の組み合わせの選択を変えながら判別を繰り返す。そして、検査中の組織は、上記2種組織のうち複数回の判別結果により最も頻度が高く判別された組織であると判断することで、未知の組織を分類していた。
特開平9-84793号公報
 ところで、医師等のユーザが医用画像を用いて組織の鑑別診断を行う際には、鑑別対象とする組織の属性(組織性状)をある程度絞り込んでいる場合が多い。しかしながら、上述した従来技術では、既知の検体の全種の組織と比較し、分類していたため、既知の組織の種類数が多いと、処理量は非常に大きくなり、分類結果を出力することが非常に遅くなってしまっていた。特に、鑑別対象の組織の属性が絞られている場合には処理量も絞られるはずだが、全種の組織に対して処理を実行するので余計な処理が多く、効率が悪かった。
 本発明は、上記に鑑みてなされたものであって、診断内容に応じて組織が分類された画像データを効率よく生成することができる医用診断装置、医用診断装置の作動方法および医用診断装置の作動プログラムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係る医用診断装置は、検体から受信した受信信号に基づいて複数種類の特徴量を算出する特徴量算出部と、前記特徴量算出部が算出した前記複数種類の特徴量のうち、予め選択された分類項目に応じて定められる特徴量を用いて前記検体の組織の属性を分類し、分類結果に応じた視覚情報を前記受信信号に基づく画像の各画素に対して割り当てる分類部と、前記受信信号に基づく画像の各画素に割り当てられた前記視覚情報を重畳した特徴量画像データを生成する特徴量画像データ生成部と、を備えたことを特徴とする。
 本発明に係る医用診断装置は、上記発明において、前記分類項目に対応する分類対象の組織の属性、分類に用いるべき特徴量の種類、および該特徴量の値に応じた視覚情報を対応づけた情報のうち少なくとも1つを含む分類情報を記憶する分類情報記憶部をさらに備え、前記分類部は、前記分類情報記憶部を参照して前記分類および前記視覚情報の割り当てを行うことを特徴とする。
 本発明に係る医用診断装置は、上記発明において、前記属性が既知である検体からの受信信号および前記受信信号に基づいて算出された情報のうち少なくとも一方を含む既知検体情報を該属性と関連付けて記憶する既知検体情報記憶部と、前記既知検体情報記憶部が記憶する前記既知検体情報を用いて前記分類情報を設定する分類情報設定部と、をさらに備えたことを特徴とする。
 本発明に係る医用診断装置は、上記発明において、前記特徴量算出部は、前記検体の所定の領域から受信した前記受信信号をもとに複数のパラメータを抽出し、該複数のパラメータを用いて特徴量を算出することを特徴とする。
 本発明に係る医用診断装置は、上記発明において、前記特徴量算出部は、前記複数のパラメータのうち同じ種類のパラメータの統計量を前記特徴量として算出することを特徴とする。
 本発明に係る医用診断装置は、上記発明において、前記視覚情報は、色空間を構成する変数であることを特徴とする。
 本発明に係る医用診断装置は、上記発明において、前記視覚情報は、輝度であることを特徴とする。
 本発明に係る医用診断装置は、上記発明において、前記特徴量画像データ生成部が生成した前記特徴量画像データに対応する特徴量画像を表示する表示部をさらに備えたことを特徴とする。
 本発明に係る医用診断装置は、上記発明において、前記分類項目の選択入力を受け付ける入力部をさらに備えたことを特徴とする。
 本発明に係る医用診断装置は、上記発明において、検体に対して超音波を送信するとともに前記検体によって反射された超音波エコーを変換した電気的なエコー信号を前記受信信号として受信する超音波探触子をさらに備えたことを特徴とする。
 本発明に係る医用診断装置は、上記発明において、前記エコー信号の周波数を解析することによって周波数スペクトルを算出する周波数解析部をさらに備え、前記特徴量算出部は、前記周波数スペクトルを用いて前記複数種類の特徴量を算出することを特徴とする。
 本発明に係る医用診断装置は、上記発明において、前記特徴量算出部は、前記受信信号に基づく画像の各画素の輝度に基づいて前記複数種類の特徴量を算出することを特徴とする。
 本発明に係る医用診断装置の作動方法は、検体から受信した受信信号に基づいて診断用の画像データを生成する医用診断装置の作動方法であって、特徴量算出部が、前記受信信号における複数種類の特徴量を算出する特徴量算出ステップと、分類部が、前記複数種類の特徴量のうち、予め選択された分類項目に応じて定められる特徴量を用いて前記検体の組織の属性を分類し、分類結果に応じた視覚情報を前記受信信号に基づく画像の各画素に対して割り当てる分類ステップと、特徴量画像データ生成部が、前記受信信号に基づく画像の各画素に割り当てられた前記視覚情報を重畳した特徴量画像データを生成する特徴量画像データ生成ステップと、を有することを特徴とする。
 本発明に係る医用診断装置の作動プログラムは、検体から受信した受信信号に基づいて診断用の画像データを生成する医用診断装置に、特徴量算出部が、前記受信信号における複数種類の特徴量を算出する特徴量算出ステップと、分類部が、前記複数種類の特徴量のうち、予め選択された分類項目に応じて定められる特徴量を用いて前記検体の組織の属性を分類し、分類結果に応じた視覚情報を前記受信信号に基づく画像の各画素に対して割り当てる分類ステップと、特徴量画像データ生成部が、前記受信信号に基づく画像の各画素に割り当てられた前記視覚情報を重畳した特徴量画像データを生成する特徴量画像データ生成ステップと、を実行させることを特徴とする。
 本発明によれば、検体からの受信信号に基づいて複数種類の特徴量を算出し、この複数の特徴量のうち、予め選択された分類項目に応じて定められる特徴量を用いて検体の組織の属性を分類し、分類結果に応じた視覚情報を受信信号に基づく画像の各画素に対して割り当てた特徴量画像データを生成するため、診断内容に応じて最適な特徴量に基づく検体の組織の属性の分類が可能となり、診断内容に応じて組織が分類された画像データを効率よく生成することができる。
図1は、本発明の実施の形態1に係る医用診断装置である超音波観測装置の構成を示すブロック図である。 図2は、本発明の実施の形態1に係る超音波観測装置の信号増幅部が行う増幅処理における受信深度と増幅率との関係を示す図である。 図3は、本発明の実施の形態1に係る超音波観測装置の増幅補正部が行う増幅処理における受信深度と増幅率との関係を示す図である。 図4は、超音波信号の1つの音線におけるデータ配列を模式的に示す図である。 図5は、本発明の実施の形態1に係る超音波観測装置の周波数解析部が算出する周波数スペクトルの例を示す図である。 図6は、本発明の実施の形態1に係る超音波観測装置の特徴量算出部が行う処理の概要を模式的に示す図である。 図7は、本発明の実施の形態1に係る分類情報記憶部が記憶する分類情報を模式的に示す図である。 図8は、分類項目が腫瘍スクリーニングである場合の分類と色の割り当てを模式的に示す図である。 図9は、分類項目が悪性/良性鑑別である場合の分類と色の割り当てを模式的に示す図である。 図10は、分類項目が経過観察判断1である場合の分類と色の割り当てを模式的に示す図である。 図11は、分類項目が経過観察判断2である場合の分類と色の割り当てを模式的に示す図である。 図12は、本発明の実施の形態1に係る超音波観測装置が行う処理の概要を示すフローチャートである。 図13は、入力部が分類項目の選択入力を受け付ける際に表示部が表示する選択画面の表示例を示す図である。 図14は、本発明の実施の形態1に係る超音波観測装置の周波数解析部が行う処理の概要を示すフローチャートである。 図15は、本発明の実施の形態1に係る超音波観測装置の表示部における特徴量画像の表示例を模式的に示す図である。 図16は、本発明の実施の形態2に係る超音波観測装置の構成を示すブロック図である。 図17は、本発明の実施の形態2に係る超音波観測装置が行う処理の概要を示すフローチャートである。 図18は、本発明の実施の形態2に係る超音波観測装置の分類情報設定部が行う処理の概要を示すフローチャートである。 図19は、本発明の実施の形態2に係る超音波観測装置の分類情報設定部が行う処理の概要を模式的に示す図である。 図20は、本発明の別の実施の形態に係る超音波観測装置の特徴量算出部が行う処理の概要を模式的に示す図である。
 以下、添付図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)を説明する。
(実施の形態1)
 図1は、本発明の実施の形態1に係る医用診断装置である超音波観測装置の構成を示すブロック図である。同図に示す超音波観測装置1は、超音波を用いて診断対象である検体を観測するための装置である。
 超音波観測装置1は、外部へ超音波パルスを出力するとともに、外部で反射された超音波エコーを受信する超音波探触子2と、超音波探触子2との間で電気信号の送受信を行う送受信部3と、超音波エコーを電気信号に変換した電気的なエコー信号に対して所定の演算を施す演算部4と、電気的なエコー信号に対応する画像データの生成を行う画像処理部5と、キーボード、マウス、タッチパネル等のユーザインタフェースを用いて実現され、各種情報の入力を受け付ける入力部6と、液晶または有機EL(Electro Luminescence)等からなる表示パネルを用いて実現され、画像処理部5が生成した画像を含む各種情報を表示する表示部7と、超音波観測に必要な各種情報を記憶する記憶部8と、超音波観測装置1の動作制御を行う制御部9と、を備える。
 超音波観測装置1は、超音波振動子21が設けられる超音波探触子2と、超音波探触子2が着脱可能に接続され、超音波探触子2以外の上記部分が設けられる処理装置(プロセッサ)とによって構成される。ここで、超音波探触子2は、生体の体表から超音波を照射する体外式探触子の形態、消化管、胆膵管、血管等の管腔内に挿入する長軸の挿入部を備えたミニチュア超音波プローブの形態、管腔内超音波プローブに光学系をさらに備えた超音波内視鏡の形態、のいずれの形態であってもよい。このうち、超音波内視鏡をはじめ、管腔内超音波プローブの形態をとった場合には、管腔内超音波プローブの挿入部の先端側に超音波振動子21が設けられ、管腔内超音波プローブは基端側で処理装置と着脱可能に接続する。
 超音波探触子2は、送受信部3から受信した電気的なパルス信号を超音波パルス(音響パルス)に変換するとともに、外部の検体で反射された超音波エコーを電気的なエコー信号に変換する超音波振動子21を有する。超音波探触子2は、超音波振動子21をメカ的に走査させるものであってもよいし、超音波振動子21として複数の素子をアレイ状に設け、送受信にかかわる素子を電子的に切り替えたり、各素子の送受信に遅延をかけたりすることで、電子的に走査させるものであってもよい。本実施の形態1では、超音波探触子2として、互いに異なる複数種類のいずれかの超音波探触子2を選択して使用することが可能である。
 送受信部3は、超音波探触子2と電気的に接続され、電気的なパルス信号を超音波探触子2へ送信するとともに、超音波探触子2から電気的な受信信号であるエコー信号を受信する。具体的には、送受信部3は、予め設定された波形および送信タイミングに基づいて電気的なパルス信号を生成し、この生成したパルス信号を超音波探触子2へ送信する。
 送受信部3は、エコー信号を増幅する信号増幅部31を有する。具体的には、信号増幅部31は、受信深度が大きいエコー信号ほど高い増幅率で増幅するSTC(Sensitivity Time Control)補正を行う。図2は、信号増幅部31が行う増幅処理における受信深度と増幅率との関係を示す図である。図2に示す受信深度zは、超音波の受信開始時点からの経過時間に基づいて算出される量である。図2に示すように、増幅率β(dB)は、受信深度zが閾値zthより小さい場合、受信深度zの増加に伴ってβからβth(>β0)へ線型に増加する。また、増幅率β(dB)は、受信深度zが閾値zth以上である場合、一定値βthをとる。閾値zthの値は、検体から受信する超音波信号がほとんど減衰してしまい、ノイズが支配的になるような値である。より一般に、増幅率βは、受信深度zが閾値zthより小さい場合、受信深度zの増加に伴って単調増加すればよい。
 送受信部3は、信号増幅部31によって増幅されたエコー信号に対してフィルタリング等の処理を施した後、A/D変換することによって時間ドメインのデジタルRF信号を生成して出力する。なお、超音波探触子2が複数の素子をアレイ状に設けた超音波振動子21を電子的に走査させるものである場合、送受信部3は、複数の素子に対応したビーム合成用の多チャンネル回路を有する。
 演算部4は、送受信部3が出力したデジタル高周波(RF:Radio Frequency)信号に対して受信深度によらず増幅率βを一定とするよう増幅補正を行う増幅補正部41と、増幅補正を行ったデジタルRF信号に高速フーリエ変換(FFT:Fast Fourier Transform)を施して周波数解析を行うことにより周波数スペクトルを算出する周波数解析部42と、周波数スペクトルにおける複数種類の特徴量を算出する特徴量算出部43と、予め選択された鑑別対象組織の分類項目に対応する特徴量を用いて検体の組織の属性の分類を行う分類部44と、を有する。演算部4は、CPU(Central Proccesing Unit)や各種演算回路等を用いて実現される。
 図3は、増幅補正部41が行う増幅処理における受信深度と増幅率との関係を示す図である。図3に示すように、増幅補正部41が行う増幅処理における増幅率β(dB)は、受信深度zがゼロのとき最大値βth-β0をとり、受信深度zがゼロから閾値zthに達するまで線型に減少し、受信深度zが閾値zth以上のときゼロである。このように定められる増幅率によって増幅補正部41がデジタルRF信号を増幅補正することにより、信号増幅部31におけるSTC補正の影響を相殺し、一定の増幅率βthの信号を出力することができる。なお、増幅補正部41が行う受信深度zと増幅率βの関係は、信号増幅部31における受信深度と増幅率の関係に応じて異なることは勿論である。
 このような増幅補正を行う理由を説明する。STC補正は、アナログ信号波形の振幅を全周波数帯域にわたって均一に、かつ、深度に対しては単調増加する増幅率で増幅させることで、アナログ信号波形の振幅から減衰の影響を排除する補正処理である。このため、エコー信号の振幅を利用するBモード画像を生成する場合、かつ、一様な組織を走査した場合には、STC補正を行うことによって深度によらず輝度値が一定になる。すなわち、Bモード輝度値から減衰の影響を排除する効果を得ることができる。一方、本実施の形態1のように超音波の周波数スペクトルを算出して解析した結果を利用する場合、STC補正でも超音波の伝播に伴う減衰の影響を正確に排除できるわけではない。何故なら、後述する式(1)のように、減衰量は周波数によって異なるが、STC補正の増幅率は距離だけに対して変化し、周波数に対しては変化せず一定であるためである。減衰量の周波数依存性を含めて、減衰の影響を排除する方法を、「減衰補正処理」として、図6および図12のステップS9に後述する。
 上述した問題、すなわち超音波の周波数スペクトルを算出して解析した結果を利用する場合、STC補正でも超音波の伝播に伴う減衰の影響を正確に排除できるわけではない、という問題を解決するには、Bモード画像を生成する際にSTC補正を施した受信信号を出力する一方、周波数スペクトルに基づいた画像を生成する際に、Bモード画像を生成するための送信とは異なる新たな送信を行い、STC補正を施していない受信信号を出力することが考えられる。ところがこの場合には、受信信号に基づいて生成される画像データのフレームレートが低下してしまうという問題がある。
 そこで、本実施の形態1では、生成される画像データのフレームレートを維持しつつ、Bモード画像用にSTC補正を施した信号に対してSTC補正の影響を排除するために、増幅補正部41によって増幅率の補正を行う。
 周波数解析部42は、エコー信号に基づくデジタルRF信号を増幅補正した信号の各音線(ラインデータ)を、所定の時間間隔でサンプリングした振幅データ群を高速フーリエ変換することによって音線上の複数の箇所(データ位置)における周波数スペクトルを算出する。
 図4は、超音波信号の1つの音線におけるデータ配列を模式的に示す図である。同図に示す音線データSRkにおいて、白または黒の長方形は、1つのデータを意味している。音線データSRkは、送受信部3が行うA/D変換におけるサンプリング周波数(例えば50MHz)に対応した時間間隔で離散化されている。図4では、番号k(後述)の音線データSRkの1番目のデータ位置を受信深度zの方向の初期値Z(k) 0として設定した場合を示しているが、初期値の位置は任意に設定することができる。周波数解析部42による算出結果は複素数で得られ、記憶部8に格納される。
 図4に示すデータ群Fj(j=1、2、・・・、K)は、高速フーリエ変換の対象となる振幅データ群である。一般に、高速フーリエ変換を行うためには、振幅データ群が2のべき乗のデータ数を有している必要がある。この意味で、振幅データ群Fj(j=2、・・・、K-1)はデータ数が16(=24)で正常なデータ群である一方、振幅データ群F1、FKは、それぞれデータ数が9、12であるため異常なデータ群である。異常なデータ群に対して高速フーリエ変換を行う際には、不足分だけゼロデータを挿入することにより、正常な振幅データ群を生成する処理を行う。この点については、後述する周波数解析部42の処理を説明する際に詳述する(図14を参照)。
 図5は、周波数解析部42によって算出される周波数スペクトルの例を示す図である。具体的には、図5で例示した「周波数スペクトル」とは、振幅データ群を高速フーリエ変換(FFT演算)することによって得られた「ある受信深度zにおける強度の周波数分布」を意味する。ここでいう「強度」とは、例えばエコー信号の電圧、エコー信号の電力、超音波エコーの音圧、超音波エコーの音響エネルギー等のパラメータ、これらパラメータの振幅や時間積分値やその組み合わせのいずれかを指す。図5では、横軸には周波数fを取っている。縦軸には、強度Iを特定の基準強度Ic(定数)で除し、さらに常用対数をとった強度のデシベル表現log10(I/Ic)を取っている。ただし、図5および以下では記述を簡単にするため、以下、デシベル表現された強度も単にIと記載する。図5において、受信深度zは一定である。なお、本実施の形態1において、曲線および直線は、離散的な点の集合からなる。
 図5に示す周波数スペクトルC1において、以後の演算に使用する周波数帯域の下限周波数fLおよび上限周波数fHは、超音波振動子21の周波数帯域、送受信部3が送信するパルス信号の周波数帯域などをもとに決定されるパラメータであり、例えばfL=3MHz、fH=10MHzである。以下、下限周波数fLおよび上限周波数fHから定まる周波数帯域を「周波数帯域F」という。
 一般に、周波数スペクトルは、超音波が走査された組織の属性によって異なる傾向を示す。これは、周波数スペクトルが、超音波を散乱する散乱体の大きさ、数密度、音響インピーダンス等と相関を有しているためである。本実施の形態1において、「属性」とは、例えば悪性腫瘍組織、良性腫瘍組織、内分泌腫瘍組織、粘液性腫瘍組織、正常組織、脈管などのことである。
 特徴量算出部43は、超音波の受信深度および周波数に依存する超音波の減衰の影響を補正する減衰補正処理を施す減衰補正部431と、減衰補正後の周波数スペクトルの近似式を回帰分析によって算出する近似部432と、を有する。
 図6は、特徴量算出部43が行う処理の概要を模式的に示す図である。図6では、図5に示す周波数スペクトルC1に対して特徴量算出を行う場合を例示している。まず、減衰補正部431は、周波数スペクトルC1に対し、すべての周波数fにおける強度I(f,z)に式(1)の減衰量A(f,z)をそれぞれ加える補正(I(f,z)→I(f,z)+A(f,z))を行う。この超音波の減衰量A(f,z)は、超音波が受信深度0と受信深度zとの間を往復する間に生じる減衰であり、往復する前後の強度変化(デシベル表現での差)として定義される。このA(f,z)は、一様な組織内では周波数に比例することが経験的に知られており、比例係数をαとして、式(1)で表現される。
  A(f,z)=2αzf  ・・・(1)
ここで、αは減衰率と呼ばれる。また、zは超音波の受信深度であり、fは周波数である。
 減衰率αの具体的な値は、観察対象が生体である場合、0.0~1.0(dB/cm/MHz)、より好ましくは0.3~0.7(dB/cm/MHz)であり、生体の部位に応じて定まる。例えば、観察対象が膵臓である場合には、α=0.6(dB/cm/MHz)と定めることがある。なお、本実施の形態1において、減衰率αの値を入力部6からの入力によって設定または変更可能な構成としてもよい。
 図6に示す周波数スペクトルC2は、減衰補正処理によって超音波の伝播に伴う減衰の影響を補正した結果として得られる新たな周波数スペクトルである。
 近似部432は、周波数スペクトルC2の周波数帯域Fにおける回帰分析を行って周波数スペクトルC2を一次式(回帰直線)で近似することにより、特徴量の算出に必要なパラメータを抽出する。この場合に抽出されるパラメータは、図6に示す回帰直線L1の傾きaおよび切片b、ならびに周波数帯域Fの中心周波数fM=(fL+fH)/2における回帰直線上の値であるミッドバンドフィット(Mid-band fit)c=afM+bである。
 3つの特徴量のうち、傾きaは、超音波の散乱体の大きさと相関を有し、一般に散乱体が大きいほど傾きが小さな値を有すると考えられる。また、切片bは、散乱体の大きさ、音響インピーダンスの差、散乱体の数密度(濃度)等と相関を有している。具体的には、切片bは、散乱体が大きいほど大きな値を有し、音響インピーダンスの差が大きいほど大きな値を有し、散乱体の数密度(濃度)が大きいほど大きな値を有すると考えられる。ミッドバンドフィットcは、傾きaと切片bから導出される間接的なパラメータであり、有効な周波数帯域内の中心におけるスペクトルの強度を与える。このため、ミッドバンドフィットcは、散乱体の大きさ、音響インピーダンスの差、散乱体の数密度に加えて、Bモード画像の輝度とある程度の相関を有していると考えられる。なお、近似部432が算出する近似式は一次式に限定されるわけではなく、二次以上の多項式を用いることも可能である。
 特徴量算出部43は、所定の関心領域内で算出した検体のパラメータを用いて複数種類の特徴量を算出可能である。具体的には、特徴量算出部43は、関心領域内で設定される複数の単位領域(判別窓ともいう)において近似部432が算出した傾きa、切片b、およびミッドバンドフィットcの平均および標準偏差を算出する。関心領域内の複数の単位領域は、互いに同じ大きさ(画素数)を有している。この大きさは、入力部6が設定入力を受け付けることによって予め設定され、記憶部8に格納されている。なお、特徴量算出部43が算出する特徴量として、以下では傾きa、切片b、ミッドバンドフィットcの平均および標準偏差を例示して説明するが、平均および標準偏差以外の分散やエントロピーのような統計量を適用してもよい。
 以下、傾きaの平均をMean S、標準偏差をSd. Sとし、切片bの平均をMean I、標準偏差をSd. Iとし、ミッドバンドフィットcの平均をMean M、標準偏差をSd. Mとする。
 分類部44は、特徴量算出部43が算出可能な複数種類の特徴量のうち、予め選択された分類項目に対応する特徴量を用いて分類を行い、分類結果に応じた視覚情報としての色(色相)を電気的なエコー信号から生成される画像の各画素に割り当てる。なお、分類部44が各画素に割り当てる視覚情報は色相に限られるわけではなく、色空間を構成する変数であればいかなるものであっても構わない。このような色空間として、例えば色相に明度および彩度を加えたマンセル表色系を採用してもよいし、R(赤)、G(緑)、B(青)を変数とするRGB表色系を採用してもよい。
 画像処理部5は、エコー信号からBモード画像データを生成するBモード画像データ生成部51と、特徴量算出部43が抽出した特徴量に対応する情報を表示する特徴量画像データを生成する特徴量画像データ生成部52と、を有する。
 Bモード画像データ生成部51は、デジタル信号に対してバンドパスフィルタ、対数変換、ゲイン処理、コントラスト処理等の公知の技術を用いた信号処理を行うとともに、表示部7における画像の表示レンジに応じて定まるデータステップ幅に応じたデータの間引き等を行うことによってBモード画像データを生成する。Bモード画像は、色空間としてRGB表色系を採用した場合の変数であるR(赤)、G(緑)、B(青)の値を一致させたグレースケール画像である。
 特徴量画像データ生成部52は、分類部44によって画素ごとに割り当てられた視覚情報をBモード画像データにおける画像の各画素に対して重畳することによって特徴量画像データを生成する。特徴量画像データ生成部52は、例えば図4に示す1つの振幅データ群Fj(j=1、2、・・・、K)のデータ量に対応する画素領域には、その振幅データ群Fjから算出される周波数スペクトルの特徴量に対応する視覚情報が割り当てられる。
 記憶部8は、分類情報記憶部81を有する。分類情報記憶部81は、分類対象である組織の属性を分類し、特徴量画像データ生成部52が特徴量画像データを生成する際に必要な分類結果の情報を記憶する。また、分類情報記憶部81は、特徴量を算出する際の単位領域に関する情報も記憶する。
 図7は、分類情報記憶部81が記憶する分類情報を模式的に示す図である。同図に示すテーブルTbは、分類項目の列に、分類の目的が割り当てられている。また、分類項目ごとに、分離対象の組織の属性と分類に用いる特徴量が対応づけられている。また、各分類項目では、特徴量画像を表示する際に画素に対して割り当てられる視覚情報としての色(色相)と特徴量の値(値域)とが対応づけられている。以下、図7に例示される分類項目ごとの分類項目を具体的に説明する。
 (1)分類項目が腫瘍スクリーニングの場合
 分類対象の属性(分類属性)は正常組織と悪性腫瘍組織であり、分類に使用する特徴量はミッドバンドフィットの標準偏差Sd. Mである。この場合、特徴量の値が0≦Sd. M<M11である画素には赤が割り当てられ、M11≦Sd. M<M12である組織に対応する画素にはピンクが割り当てられる。これに対して、特徴量の値がSd. M≧M12である画素には色が割り当てられない(図7では「マスク」と記載)。色が割り当てられない範囲の特徴量に対応する組織は、正常組織である。この意味でSd. M=M12は、正常組織と悪性腫瘍組織とを分離するための閾値である。特徴量と色の対応づけは、例えば、悪性腫瘍組織における腫瘍の程度に応じて設定される。
 図8は、分類項目が腫瘍スクリーニングである場合の分類と色の割り当てを模式的に示す図である。図8では、横軸がミッドバンドフィットの標準偏差Sd. Mであり、縦軸がミッドバンドフィットの平均Mean Mである特徴量空間における既知検体の特徴量分布を散布図で示すとともに、特徴量の値と画素に割り当てる色との関係を模式的に示している。既知検体とは、本実施の形態1で新たな検体を検査する以前に、病理検査等により、予め組織の属性が明らかになっている別の検体である。また、図8では、矢印A11が赤を割り当てる特徴量Sd. Mの範囲を示し、矢印A12がピンクを割り当てる特徴量Sd. Mの範囲を示し、矢印A13が色を割り当てない特徴量Sd. Mの範囲を示している。
 図8に示す特徴量空間において、既知検体は属性によって2つのグループG11、G12に大別される。グループG11は悪性腫瘍組織のグループであり、グループG12は正常組織のグループである。グループG11とグループG12は、横軸Sd. Mの方向ではSd. M=M12で明確に分離する一方、縦軸Mean Mの方向では分離していない。このように、分類項目が腫瘍スクリーニングの場合、特徴量としてミッドバンドフィットの標準偏差Sd. Mを採用することによって検体の組織の属性を正確に分類することができる。
 上述のM11、M12に相当するミッドバンドフィットの平均Mean Mの値、矢印A11、A12、A13に対する色の情報、および、これらMean Mの値域と視覚情報(色とマスク)との間を対応づける情報(以下、カラーテーブルという)は、特徴量を用いた分類が開始される前に、複数種の組織の属性のいずれに属するかが病理検査等によって明らかになっている複数群の既知検体の分布を基にして、図示しない外部処理装置、もしくは、特徴量算出部43と分類部44のいずれか、もしくは、両方によって算出されている。そして、分類情報の一部として、予め、分類情報記憶部81に記憶されている。分類部44は、分類を開始する際に、これらを分類情報記憶部81から読み出し、組織の属性の分類を行う。
 (2)分類項目が悪性/良性鑑別の場合
 分類対象の属性は悪性腫瘍組織と良性腫瘍組織であり、分類に使用する特徴量はミッドバンドフィットの平均Mean Mである。この場合、特徴量の値が0≦Mean M<M21である画素には色が割り当てられない。これに対し、特徴量の値がM21≦Mean M<M22である画素には青が割り当てられ、M22≦Mean M<M23である画素には水色が割り当てられ、M23≦Mean M<M24である画素には黄色が割り当てられ、M24≦Mean M<M25である画素にはピンクが割り当てられ、Mean M≧M25である画素には赤が割り当てられる。
 図9は、分類項目が悪性/良性鑑別である場合の分類と色の割り当てを模式的に示す図である。図9では、横軸がミッドバンドフィットの標準偏差Sd. Mであり、縦軸がミッドバンドフィットの平均Mean Mである特徴量空間における既知検体の特徴量分布を散布図で示すとともに、特徴量の値と画素に割り当てる色との関係を模式的に示している。既知検体とは、本実施の形態1で新たな検体を検査する以前に、病理検査等により、予め組織の属性が明らかになっている別の検体である。また、図9では、矢印A21が色を割り当てない範囲を示し、矢印A22が青を割り当てる範囲を示し、矢印A23が水色を割り当てる範囲を示し、矢印A24が黄色を割り当てる範囲を示し、矢印A25がピンクを割り当てる範囲を示し、矢印A26が赤を割り当てる範囲を示している。
 図9に示す特徴量空間において、既知検体は属性によって2つのグループG21、G22に大別される。グループG21は良性腫瘍組織のグループであり、グループG22は悪性腫瘍組織のグループである。グループG21とグループG22は、縦軸Mean Mの方向ではMean M=M24で明確に分離する一方、横軸Sd. Mの方向では分離していない。このように、分類項目が悪性/良性鑑別である場合、ミッドバンドフィットの平均Mean Mを採用することによって検体の組織の属性を正確に分類することができる。分類項目が悪性/良性鑑別である場合、特徴量画像では悪性腫瘍組織と良性腫瘍組織を鑑別可能に表示するのが好ましい。そのため、図9では、グループG21、G22にそれぞれ別の色を割り当てている。
 上述のM21、M22、M23、M24、M25に相当するミッドバンドフィットの平均Mean Mの値、矢印A21、A22、A23、A24、A25、A26に対する色の情報、および、これらMean Mの値域と視覚情報(色とマスク)との間を対応づける情報(カラーテーブル)は、特徴量を用いた分類が開始される前に、複数種の組織の属性のいずれに属するかが病理検査等によって明らかになっている複数群の既知検体の分布を基にして、図示しない外部処理装置、もしくは、特徴量算出部43と分類部44のいずれか、もしくは、両方によって算出されている。そして、分類情報の一部として、予め、分類情報記憶部81に記憶されている。分類部44は、分類を開始する際に、これらを分類情報記憶部81から読み出し、組織の属性の分類を行う。
 (3)分類項目が経過観察判断1の場合
 分類対象の属性は要経過観察組織と良性腫瘍組織であり、分類に使用する特徴量は切片の標準偏差Sd. Iである。この場合、特徴量の値が0≦Sd. I<I1には赤が割り当てられ、I1≦Sd. I<I2である画素にはピンクが割り当てられ、I2≦Sd. I<I3である画素には水色が割り当てられ、I3≦Sd. I<I4である画素には青が割り当てられる。これに対し、特徴量の値がSd. I≧I4である画素には色が割り当てられない。
 図10は、分類項目が経過観察判断1である場合の分類と色の割り当てを模式的に示す図である。図10では、横軸が切片の標準偏差Sd. Iであり、縦軸が切片の平均Mean Iである特徴量空間における既知検体の特徴量分布を散布図で示すとともに、特徴量の値と画素に割り当てる色との関係を模式的に示している。既知検体とは、本実施の形態1で新たな検体を検査する以前に、病理検査等により、予め組織の属性が明らかになっている別の検体である。また、図10では、矢印A31が赤を割り当てる範囲を示し、矢印A32がピンクを割り当てる範囲を示し、矢印A33が水色を割り当てる範囲を示し、矢印A34が青を割り当てる範囲を示し、矢印A35が色を割り当てない範囲を示している。
 図10に示す特徴量空間において、既知検体は属性によって2つのグループG31、G32に大別される。グループG31は要経過観察組織のグループであり、グループG32は良性腫瘍組織のグループである。グループG31とグループG32は、横軸Sd. Iの方向ではSd. I=I2で明確に分離する一方、縦軸Mean Iの方向では分離していない。このように、経過観察判断1を行う場合、切片の標準偏差Sd. Iを採用することによって検体の組織の属性を正確に分類することができる。分類項目が経過観察判断1である場合、特徴量画像では要経過観察組織と良性腫瘍組織を鑑別可能に表示するのが好ましい。そのため、図10では、グループG31、G32にそれぞれ別の色を割り当てている。
 上述のI1、I2、I3、I4に相当する切片の標準偏差Sd. Iの値、矢印A31、A32、A33、A34、A35に対する色の情報、および、これらSd. Iの値域と視覚情報(色とマスク)との間を対応づける情報(カラーテーブル)は、特徴量を用いた分類が開始される前に、複数種の組織の属性のいずれに属するかが病理検査等によって明らかになっている複数群の既知検体の分布を基にして、図示しない外部処理装置、もしくは、特徴量算出部43と分類部44のいずれか、もしくは、両方によって算出されている。そして、分類情報の一部として、予め、分類情報記憶部81に記憶されている。分類部44は、分類を開始する際に、これらを分類情報記憶部81から読み出し、組織の属性の分類を行う。
 (4)分類項目が経過観察判断2の場合
 分類対象の属性は要経過観察組織と悪性腫瘍組織であり、分類に使用する特徴量はミッドバンドフィットの平均Mean Mおよび切片の標準偏差Sd. Iの関数として算出されるd(Mean M, Sd. I)である(以下、単にdと記載する)。このdは、具体的には2つの特徴量Mean MとSd. Iの線型結合として定義される。この場合、特徴量dの値が0≦d<d1である画素には赤が割り当てられ、d1≦d<d2である画素にはピンクが割り当てられ、d2≦d<d3である画素には緑が割り当てられ、d3≦d<d4である画素には黄色が割り当てられる。これに対し、特徴量の値がd≧d4の画素には色が割り当てられない。
 図11は、分類項目が経過観察判断2である場合の分類と色の割り当てを模式的に示す図である。図11では、横軸がミッドバンドフィットの平均Mean Mであり、縦軸が切片の標準偏差Sd. Iである特徴量空間における既知検体の特徴量分布を散布図で示すとともに、特徴量の値と画素に割り当てる色との関係を模式的に示している。既知検体とは、本実施の形態1で新たな検体を検査する以前に、病理検査等により、予め組織の属性が明らかになっている別の検体である。また、図11では、矢印A41が赤を割り当てる範囲を示し、矢印A42がピンクを割り当てる範囲を示し、矢印A43が緑を割り当てる範囲を示し、矢印A44が黄色を割り当てる範囲を示し、矢印A45が色を割り当てない範囲を示している。
 図11に示す特徴量空間において、既知検体は属性によって2つのグループG41、G42に大別される。グループG41は要経過観察組織のグループであり、グループG42は悪性腫瘍組織のグループである。グループG41とグループG42は、横軸Mean Mおよび縦軸Sd. Iと異なる軸であって横軸Mean Mおよび縦軸Sd. Iと原点で交わる軸である軸dの方向ではd=d2で明確に分離する一方、横軸Mean Mおよび縦軸Sd. Iの方向では分離していない。なお、ここで、特徴量dの値は、軸dに沿った原点からの距離で定義する。このように、分類項目が経過観察判断2である場合、ミッドバンドフィットの平均Mean Mおよび切片の標準偏差Sd. Iの線型結合である特徴量d(Mean M,Sd. I)を採用することによって検体の組織の属性を正確に分類することができる。分類項目が経過観察判断2である場合、特徴量画像では要経過観察組織と良性腫瘍組織を鑑別可能に表示するのが好ましい。そのため、図11では、グループG41、G42にそれぞれ別の色を割り当てている。
 ミッドバンドフィットの平均Mean Mと切片の標準偏差Sd. Iとの特徴量dに対する、各割合(すなわち、軸dの方向)、上述のd1、d2、d3、d4に相当する特徴量dの値、矢印A41、A42、A43、A44、A45に対する色の情報、および、これらdの値域と視覚情報(色とマスク)との間を対応づける情報(カラーテーブル)は、特徴量を用いた分類が開始される前に、複数種の組織の属性のいずれに属するかが病理検査等によって明らかになっている複数群の既知検体の分布を基にして、図示しない外部処理装置、もしくは、特徴量算出部43と分類部44のいずれか、もしくは、両方によって算出されている。そして、分類情報の一部として、予め、分類情報記憶部81に記憶されている。分類部44は、分類を開始する際に、これらを分類情報記憶部81から読み出し、組織の属性の分類を行う。
 記憶部8は、上記以外にも、例えば増幅処理に必要な情報(図2に示す増幅率と受信深度との関係)、増幅補正処理に必要な情報(図3に示す増幅率と受信深度との関係)、減衰補正処理に必要な情報(式(1)参照)、周波数解析処理に必要な窓関数(Hamming、Hanning、Blackman等)の情報を記憶する。
 また、記憶部8は、超音波観測装置1(医用診断装置)の作動方法を実行するための作動プログラムを記憶する。この作動プログラムは、ハードディスク、フラッシュメモリ、CD-ROM、DVD-ROM、フレキシブルディスク等のコンピュータ読み取り可能な記録媒体に記録して広く流通させることも可能である。各種プログラムの記録媒体等への記録は、コンピュータまたは記録媒体を製品として出荷する際に行ってもよいし、通信ネットワークを介したダウンロードにより行ってもよい。
 以上の構成を有する記憶部8は、各種プログラム等が予めインストールされたROM(Read Only Memory)、および各処理の演算パラメータやデータ等を記憶するRAM(Random Access Memory)等を用いて実現される。上述した各種プログラムは、通信ネットワークを介してダウンロードすることによって取得することも可能である。ここでいう通信ネットワークは、例えば既存の公衆回線網、LAN(Local Area Network)、WAN(Wide Area Network)などによって実現されるものであり、有線、無線を問わない。
 制御部9は、演算および制御機能を有するCPU(Central Proccesing Unit)や各種演算回路等を用いて実現される。制御部9は、記憶部8が記憶、格納する情報および超音波観測装置1の作動プログラムを含む各種プログラムを記憶部8から読み出すことにより、超音波観測装置1の作動方法に関連した各種演算処理を実行することによって超音波観測装置1を統括して制御する。なお、制御部9と演算部4を、共通のCPU等を用いて構成することも可能である。
 図12は、以上の構成を有する超音波観測装置1が行う処理の概要を示すフローチャートである。まず、入力部6が分類項目の選択入力を受け付ける(ステップS1)。図13は、入力部6が分類項目の選択入力を受け付ける際に表示部7が表示する選択画面の表示例を示す図である。図13に示す選択画面101は、分類項目と分類対象の組織の属性(分類属性)が表示されている。選択画面101には、現在選択されている分類項目を示す枠カーソル102が表示される。図13では、分類項目として「腫瘍スクリーニング」が選択された状態を示している。ユーザは、マウス等を用いて枠カーソル102を所望の分類項目へ移動させた後、マウスをクリックして選択を確定することによって選択入力を完了する。入力部6は、受け付けた選択入力信号を制御部9へ出力する。
 続いて、超音波観測装置1は、まず超音波探触子2によって新規の検体の測定を行う(ステップS2)。具体的には、超音波探触子2の超音波振動子21は、電気的なパルス信号を超音波パルスへ変換し、検体へ順次送信する。超音波パルスは検体によってそれぞれ反射され、超音波エコーが生じる。超音波振動子21は、超音波エコーを電気的なエコー信号に変換する。この際、パルス信号の周波数帯域は、超音波振動子21におけるパルス信号の超音波パルスへの電気音響変換の線形応答周波数帯域をほぼカバーする広帯域にするとよい。それにより、後述する周波数スペクトルの近似処理において、精度のよい近似を行うことが可能となる。
 超音波探触子2からエコー信号を受信した信号増幅部31は、そのエコー信号の増幅を行う(ステップS3)。ここで、信号増幅部31は、例えば図2に示す増幅率と受信深度との関係に基づいてエコー信号の増幅(STC補正)を行う。この際、信号増幅部31におけるエコー信号の各種処理周波数帯域は、超音波振動子21による超音波エコーのエコー信号への音響電気変換の線形応答周波数帯域をほぼカバーする広帯域にするとよい。これも、後述する周波数スペクトルの近似処理において精度のよい近似を行うことを可能とするためである。
 続いて、Bモード画像データ生成部51は、信号増幅部31が増幅したエコー信号を用いてBモード画像データを生成する(ステップS4)。なお、このステップS4の後、制御部9が、生成したBモード画像データに対応するBモード画像を表示部7に表示させる制御を行ってもよい。
 増幅補正部41は、送受信部3から出力された信号に対して受信深度によらず増幅率が一定となる増幅補正を行う(ステップS5)。ここで、増幅補正部41は、例えば図3に示す増幅率と受信深度との関係に基づいて増幅補正を行う。
 この後、入力部6を介して関心領域の設定がなされた場合(ステップS6:Yes)、周波数解析部42は、FFT演算による周波数解析を行うことによって周波数スペクトルを算出する(ステップS7)。このステップS7では、画像の全領域を関心領域として設定することも可能である。一方、関心領域の設定がなされていない場合(ステップS6:No)において、入力部6が処理を終了する指示の入力を受け付けたとき(ステップS8:Yes)、超音波観測装置1は処理を終了する。これに対し、関心領域の設定がなされていない場合(ステップS6:No)において、入力部6が処理を終了する指示の入力を受け付けないとき(ステップS8:No)、超音波観測装置1はステップS6へ戻る。
 図14は、ステップS7において周波数解析部42が実行する処理の概要を示すフローチャートである。以下、図14に示すフローチャートを参照して、周波数解析処理を詳細に説明する。まず、周波数解析部42は、解析対象の音線を識別するカウンタkをk0とする(ステップS21)。
 続いて、周波数解析部42は、FFT演算用に取得する一連のデータ群(振幅データ群)を代表するデータ位置(受信深度に相当)Z(k)の初期値Z(k) 0を設定する(ステップS22)。例えば、図4では、上述したように、音線SRkの1番目のデータ位置を初期値Z(k) 0として設定した場合を示している。
 その後、周波数解析部42は、データ位置Z(k)が属する振幅データ群を取得し(ステップS23)、取得した振幅データ群に対し、記憶部8が記憶する窓関数を作用させる(ステップS24)。このように振幅データ群に対して窓関数を作用させることにより、振幅データ群が境界で不連続になることを回避し、アーチファクトが発生するのを防止することができる。
 続いて、周波数解析部42は、データ位置Z(k)の振幅データ群が正常なデータ群であるか否かを判定する(ステップS25)。図4を参照した際に説明したように、振幅データ群は、2のべき乗のデータ数を有している必要がある。以下、正常な振幅データ群のデータ数を2n(nは正の整数)とする。本実施の形態1では、データ位置Z(k)は、できるだけZ(k)が属する振幅データ群の中心になるよう設定される。具体的には、振幅データ群のデータ数は2nであるので、Z(k)はその振幅データ群の中心に近い2n/2(=2n-1)番目の位置に設定される。換言すると、振幅データ群が正常であるとは、データ位置Z(k)の前方に2n-1-1(=Nとする)個のデータがあり、データ位置Z(k)の後方に2n-1(=Mとする)個のデータがあることを意味する。図4に示す場合、振幅データ群F2、F3はともに正常である。なお、図4ではn=4(N=7,M=8)の場合を例示している。
 ステップS25における判定の結果、データ位置Z(k)の振幅データ群が正常である場合(ステップS25:Yes)、周波数解析部42は、後述するステップS27へ移行する。
 ステップS25における判定の結果、データ位置Z(k)の振幅データ群が正常でない場合(ステップS25:No)、周波数解析部42は、不足分だけゼロデータを挿入することによって正常な振幅データ群を生成する(ステップS26)。ステップS25において正常でないと判定された振幅データ群(例えば図4の振幅データ群F1、FK)は、ゼロデータを追加する前に窓関数が作用されている。このため、振幅データ群にゼロデータを挿入してもデータの不連続は生じない。ステップS26の後、周波数解析部42は、後述するステップS27へ移行する。
 ステップS27において、周波数解析部42は、振幅データ群を用いてFFT演算を行うことにより、振幅の周波数分布である周波数スペクトルを得る(ステップS27)。この結果を、例えば図5に示す。
 続いて、周波数解析部42は、データ位置Z(k)をステップ幅Dで変化させる(ステップS28)。ステップ幅Dは、記憶部8が予め記憶しているものとする。図4では、D=15の場合を例示している。ステップ幅Dは、Bモード画像データ生成部51がBモード画像データを生成する際に利用するデータステップ幅と一致させることが望ましいが、周波数解析部42における演算量を削減したい場合には、ステップ幅Dとしてデータステップ幅より大きい値を設定してもよい。
 その後、周波数解析部42は、データ位置Z(k)が音線SRkにおける最大値Z(k) maxより大きいか否かを判定する(ステップS29)。データ位置Z(k)が最大値Z(k) maxより大きい場合(ステップS29:Yes)、周波数解析部42はカウンタkを1増加させる(ステップS30)。これは、処理をとなりの音線へ移すことを意味する。一方、データ位置Z(k)が最大値Z(k) max以下である場合(ステップS29:No)、周波数解析部42はステップS23へ戻る。このようにして、周波数解析部42は、音線SRkに対して、[(Z(k) max-Z(k) 0+1)/D+1]個の振幅データ群に対するFFT演算を行う。ここで、[X]は、Xを超えない最大の整数を表す。
 ステップS30の後、周波数解析部42は、カウンタkが最大値kmaxより大きいか否かを判定する(ステップS31)。カウンタkがkmaxより大きい場合(ステップS31:Yes)、周波数解析部42は一連のFFT処理を終了する。一方、カウンタkがkmax以下である場合(ステップS31:No)、周波数解析部42はステップS22に戻る。
 このようにして、周波数解析部42は、関心領域内の(kmax-k0+1)本の音線の各々について複数回のFFT演算を行う。
 この後、減衰補正部431は、周波数解析部42が算出した周波数スペクトルに対して減衰補正を行う(ステップS9)。減衰補正部431は、上述した式(1)の減衰量Aを強度Iに加える補正処理を全ての周波数fに対して行うことにより、新たな周波数スペクトルを得る。これにより、超音波の伝播に伴う減衰の寄与を削減した周波数スペクトルを得ることができる。図6に示す周波数スペクトルC2は、周波数スペクトルC1に対して減衰補正処理を施した結果として得られる曲線である。
 続いて、近似部432は、減衰補正した周波数スペクトル(補正周波数スペクトル)を所定の周波数帯域で回帰分析することによって一次式で近似する(ステップS10)。この近似処理において、近似部432は、特徴量算出に必要なパラメータとして、傾きa、切片b、およびミッドバンドフィットcを算出し、分類情報記憶部81へ書き込んで記憶させる。
 この後、特徴量算出部43は、分類情報記憶部81を参照して、ステップS1で選択した分類項目に応じて分類に必要な特徴量を算出する(ステップS11)。例えば、分類項目として腫瘍スクリーニングが選択された場合、図7に示す通り、特徴量算出部43は、関心領域内の単位領域で得られたミッドバンドフィットの標準偏差Sd. Mを算出する。
 分類部44は、特徴量算出部43が算出した特徴量を用いて組織の属性の分類を行い、分類結果に応じた色を関心領域内の各画素に対して割り当てる(ステップS12)。この色の割り当ては、例えば図8~図11を参照して説明したように、分類項目に応じて定められる特徴量の値に応じて定められ、単位領域ごとに行われる。
 特徴量画像データ生成部52は、Bモード画像データ生成部51が生成したBモード画像データにおける各画素に対し、制御部9を介して分類部44から送られてくる画素の色割り当て情報に基づいて視覚情報としての色を重畳することによって特徴量画像データを生成する(ステップS13)。
 この後、表示部7は、制御部9の制御の下、特徴量画像データ生成部52が生成した特徴量画像データに対応する特徴量画像を表示する(ステップS14)。
 図15は、表示部7における特徴量画像の表示例を模式的に示す図である。同図に示す特徴量画像201は、検査内容表示領域202と、画像表示領域203と、色特性表示領域204とを有する。
 検査内容表示領域202は、画面上部に設けられ、分類項目、分類に用いる特徴量、分類属性、検体ID、カラーバーの両極に対する分類属性を表す用語(後述)等の情報を表示する。図15では、分類項目が腫瘍スクリーニングである場合を例示している。
 画像表示領域203は、Bモード画像の各画素に対して分類結果に基づく色を重畳した合成画像を表示する。画像表示領域203は、関心領域231を表示するとともに、関心領域231内の属性を対応する色で表示する。図15では、悪性腫瘍組織として、赤色の領域D1およびピンク色の領域D2を表示している。
 色特性表示領域204は、画像表示領域203で表示する色と特徴量の値との関係を示すカラーバーを表示する。
 このカラーバーの上下の両極には、対応する分類属性に応じた用語が表示される。分類項目が「No.I:腫瘍スクリーニング」のときには、図15に示すように、「正常」/「異常(悪性)」と表示される。また、分類項目が「No.II:悪性/良性鑑別」のときには「良性」/「悪性」と表示され、分類項目が「No.III:経過観察判断1」のときには「良性」/「要観察」と表示され、分類項目が「No.IV:経過観察判断2」のときには「要観察」/「悪性」と表示される。これらカラーバーの極性を表す用語、および、これら用語と分類項目との対応関係を示す情報も、特徴量を用いた分類が開始される前に、分類情報の一部として、予め、分類情報記憶部81に記憶されている。画像処理部5は、分類を開始する際に、これらを分類情報記憶部81から読み出し、組織の属性の分類を行う。
 なお、以上説明してきた一連の処理(ステップS1~S14)において、ステップS4の処理とステップS5~S14の処理とを並行して行い、Bモード画像と特徴量画像とを並列表示してもよい。
 以上説明した本発明の実施の形態1によれば、検体からの受信信号に基づいて複数種類の特徴量を算出し、この複数の特徴量のうち、予め選択された分類項目に応じて定められる特徴量を用いて検体の組織の属性を分類し、分類結果に応じた視覚情報を受信信号に基づく画像の各画素に対して割り当てた特徴量画像データを生成するため、組織の属性を分類する際にすべての特徴量を使用せずに、その属性の分類に最適な特徴量のみを使用することが可能となり、診断内容に応じて組織が分類された画像データを効率よく生成することができる。
 また、本実施の形態1によれば、視覚情報として色を割り当てることにより、ユーザは検体の組織の属性を明確に鑑別することができる。
 また、本実施の形態1によれば、既知検体の特徴量を求める際にも、周波数解析によって得られた周波数スペクトルを減衰補正して得られる特徴量を指標として属性の分類を行うため、減衰補正を行わずに算出した特徴量を用いる場合と比較して、特徴量空間における各グループの領域をより明確に分離した状態で得ることができ、互いに異なる属性を峻別することができる。
(実施の形態2)
 本発明の実施の形態1では、分類のために必要な、周波数特徴量の値域と、値域に対応する視覚情報(色とマスク)と、値域と視覚情報との間を関連づける情報(カラーテーブル)とが、分類情報の一部として、予め、分類情報記憶部81に記憶されていた。実施の形態1における分類情報は、全て、分類部44による分類以前に、病理検査等により組織の属性が明らかな検体から導かれた情報であった。本発明の実施の形態2に係る医用診断装置は、病理検査等により検査対象組織の属性が明らかになった検体における該検査対象部位の特徴量を既知検体情報として蓄積しながら、分類情報を更新していく機能を有する。
 図16は、本実施の形態2に係る医用診断装置である超音波観測装置の構成を示すブロック図である。同図に示す超音波観測装置11は、演算部12と記憶部13を除いて、実施の形態1で説明した超音波観測装置1と同様の構成を有する。このため、超音波観測装置1と同様の構成要素については、超音波観測装置1の構成要素と同じ符号を付して説明する。
 演算部12は、増幅補正部41と、周波数解析部42と、特徴量算出部43と、分類部44と、分類情報設定部121とを有する。分類情報設定部121は、病理検査等により組織の属性が明らかになった検体の情報が既知検体情報として追加された場合、分類情報を更新する処理を行う。
 記憶部13は、分類情報記憶部81と、病理検査等によって属性を判定済みの検査対象箇所を含むBモード画像データを記憶する属性判定済画像記憶部131と、既知検体に対して特徴量の値を既知検体の組織の属性と対応付けて記憶する既知検体情報記憶部132とを有する。
 図17は、以上の構成を有する超音波観測装置11が行う既知検体情報の作成処理の概要を示すフローチャートである。以下、図17に示すフローチャートを参照して、既知検体情報の作成処理を説明する。
 まず、制御部9は、属性判定済画像記憶部131から属性判定済みのBモード画像データを読み出し、このBモード画像データに対応するBモード画像を表示部7に表示させる(ステップS41)。
 続いて、入力部6は、表示中のBモード画像に対し、既知検体情報として作成するためのデータ取得領域の設定入力を受け付ける(ステップS42)。データ取得領域は、例えば円、楕円、正方形、長方形、扇形等の形状をなす領域として設定される。
 この後、周波数解析部42は、データ取得領域の周波数解析を行う(ステップS43)。続いて、減衰補正部431は、周波数解析部42が算出した周波数スペクトルに対して減衰補正を行う(ステップS44)。その後、近似部432は、減衰補正した周波数スペクトルを所定の周波数帯域で回帰分析することによって一次式で近似する(ステップS45)。ここでの周波数解析処理、減衰補正処理、および近似処理は、実施の形態1で説明した周波数解析処理、減衰補正処理、および近似処理とそれぞれ同様に行われる。
 ステップS45に続いて、特徴量算出部43は、新たに算出したパラメータを同じ属性からなる既知検体のグループに加えたものを新たな母集団として特徴量を算出する(ステップS46)。例えば、パラメータとしてデータ取得領域における傾きa、切片b、ミッドバンドフィットcを算出した場合、これらを加えた母集団における傾きaの平均Mean Sおよび標準偏差Sd. S、切片bの平均Mean Iおよび標準偏差Sd. I、ミッドバンドフィットcの平均Mean Mおよび標準偏差Sd. Mを特徴量として算出する。
 最後に、制御部9は、特徴量算出部43が算出した特徴量を属性と関連づけて既知検体情報記憶部132に書き込んで記憶させる(ステップS47)。
 以上説明したステップS41~S47の処理を多数の既知検体に対して行うことにより、既知検体情報記憶部132には、多数の既知検体の情報が蓄積されていく。
 ところで、本実施の形態2では、属性として新規な属性を追加したりすることも可能である。このため、ある医療施設が他の医療施設とは異なる基準で新たな属性を定義したい場合などであっても、その新たな属性に応じて既知検体の情報を蓄積していくことができる。また、学会ガイドラインや取扱基準等のルール改訂により、疾患名/組織名や疾患区分方法/組織区分方法に追加や変更が生じても、新たな属性に応じて既知検体の情報を蓄積していくことができる。
 図18は、分類情報設定部121が行う処理の概要を示すフローチャートである。以下、分類項目に応じて分類情報設定部121が行う分類情報更新処理について説明する。
 まず、分類情報設定部121は、既知検体情報記憶部132を参照して、既知検体情報を取得する(ステップS51)。具体的には、分類情報設定部121は、各既知検体の特徴量の情報を取得する。
 続いて、分類情報設定部121は、既知検体の特徴量を分離する方向を算出する(ステップS52)。この際、分類情報設定部121は、特徴量空間において、検体の組織の属性ごとにグループ分けしたときに判定対象の属性が最もよく分離する方向を分離方向とする演算を行う。
 図19は、分離方向決定処理の概要を模式的に示す図である。図19では、異なる属性を有する2つのグループG51、G52の分離方向を決定する場合を例示している。グループG51を構成する特徴量空間上の点(丸印で表示)を、特徴量空間の任意の軸d’に沿って見たときの分布301の平均値をμ1、標準偏差をσ1とする。同様に、グループG52を構成する特徴量空間上の点(×印で表示)を軸d’に沿って見たときの分布302の平均値をμ2、標準偏差をσ2とする。このとき、分類情報設定部121は、(μ2-μ1)/σ’(ここで、σ’=(σ1+σ2)/2)の値が最大となるような軸d’の方向を、既知検体の特徴量を分離する方向として算出する。また、分類情報設定部121は、この方向d’におけるグループG51とグループG52の境界として、方向d’に垂直で、μ1~μ2間をσ1:σ2で内分した点d0を通過する分離軸d’’を設定する。図19に示す場合には、μ1とd0の距離d10と、μ2とd0の距離d20が、d10:d20=σ1:σ2を満たしている。
 この後、分類情報設定部121は、特徴量と色の割り当てを対応づけるカラーテーブルを作成する(ステップS53)。分類情報設定部121は、ステップS52で設定した分離方向に沿って所定幅を有する領域ごとに、各領域に含まれる検体の組織の属性の比率を判定し、この判定結果に応じた色を割り当てることによってカラーテーブルを作成する。
 具体的には、図19において、分類情報設定部121は、例えば軸d’に沿って幅σ1/10ごとに領域を分割し、各領域における検体の組織の属性の比率を算出する。その後、分類情報設定部121は、各領域においてグループG51の点が占める割合に応じて異なる色を割り当てる。例えば、グループG51の点が占める割合に応じて3つの領域に分ける場合、グループG51の点が全体の70%以上含まれる領域と、グループG51の点が全体の30%以上70%未満含まれる領域と、グループG51の点が全体の30%未満含まれる領域に対して互いに異なる色を割り当てることによってカラーバーを作成する。なお、領域を分ける数および割り当てる色については、適宜設定可能である。また、色を割り当てない領域(マスク領域)を設定することも可能である。
 最後に、分類情報設定部121は、制御部9の制御の下、作成したカラーテーブルを分類情報として分類情報記憶部81に書き込んで記憶させる(ステップS54)。
 なお、本実施の形態2において、超音波観測装置11が行う特徴量画像の生成、表示処理は、実施の形態1と同様である。
 以上説明した本発明の実施の形態2によれば、実施の形態1と同様に、診断内容に応じて最適な特徴量に基づく検体の組織の属性の分類が可能となり、診断内容に応じて組織が分類された画像データを効率よく生成することができる。
 また、本実施の形態2によれば、ユーザが検体の組織の属性を明確に鑑別することができる点、および超音波信号に対して減衰補正を行うことによって分類精度を向上させることができる点についても、実施の形態1と同様の効果を得ることができる。
 加えて、本実施の形態2によれば、病理検査等により検査対象組織の属性が明らかになった検体における該検査対象部位の特徴量を既知検体情報として蓄積していき、分類情報を更新していくことができるので、より精度の高い分類を行うことが可能となる。
(その他の実施の形態)
 ここまで、本発明を実施するための形態を説明してきたが、本発明は上述した実施の形態によってのみ限定されるべきものではない。例えば、超音波観測装置1は、用途に応じて超音波探触子2の種類が異なることに鑑み、超音波探触子2の種類に応じて選択可能な分類項目を変更するようにしてもよい。超音波探触子2の種類と選択可能な分類項目の対応は、分類情報記憶部81に記憶させておけばよい。この場合、超音波観測装置1が備える超音波探触子2の種類は、予め装置自身が認識可能な構成を有している。具体的には、例えば超音波探触子2として、超音波内視鏡が用いられていれば、超音波内視鏡における処理装置接続側の端部に超音波内視鏡の種類を処理装置に判別させるための接続ピンを設けておけばよい。これにより、処理装置は、接続された超音波内視鏡の接続ピンの形状に応じて超音波内視鏡の種類を判定することができる。
 また、本発明の実施の形態1では、特徴量(例えばMean Mの値)に対する色の情報と、特徴量の値域と視覚情報とを対応づけるカラーテーブルとが既知検体の分布を基にして算出されていた。そして、記憶部8が有する分類情報記憶部81は、この色の情報とカラーテーブルとを分類情報の一部として記憶した。しかし、本発明はこの実施の形態に限らず、次のように構成してもよい。例えば、分類情報記憶部81が、図8~図11の分布を構成するために必要な全既知検体の、周波数スペクトル、または、受信信号、または、送受信部3により受信信号からA/D変換されたデジタルRF信号を、予め記憶しておく形態でもよい。この場合、新規、かつ、属性が未知の検体を測定するステップS2の前に、特徴量算出部43は全既知検体の上記情報から全既知検体の特徴量を予め計算し、分類部44はこれらの特徴量から、分類情報の一部(すなわち、上述の色の情報とカラーテーブル)を算出し、分類情報記憶部81は改めてこの分類情報を記憶する。このように「既知検体情報」として用いるのは、属性が既知である検体からの受信信号に基づいて算出された情報でもよく、受信信号そのものでもよい。こうすることで、本発明の実施の形態1と同様の効果を得ることができる。さらに、この形態は本発明の実施の形態2に適用してもよいことは言うまでもない。
 また、用途が限定される超音波探触子2に対しては、その用途に対応する分類項目に限定して使用するようにしてもよい。用途が限定される超音波探触子2としては、例えば細径のミニチュアプローブを挙げることができる。このミニチュアプローブは、消化管、血管のみならず、特に胆管や膵管等に挿入されるものであり、図7のテーブルTbにある分類項目「悪性/良性鑑別」を行うために使用される。このため、ミニチュアプローブが接続された超音波観測装置1は、自動的に分類項目「悪性/良性鑑別」に対する分類処理を行うようにしてもよい。
 また、特徴量として、減衰補正前の周波数スペクトルを近似することによって得られるパラメータである傾き、切片、およびミッドバンドフィット自体を用いてもよい。また、周波数スペクトルを減衰補正する前に近似し、近似した結果に対して減衰補正を行ってこれらの特徴量を算出するようにしてもよい。図20は、特徴量算出部43が、周波数スペクトルの近似処理を行ってから減衰補正処理を行う場合の処理の概要を模式的に示す図である。図20に示す直線L10は、近似部432が周波数スペクトルC1の周波数帯域Fを近似した結果として得られる回帰直線である。減衰補正部431は、この直線L10に対して減衰補正を行うことにより、直線L1を得る。特徴量算出部43は、この直線L1の傾き、切片、およびミッドバンドフィットを特徴量として算出する。
 また、周波数解析によって算出される特徴量以外の特徴量として、例えばテクスチャ特徴量を適用することも可能である。テクスチャ特徴量としては、関心領域内の輝度のエネルギー(energy)、エントロピー(entropy)、相関(correlation)、局所一様性(local homogeneity)、慣性(inertia)、短ラン強調(short run emphasis)、長ラン強調(long run emphasis)、濃度レベル分布(gray level distribution)、ランレングス分布(run length distribution)、ランパーセンテージ(run percentage)などを挙げることができる(詳細な内容は、例えば特開平4-236952号公報を参照)。なお、これらのテクスチャ特徴量と周波数解析によって得られる特徴量とを適宜組み合わせることによって組織の属性を分類するようにしてもよい。また、特徴量画像に重畳されている色や輝度のパターンを分析して、パターンに基づいたテクスチャ特徴量を算出し、それを基に分類してもよい。
 また、視覚情報として色を採用してカラーテーブルを用いる代わりに、視覚情報として輝度を採用して輝度の違いによって属性の違いを表示する輝度テーブルを作成し、輝度テーブルを用いて特徴量画像データを作成するようにしてもよい。
 また、医師等のユーザが、検査の最中に分類項目を切り替えることができるようにしてもよい。この場合には、入力部6が分類項目切り替え信号の入力を受け付けた場合、制御部9が表示部7に対し、図13に示す選択画面101を表示させるようにすればよい。このように構成、作用させることで、ユーザが分類項目「I.腫瘍スクリーニング」で腫瘍等の病変を発見した後、その検査中に、簡便な操作のみで、分類項目「II悪性/良性鑑別」、分類項目「III.経過観察判断1」、分類項目「IV.経過観察判断2」へと検査を切り替え、当該病変が悪性か良性か、経過観察すべきか否か、すぐに治療すべきか否かの判断を行うことができる。よって、スクリーニング後の精査のための再検査が不要になり、診療が非常に効率的である。
 また、図8ないし図10では、1種類の特徴量での分類を説明した。これは、特徴量空間を1次元に取っても分類ができることを意味する。また、図11では2種類の特徴量での分類を説明した。これは、特徴量空間を2次元に取って分類ができたことを意味する。しかし、分類に用いる特徴量の種類、すなわち、特徴量空間の次元は、これらの例に限らず、3以上の高次元でもよい。特徴量空間が高次元の場合、図19に示した分離軸d’’は、1次元ではなく2次元(平面)以上の特徴量空間内の部分空間になる。
 また、実施の形態1、2においては、特徴量となる統計量として、平均、標準偏差を例に説明したが、前述の通り分散でもよい。なお、統計量は、これら1次元の統計量には限らない。特徴量空間が図11のように2次元の場合には、グループG41とG42に対して相関係数、慣性主軸、慣性テンソル、固有値、固有ベクトル等の複数次元の統計量を算出し、特徴量として用いてもよい。特徴量空間が3次元以上の場合には、質量の異なる質点が2次元以上の空間に分布していると見なせるので、その分布の重心、質量モーメント、質量を振幅と見なして算出した2乗和(エネルギー)等の統計量を算出し、特徴量として用いてもよい。
 また、超音波内視鏡以外の通常の内視鏡、X線CT(Computed Tomography)、MRI(Magnetic Resonance Imaging)、胸部、腹部など体表から超音波を照射する体外式超音波診断装置等の医用診断装置として実現することも可能である。
 このように、本発明は、請求の範囲に記載した技術的思想を逸脱しない範囲内において、様々な実施の形態等を含み得るものである。
 1、11 超音波観測装置
 2 超音波探触子
 3 送受信部
 4、12 演算部
 5 画像処理部
 6 入力部
 7 表示部
 8、13 記憶部
 9 制御部
 21 超音波振動子
 31 信号増幅部
 41 増幅補正部
 42 周波数解析部
 43 特徴量算出部
 44 分類部
 51 Bモード画像データ生成部
 52 特徴量画像データ生成部
 81 分類情報記憶部
 101 選択画面
 102 枠カーソル
 121 分類情報設定部
 131 属性判定済画像記憶部
 132 既知検体情報記憶部
 201 特徴量画像
 202 検査内容表示領域
 203 画像表示領域
 204 色特性表示領域
 231 関心領域
 431 減衰補正部
 432 近似部
 C1、C2 周波数スペクトル
 G11、G12、G21、G22、G31、G32、G41、G42、G51、G52 グループ
 Tb テーブル

Claims (14)

  1.  検体から受信した受信信号に基づいて複数種類の特徴量を算出する特徴量算出部と、
     前記特徴量算出部が算出した前記複数種類の特徴量のうち、予め選択された分類項目に応じて定められる特徴量を用いて前記検体の組織の属性を分類し、分類結果に応じた視覚情報を前記受信信号に基づく画像の各画素に対して割り当てる分類部と、
     前記受信信号に基づく画像の各画素に割り当てられた前記視覚情報を重畳した特徴量画像データを生成する特徴量画像データ生成部と、
     を備えたことを特徴とする医用診断装置。
  2.  前記分類項目に対応する分類対象の組織の属性、分類に用いるべき特徴量の種類、および該特徴量の値に応じた視覚情報を対応づけた情報のうち少なくとも1つを含む分類情報を記憶する分類情報記憶部をさらに備え、
     前記分類部は、
     前記分類情報記憶部を参照して前記分類および前記視覚情報の割り当てを行うことを特徴とする請求項1に記載の医用診断装置。
  3.  前記属性が既知である検体からの受信信号および前記受信信号に基づいて算出された情報のうち少なくとも一方を含む既知検体情報を該属性と関連付けて記憶する既知検体情報記憶部と、
     前記既知検体情報記憶部が記憶する前記既知検体情報を用いて前記分類情報を設定する分類情報設定部と、
     をさらに備えたことを特徴とする請求項2に記載の医用診断装置。
  4.  前記特徴量算出部は、
     前記検体の所定の領域から受信した前記受信信号をもとに複数のパラメータを抽出し、該複数のパラメータを用いて特徴量を算出することを特徴とする請求項1~3のいずれか一項に記載の医用診断装置。
  5.  前記特徴量算出部は、
     前記複数のパラメータのうち同じ種類のパラメータの統計量を前記特徴量として算出することを特徴とする請求項4に記載の医用診断装置。
  6.  前記視覚情報は、色空間を構成する変数であることを特徴とする請求項1~5のいずれか一項に記載の医用診断装置。
  7.  前記視覚情報は、輝度であることを特徴とする請求項1~5のいずれか一項に記載の医用診断装置。
  8.  前記特徴量画像データ生成部が生成した前記特徴量画像データに対応する特徴量画像を表示する表示部をさらに備えたことを特徴とする請求項1~7のいずれか一項に記載の医用診断装置。
  9.  前記分類項目の選択入力を受け付ける入力部をさらに備えたことを特徴とする請求項1~8のいずれか一項に記載の医用診断装置。
  10.  検体に対して超音波を送信するとともに前記検体によって反射された超音波エコーを変換した電気的なエコー信号を前記受信信号として受信する超音波探触子をさらに備えたことを特徴とする請求項1~9のいずれか一項に記載の医用診断装置。
  11.  前記エコー信号の周波数を解析することによって周波数スペクトルを算出する周波数解析部をさらに備え、
     前記特徴量算出部は、
     前記周波数スペクトルを用いて前記複数種類の特徴量を算出することを特徴とする請求項10に記載の医用診断装置。
  12.  前記特徴量算出部は、
     前記受信信号に基づく画像の各画素の輝度に基づいて前記複数種類の特徴量を算出することを特徴とする請求項1~9のいずれか一項に記載の医用診断装置。
  13.  検体から受信した受信信号に基づいて診断用の画像データを生成する医用診断装置の作動方法であって、
     特徴量算出部が、前記受信信号における複数種類の特徴量を算出する特徴量算出ステップと、
     分類部が、前記複数種類の特徴量のうち、予め選択された分類項目に応じて定められる特徴量を用いて前記検体の組織の属性を分類し、分類結果に応じた視覚情報を前記受信信号に基づく画像の各画素に対して割り当てる分類ステップと、
     特徴量画像データ生成部が、前記受信信号に基づく画像の各画素に割り当てられた前記視覚情報を重畳した特徴量画像データを生成する特徴量画像データ生成ステップと、
     を有することを特徴とする医用診断装置の作動方法。
  14.  検体から受信した受信信号に基づいて診断用の画像データを生成する医用診断装置に、
     特徴量算出部が、前記受信信号における複数種類の特徴量を算出する特徴量算出ステップと、
     分類部が、前記複数種類の特徴量のうち、予め選択された分類項目に応じて定められる特徴量を用いて前記検体の組織の属性を分類し、分類結果に応じた視覚情報を前記受信信号に基づく画像の各画素に対して割り当てる分類ステップと、
     特徴量画像データ生成部が、前記受信信号に基づく画像の各画素に割り当てられた前記視覚情報を重畳した特徴量画像データを生成する特徴量画像データ生成ステップと、
     を実行させることを特徴とする医用診断装置の作動プログラム。
PCT/JP2015/062606 2014-06-11 2015-04-24 医用診断装置、医用診断装置の作動方法および医用診断装置の作動プログラム WO2015190180A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015540935A JP5897227B1 (ja) 2014-06-11 2015-04-24 医用診断装置、医用診断装置の作動方法および医用診断装置の作動プログラム
EP15806921.1A EP3155971A4 (en) 2014-06-11 2015-04-24 Medical diagnostic device, medical diagnostic device operation method, and medical diagnostic device operation program
CN201580003164.2A CN105828726B (zh) 2014-06-11 2015-04-24 医用诊断装置以及医用诊断装置的工作方法
US15/180,569 US9655593B2 (en) 2014-06-11 2016-06-13 Medical diagnostic apparatus, method for operating medical diagnostic apparatus, and computer-readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-121002 2014-06-11
JP2014121002 2014-06-11

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/180,569 Continuation US9655593B2 (en) 2014-06-11 2016-06-13 Medical diagnostic apparatus, method for operating medical diagnostic apparatus, and computer-readable recording medium

Publications (1)

Publication Number Publication Date
WO2015190180A1 true WO2015190180A1 (ja) 2015-12-17

Family

ID=54833287

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/062606 WO2015190180A1 (ja) 2014-06-11 2015-04-24 医用診断装置、医用診断装置の作動方法および医用診断装置の作動プログラム

Country Status (5)

Country Link
US (1) US9655593B2 (ja)
EP (1) EP3155971A4 (ja)
JP (1) JP5897227B1 (ja)
CN (1) CN105828726B (ja)
WO (1) WO2015190180A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018175226A (ja) * 2017-04-10 2018-11-15 富士フイルム株式会社 医用画像分類装置、方法およびプログラム
JP2019076541A (ja) * 2017-10-26 2019-05-23 コニカミノルタ株式会社 医用画像処理装置
EP3395257A4 (en) * 2015-12-24 2019-08-07 Olympus Corporation ULTRASONIC OBSERVATION DEVICE, METHOD OF OPERATING THE ULTRASONIC OBSERVATION DEVICE AND A PROGRAM FOR OPERATING THE ULTRASONIC OBSERVATION DEVICE
JP2019535346A (ja) * 2016-09-29 2019-12-12 ゼネラル・エレクトリック・カンパニイ Bラインを自動的に検出し、超音波スキャンの画像をスコア付けすることによる代表超音波画像の向上された視覚化および選択のための方法およびシステム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6339872B2 (ja) * 2014-06-24 2018-06-06 オリンパス株式会社 画像処理装置、内視鏡システム及び画像処理方法
US10148972B2 (en) * 2016-01-08 2018-12-04 Futurewei Technologies, Inc. JPEG image to compressed GPU texture transcoder
JP6535694B2 (ja) * 2017-02-22 2019-06-26 株式会社ジンズ 情報処理方法、情報処理装置及びプログラム
WO2018161257A1 (zh) 2017-03-07 2018-09-13 上海联影医疗科技有限公司 生成彩色医学影像的方法及系统
EP3588120B1 (en) * 2018-06-26 2021-02-24 Bruker BioSpin GmbH System and method for improved signal detection in nmr spectroscopy
US11564633B2 (en) * 2018-12-21 2023-01-31 Industrial Technology Research Institute State assessment system, diagnosis and treatment system, and method for operating the diagnosis and treatment system
JP7100160B2 (ja) * 2019-01-30 2022-07-12 オリンパス株式会社 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
CN113952031A (zh) 2020-07-21 2022-01-21 巴德阿克塞斯系统股份有限公司 磁跟踪超声探头及生成其3d可视化的系统、方法和设备
CN113702982A (zh) * 2021-08-26 2021-11-26 廊坊市新思维科技有限公司 一种超声波数据成像算法
US20230389893A1 (en) * 2022-06-03 2023-12-07 Bard Access Systems, Inc. Ultrasound Probe with Smart Accessory

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011155168A1 (ja) * 2010-06-07 2011-12-15 パナソニック株式会社 組織悪性腫瘍検出方法、組織悪性腫瘍検出装置
WO2012011414A1 (ja) * 2010-07-20 2012-01-26 オリンパスメディカルシステムズ株式会社 超音波診断装置、超音波診断装置の作動方法および超音波診断装置の作動プログラム
JP5079177B2 (ja) * 2010-11-11 2012-11-21 オリンパスメディカルシステムズ株式会社 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4858124A (en) * 1984-08-15 1989-08-15 Riverside Research Institute Method for enhancement of ultrasonic image data
JPH0984793A (ja) * 1995-09-20 1997-03-31 Olympus Optical Co Ltd 超音波画像処理装置
US6238342B1 (en) * 1998-05-26 2001-05-29 Riverside Research Institute Ultrasonic tissue-type classification and imaging methods and apparatus
JP3986866B2 (ja) * 2002-03-29 2007-10-03 松下電器産業株式会社 画像処理装置及び超音波診断装置
US20040209237A1 (en) * 2003-04-18 2004-10-21 Medispectra, Inc. Methods and apparatus for characterization of tissue samples
US7175597B2 (en) * 2003-02-03 2007-02-13 Cleveland Clinic Foundation Non-invasive tissue characterization system and method
US20110257527A1 (en) * 2010-04-20 2011-10-20 Suri Jasjit S Ultrasound carotid media wall classification and imt measurement in curved vessels using recursive refinement and validation
WO2012063976A1 (ja) * 2010-11-11 2012-05-18 オリンパスメディカルシステムズ株式会社 超音波診断装置、超音波診断装置の作動方法および超音波診断装置の作動プログラム
CN102834059B (zh) * 2010-11-11 2013-12-04 奥林巴斯医疗株式会社 超声波观测装置、超声波观测装置的动作方法以及超声波观测装置的动作程序
EP2599441B1 (en) * 2010-11-11 2019-04-17 Olympus Corporation Ultrasonic observation apparatus, method of operating the ultrasonic observation apparatus, and operation program of the ultrasonic observation apparatus
JP5984243B2 (ja) * 2012-01-16 2016-09-06 東芝メディカルシステムズ株式会社 超音波診断装置、医用画像処理装置及びプログラム
US10206661B2 (en) * 2012-09-07 2019-02-19 Empire Technology Development Llc Ultrasound with augmented visualization
KR101993716B1 (ko) * 2012-09-28 2019-06-27 삼성전자주식회사 카테고리별 진단 모델을 이용한 병변 진단 장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011155168A1 (ja) * 2010-06-07 2011-12-15 パナソニック株式会社 組織悪性腫瘍検出方法、組織悪性腫瘍検出装置
WO2012011414A1 (ja) * 2010-07-20 2012-01-26 オリンパスメディカルシステムズ株式会社 超音波診断装置、超音波診断装置の作動方法および超音波診断装置の作動プログラム
JP5079177B2 (ja) * 2010-11-11 2012-11-21 オリンパスメディカルシステムズ株式会社 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3155971A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3395257A4 (en) * 2015-12-24 2019-08-07 Olympus Corporation ULTRASONIC OBSERVATION DEVICE, METHOD OF OPERATING THE ULTRASONIC OBSERVATION DEVICE AND A PROGRAM FOR OPERATING THE ULTRASONIC OBSERVATION DEVICE
US11176640B2 (en) 2015-12-24 2021-11-16 Olympus Corporation Ultrasound observation device, method of operating ultrasound observation device, and computer-readable recording medium
JP2019535346A (ja) * 2016-09-29 2019-12-12 ゼネラル・エレクトリック・カンパニイ Bラインを自動的に検出し、超音波スキャンの画像をスコア付けすることによる代表超音波画像の向上された視覚化および選択のための方法およびシステム
JP2018175226A (ja) * 2017-04-10 2018-11-15 富士フイルム株式会社 医用画像分類装置、方法およびプログラム
JP2019076541A (ja) * 2017-10-26 2019-05-23 コニカミノルタ株式会社 医用画像処理装置

Also Published As

Publication number Publication date
JPWO2015190180A1 (ja) 2017-04-20
US20160278743A1 (en) 2016-09-29
CN105828726A (zh) 2016-08-03
JP5897227B1 (ja) 2016-03-30
CN105828726B (zh) 2019-06-18
EP3155971A1 (en) 2017-04-19
EP3155971A4 (en) 2018-03-07
US9655593B2 (en) 2017-05-23

Similar Documents

Publication Publication Date Title
JP5897227B1 (ja) 医用診断装置、医用診断装置の作動方法および医用診断装置の作動プログラム
JP5433097B2 (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
WO2012063929A1 (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
US20120310087A1 (en) Ultrasonic diagnosis apparatus, operation method of the same, and computer readable recording medium
US10201329B2 (en) Ultrasound observation apparatus, method for operating ultrasound observation apparatus, and computer-readable recording medium
JP5974210B2 (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
WO2018116892A1 (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
WO2018142937A1 (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
JP6289772B2 (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
CN108366782B (zh) 超声波诊断装置、超声波诊断装置的工作方法以及记录介质
JP2016202567A (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
US9517054B2 (en) Ultrasound observation apparatus, method for operating ultrasound observation apparatus, and computer-readable recording medium
WO2016181869A1 (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
US10617389B2 (en) Ultrasound observation apparatus, method of operating ultrasound observation apparatus, and computer-readable recording medium
JP6010274B1 (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
JP6138402B2 (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
WO2015198713A1 (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
CN113365560A (zh) 超声波观测装置、超声波观测装置的工作方法以及超声波观测装置的工作程序

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2015540935

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15806921

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2015806921

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015806921

Country of ref document: EP