WO2018051578A1 - 超音波診断装置及び超音波診断装置の制御方法 - Google Patents

超音波診断装置及び超音波診断装置の制御方法 Download PDF

Info

Publication number
WO2018051578A1
WO2018051578A1 PCT/JP2017/019410 JP2017019410W WO2018051578A1 WO 2018051578 A1 WO2018051578 A1 WO 2018051578A1 JP 2017019410 W JP2017019410 W JP 2017019410W WO 2018051578 A1 WO2018051578 A1 WO 2018051578A1
Authority
WO
WIPO (PCT)
Prior art keywords
ultrasonic
image
probability
unit
imaging condition
Prior art date
Application number
PCT/JP2017/019410
Other languages
English (en)
French (fr)
Inventor
松本 剛
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP17850485.8A priority Critical patent/EP3513738B1/en
Priority to CN201780056223.1A priority patent/CN109788942B/zh
Priority to JP2018539519A priority patent/JP6637610B2/ja
Publication of WO2018051578A1 publication Critical patent/WO2018051578A1/ja
Priority to US16/294,288 priority patent/US11311277B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4483Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
    • A61B8/4488Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer the transducer being a phased array
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest

Definitions

  • the present invention relates to an ultrasonic diagnostic apparatus and a method for controlling the ultrasonic diagnostic apparatus, and more particularly to an ultrasonic diagnostic apparatus that determines a part of a subject on which an ultrasonic image is generated.
  • an ultrasonic diagnostic apparatus that obtains an image inside a subject by applying a transducer array to the subject.
  • a general ultrasonic diagnostic apparatus transmits an ultrasonic beam from a transducer array in which a plurality of elements are arranged into the subject, receives ultrasonic echoes from the subject at the transducer array, and receives element data. To get.
  • the ultrasound diagnostic apparatus electrically processes the obtained element data to obtain an ultrasound image of the part of the subject.
  • an operator When diagnosing a subject using such an ultrasonic diagnostic apparatus, an operator sets imaging conditions according to the imaging site in order to obtain an ultrasound image suitable for diagnosis for each examination site. is doing. In that case, it is necessary for the operator to set an imaging condition each time the imaging region changes. Therefore, in Patent Document 1, an ultrasonic image captured using an imaging condition set by an operator is stored as a reference image together with an imaging condition at the time of imaging, and a part corresponding to the reference image is stored. An ultrasonic diagnostic apparatus that reads and sets imaging conditions of a reference image at the time of imaging is disclosed.
  • the present invention has been made to solve such conventional problems, and it is an object of the present invention to provide an ultrasonic diagnostic apparatus and an ultrasonic diagnostic apparatus control method capable of precisely discriminating a diagnostic part.
  • an ultrasonic diagnostic apparatus of the present invention transmits and receives an ultrasonic beam from an ultrasonic probe to a subject according to a set imaging condition, An ultrasonic wave is acquired from at least one of the attitude angle of the ultrasonic probe and the analysis result of the ultrasonic image with respect to the ultrasonic image acquired in the image acquisition unit according to the first imaging condition and the image acquisition unit that acquires the image.
  • an imaging condition changing unit that changes to a second imaging condition for discriminating the part for which the probability is calculated, and the image acquiring unit uses the second imaging condition to convert the ultrasonic image To get more And butterflies.
  • the apparatus further includes an attitude sensor that detects the operation or position of the ultrasonic probe, and a probe attitude angle detection unit that detects an attitude angle based on a signal of the attitude sensor, and the part probability calculation unit is based on the attitude angle. It is preferable to calculate the probability.
  • the image acquisition unit further includes an image analysis unit that analyzes the ultrasonic image acquired by the image acquisition unit.
  • the image acquisition unit may further include an image analysis unit that analyzes the ultrasonic image acquired, and the region probability calculation unit may calculate the probability based on the analysis result in the image analysis unit.
  • an image analysis unit that analyzes the ultrasonic image acquired by the image acquisition unit, a posture sensor that detects the operation or position of the ultrasonic probe, and a probe posture angle detection that detects a posture angle based on a signal from the posture sensor
  • the part probability calculation unit may calculate the probability based on the posture angle and the analysis result of the ultrasonic image in the image analysis unit.
  • the part probability calculation unit calculates the probability based on the result of image analysis on the single-frame ultrasonic image in the image analysis unit.
  • the part probability calculation unit may calculate the probability based on the analysis result with respect to the movement of the specific pattern included in common in the plural frames of the ultrasonic image in the image analysis unit.
  • the image acquisition unit further includes a region determination unit that determines a region of the subject whose probability is calculated based on the analysis result of the image analysis unit with respect to the ultrasonic image acquired by the image acquisition unit.
  • the ultrasonic beam is transmitted and received from the ultrasonic probe toward the subject in accordance with the set imaging condition, and an ultrasonic image is acquired.
  • the probability that the part of the subject included in the ultrasound image is a specific part is determined from at least one of the attitude angle of the ultrasound probe and the analysis result of the ultrasound image.
  • the first imaging condition is changed to the second imaging condition for determining the part for which the probability is calculated, and the second image
  • An ultrasonic image is further acquired using the conversion condition.
  • the ultrasonic diagnostic apparatus uses the first imaging condition as the second imaging condition for determining the part for which the probability is calculated based on the probability calculated by the part probability calculating unit. Since the imaging condition changing unit to be changed is included, even when an ultrasound image is generated using an imaging condition in which it is difficult to discriminate a diagnostic part in the ultrasonic diagnostic apparatus, the diagnostic part can be discriminated precisely.
  • FIG. 1 is a block diagram illustrating a configuration of an ultrasonic diagnostic apparatus according to Embodiment 1 of the present invention.
  • 2 is a block diagram showing an internal configuration of a receiving circuit used in Embodiment 1.
  • FIG. 3 is a block diagram illustrating an internal configuration of an image generation unit used in Embodiment 1.
  • FIG. 3 is a flowchart of the first embodiment.
  • 6 is a block diagram illustrating a configuration of an ultrasonic diagnostic apparatus according to Embodiment 2.
  • FIG. 6 is a flowchart of the second embodiment.
  • 6 is a block diagram illustrating a configuration of an ultrasonic diagnostic apparatus according to Embodiment 3.
  • FIG. 10 is a flowchart of the third embodiment.
  • FIG. 1 shows the configuration of an ultrasonic diagnostic apparatus according to Embodiment 1 of the present invention.
  • the ultrasonic diagnostic apparatus 1 includes an ultrasonic probe 2 having a built-in transducer array 2A.
  • a display control unit 7 and a display unit 8 are sequentially connected to the ultrasonic probe 2 via an image acquisition unit 3.
  • the image acquisition unit 3 includes a reception circuit 4 and a transmission circuit 5 connected to the transducer array 2A of the ultrasonic probe 2, and an image generation unit 6 connected to the reception circuit 4.
  • the display control unit 7 includes , Connected to the image generator 6. Further, the ultrasonic probe 2 is provided with a posture sensor 9, and a probe posture angle detection unit 10 is connected to the posture sensor 9. Further, a part probability calculation unit 11 and an imaging condition change unit 12 are sequentially connected to the probe posture angle detection unit 10.
  • an image analysis unit 13 is connected to the image generation unit 6 of the image acquisition unit 3
  • a part determination unit 14 is connected to the image analysis unit 13
  • an imaging condition change unit 12 is connected to the part determination unit 14. .
  • the apparatus control unit 15 is connected to the image acquisition unit 3, the display control unit 7, the probe posture angle detection unit 10, the site probability calculation unit 11, the imaging condition change unit 12, the image analysis unit 13, and the site determination unit 14,
  • An operation unit 16 and a storage unit 17 are connected to the device control unit 15, respectively.
  • the device control unit 15 and the storage unit 17 are connected so as to be able to exchange information in both directions.
  • the transducer array 2A of the ultrasonic probe 2 shown in FIG. 1 has a plurality of elements (ultrasonic transducers) arranged one-dimensionally or two-dimensionally. Each of these elements transmits an ultrasonic wave according to the drive signal supplied from the transmission circuit 5 and receives an ultrasonic echo from the subject to output a reception signal.
  • elements ultrasonic transducers
  • Each element includes, for example, a piezoelectric ceramic represented by PZT (Lead Zirconate Titanate), a polymer piezoelectric element represented by PVDF (PolyVinylidene DiDifluoride), and PMN-PT (Lead It is configured using a vibrator in which electrodes are formed on both ends of a piezoelectric body made of a piezoelectric single crystal or the like typified by MagnesiumLeNiobate-Lead Titanate: magnesium niobate-lead titanate solid solution).
  • PZT Lead Zirconate Titanate
  • PVDF PolyVinylidene DiDifluoride
  • PMN-PT Lead It is configured using a vibrator in which electrodes are formed on both ends of a piezoelectric body made of a piezoelectric single crystal or the like typified by MagnesiumLeNiobate-Lead Titanate: magnesium niobate-lead titan
  • the piezoelectric material expands and contracts, and pulse or continuous wave ultrasonic waves are generated from the respective vibrators, and the synthesis of these ultrasonic waves. From the wave, an ultrasonic beam is formed.
  • Each transducer expands and contracts by receiving propagating ultrasonic waves to generate electric signals, and these electric signals are output from the respective transducers to the receiving circuit 4 as ultrasonic reception signals.
  • the receiving circuit 4 of the image acquisition unit 3 has a configuration in which an amplification unit 18 and an A / D (Analog / Digital) conversion unit 19 are connected in series.
  • the reception circuit 4 amplifies the reception signal output from each element of the transducer array 2 ⁇ / b> A in the amplification unit 18, and outputs the element data obtained by digitization in the A / D conversion unit 19 to the image generation unit 6.
  • the transmission circuit 5 includes, for example, a plurality of pulse generators, and is transmitted from a plurality of elements of the transducer array 2A based on a transmission delay pattern selected according to a control signal from the device control unit 15. The delay amount of each drive signal is adjusted so that the ultrasonic wave forms an ultrasonic beam, and supplied to a plurality of elements.
  • the image generation unit 6 of the image acquisition unit 3 has a configuration in which a B mode (brightness mode) processing unit 20 and an image processing unit 21 are sequentially connected in series.
  • the B-mode processing unit 20 Based on the reception delay pattern selected according to the control signal from the device control unit 15, the B-mode processing unit 20 gives each element data according to the set sound speed and performs addition (phased addition).
  • Receive focus processing By this reception focus processing, a sound ray signal in which the focus of the ultrasonic echo is narrowed is generated.
  • the B-mode processing unit 20 corrects the attenuation caused by the propagation distance in accordance with the depth of the ultrasonic reflection position on the sound ray signal, and then performs envelope detection processing, thereby A B-mode image signal that is tomographic image information related to the tissue is generated.
  • the B mode image signal generated by the B mode processing unit 20 is output to the display control unit 7 or the image analysis unit 13.
  • the image processing unit 21 converts (raster conversion) the B-mode image signal generated in the B-mode processing unit 20 into an image signal in accordance with a normal television signal scanning method, and performs various processes such as gradation processing on the B-mode image signal. After performing necessary image processing, a B-mode image signal is output to the display control unit 7.
  • the display control unit 7 of the ultrasonic diagnostic apparatus 1 displays an ultrasonic diagnostic image on the display unit 8 based on the B-mode image signal acquired by the image acquisition unit 3.
  • the display unit 8 includes a display device such as an LCD (Liquid Crystal Display), and displays an ultrasound diagnostic image under the control of the device control unit 15.
  • the posture sensor 9 is provided in the ultrasonic probe 2 and detects the operation or position of the ultrasonic probe 2 operated by an operator during ultrasonic diagnosis as an electrical signal.
  • the posture sensor 9 is not particularly limited as long as it can detect the operation or position of the ultrasonic probe 2.
  • an acceleration sensor that detects the operation of the ultrasonic probe 2 is used as the posture sensor 9 will be described. To do.
  • the posture sensor 9 detects three-component acceleration along three axes orthogonal to each other in the three-dimensional space as an electrical signal. Further, the signal detected by the posture sensor 9 is output to the probe posture angle detection unit 10.
  • the probe posture angle detection unit 10 detects the posture angle of the ultrasonic probe 2 based on a signal indicating the operation of the ultrasonic probe 2 detected by the posture sensor 9. For example, the posture angle of the ultrasonic probe 2 can be calculated from the acceleration in the three-dimensional space obtained by the posture sensor 9 using a known calculation method.
  • the part probability calculation unit 11 is based on the posture angle of the ultrasonic probe 2 detected by the probe posture angle detection unit 10 when the operator performs ultrasonic diagnosis using the ultrasonic probe 2.
  • the probability (part probability) that the part of the subject included in the ultrasonic image acquired in step 1 is a specific part is calculated.
  • the part probability calculation unit 11 can calculate, for example, the probability that the part of the subject included in the ultrasonic image acquired by the image acquisition unit 3 is the heart. The calculation of the part probability in the part probability calculation unit 11 will be described in detail later.
  • the imaging condition changing unit 12 changes the imaging condition used when the image acquiring unit 3 acquires the ultrasound image to the imaging condition corresponding to the site where the ultrasound diagnosis has been performed.
  • the imaging conditions include a frame rate at the time of ultrasonic diagnosis, a resolution of the ultrasonic image, a luminance of the ultrasonic image, and a dynamic range at the time of ultrasonic diagnosis.
  • the imaging condition changing unit 12 changes at least one of these imaging conditions based on the calculation result of the part probability in the part probability calculation part 11 or the part determination result in the part determination part 14.
  • the image analysis unit 13 performs image analysis such as motion analysis and pattern recognition on the B-mode image signal generated by the B-mode processing unit 20 of the image generation unit 6 of the image acquisition unit 3, and the image analysis result is used as a part determination unit. 14 for output.
  • the part discriminating unit 14 discriminates the part of the subject included in the ultrasonic image based on the analysis result of the ultrasonic image in the image analyzing unit 13, and determines the discriminated part information to the imaging condition changing unit 12. Output.
  • the device control unit 15 controls each unit of the ultrasonic diagnostic apparatus 1 based on a command input by the operator via the operation unit 16.
  • the operation unit 16 is for an operator to perform an input operation, and can be configured to include a keyboard, a mouse, a trackball, a touch panel, and the like.
  • the storage unit 17 stores an operation program or the like of the ultrasonic diagnostic apparatus 1, and includes an HDD (Hard Disc Drive), an SSD (Solid State Drive), an FD (Flexible Disc), MO disc (Magneto-Optical disc), MT (Magnetic Tape), RAM (Random Access Memory), CD (Compact Disc), DVD (Digital Versatile Disc: Digital Versatile Disc)
  • HDD Hard Disc Drive
  • SSD Solid State Drive
  • an FD Fexible Disc
  • MO disc Magnetic-Optical disc
  • MT Magnetic Tape
  • RAM Random Access Memory
  • CD Compact Disc
  • DVD Digital Versatile Disc: Digital Versatile Disc
  • a recording medium such as a disk), an SD card (Secure Digital card), a USB memory (Universal Serial Bus memory), a server, or the like can be used.
  • the image generation unit 6, the display control unit 7, the probe posture angle detection unit 10, the site probability calculation unit 11, the imaging condition change unit 12, the image analysis unit 13, and the site determination unit 14 are a CPU (Central Processing Unit). A processing device) and an operation program for causing the CPU to perform various processes, these may be configured using a digital circuit.
  • the image generation unit 6, the display control unit 7, the probe posture angle detection unit 10, the site probability calculation unit 11, the imaging condition change unit 12, the image analysis unit 13, and the site determination unit 14 may be partially or entirely included. In other words, it can be integrated into one CPU.
  • the apparatus control unit 15 initializes an imaging condition for acquiring an ultrasound image in the image acquisition unit 3 to a first imaging condition.
  • the first imaging condition is, for example, an imaging condition in which general settings are made for a plurality of diagnostic sites.
  • Such general-purpose imaging conditions for a plurality of diagnosis parts are often set so that a plurality of parts can be quickly diagnosed in a continuous diagnosis such as eFAST examination, for example.
  • step S2 transmission / reception and scanning of an ultrasonic beam using a plurality of ultrasonic transducers of the transducer array 2A of the ultrasonic probe 2 under the first imaging condition are performed by the reception circuit 4 and transmission of the image acquisition unit 3. This is done by the circuit 5.
  • reception signals are output to the reception circuit 4 from the ultrasonic transducers that have received the ultrasonic echoes from the subject, and the amplification unit 18 and the A / D conversion unit 19 of the reception circuit 4 amplify the reception signals.
  • a / D conversion is performed to generate a reception signal.
  • the posture sensor 9 detects the operation of the ultrasonic probe 2 operated by the operator as an electrical signal.
  • step S ⁇ b> 3 the B-mode processing unit 20 of the image generation unit 6 receives the reception signal input from the reception circuit 4 based on the frame rate at the time of ultrasonic image acquisition set in the first imaging condition. And sequentially generate B-mode images.
  • step S4 the probe posture angle detection unit 10 performs transmission / reception or scanning of the ultrasonic beam performed in step S2 based on the electrical signal representing the operation of the ultrasonic probe 2 input from the posture sensor 9. The posture angle of the ultrasonic probe 2 is detected.
  • the attitude angle of the ultrasonic probe 2 can be calculated from a three-component acceleration along three axes orthogonal to each other in the three-dimensional space detected by the attitude sensor 9 using a known calculation method.
  • the posture angle of the ultrasonic probe 2 varies depending on each part of the subject to be subjected to ultrasonic diagnosis. For example, in the eFAST test, there are a heart, lungs, right abdomen, left abdomen and bladder as diagnostic sites, and in order to perform an appropriate test on these sites, the ultrasonic probe 2 is used according to each site, It is known to use at different posture angles. In ultrasonic diagnosis of a plurality of parts, for example, in the diagnosis of the abdomen, an operator often makes a diagnosis while moving the ultrasonic probe 2.
  • the probe posture angle detection unit 10 calculates, for example, the average value of the posture angles of the ultrasonic probe 2 within a predetermined time by using the ultrasonic wave. It can be detected as the attitude angle of the probe 2.
  • the generation of the B mode image in step S3 and the detection of the posture angle of the ultrasonic probe 2 in step S4 start the B mode image generation from the device control unit 15 to the image acquisition unit 3 and the probe posture angle detection unit 10.
  • the information is simultaneously started.
  • step S3 and step S4 when the generation of the B-mode image and the detection of the posture angle of the ultrasonic probe 2 are started, the frame rate and probe posture angle detection unit 10 set in the first imaging condition are set to the posture.
  • the sampling frequency for sampling the signal of the sensor 9 is synchronized.
  • the generation of the B-mode image in step S3 and the detection of the posture angle of the ultrasonic probe 2 in step S4 are performed in a synchronous parallel process.
  • the frame rate set in the first imaging condition and the probe attitude angle detection unit are obtained by thinning out information of the attitude sensor having a higher frequency than the frame rate set in the first imaging condition. Ten sampling frequencies can be matched.
  • the region probability calculation unit 11 calculates the B mode generated by the B mode processing unit 20 of the image generation unit 6 in step S3 from the posture angle of the ultrasonic probe 2 detected by the probe posture angle detection unit 10 in step S4.
  • the probability (part probability) that the part of the subject included in the image (ultrasonic image) is a specific part is calculated.
  • Various calculation methods can be used for the calculation of the site probability in the site probability calculation unit 11.
  • the site probability calculation unit 11 is used for the target ultrasound probe 2 for a specific site of the subject.
  • the reciprocal of the difference between the posture angle (target probe angle) and the actual posture angle detected by the probe posture angle detector 10 can be calculated as the part probability.
  • part probability calculation part 11 calculates the site
  • step S ⁇ b> 6 the apparatus control unit 15 determines whether the part probability calculated by the part probability calculation unit 11 is equal to or greater than a predetermined threshold using the posture angle of the ultrasonic probe 2.
  • a predetermined threshold For example, when the part probability calculation unit 11 calculates the probabilities that the parts included in the ultrasound image generated in step S3 are the heart, lung, right abdomen, left abdomen, and bladder, these part probabilities Are each equal to or greater than a threshold value.
  • the threshold value used for determining the part probability is a value at which only the part probability for the part having a similar target probe angle is set to a posture angle of the ultrasonic probe 2 at the time of ultrasonic diagnosis. This threshold value can be determined, for example, by calculating a statistical value with respect to the posture angle of the ultrasonic probe 2 in the past diagnosis or preliminary test.
  • step S6 if the apparatus control unit 15 determines that at least one part probability among the plurality of part probabilities calculated by the part probability calculation unit 11 is equal to or greater than the threshold value, the process proceeds to step S7.
  • step S7 the imaging condition changing unit 12 determines the first imaging condition based on the part probability determined to be equal to or greater than the threshold by the device control unit 15 as the part for which the part probability is calculated. Change to the second imaging condition. For example, when it is determined in step S6 that the part probability that the part included in the ultrasound image is the heart and the part probability that the part is the right abdomen is equal to or greater than the threshold value, the imaging condition changing unit 12 performs the first imaging.
  • the condition is changed to the second imaging condition for determining whether the part included in the ultrasonic image is the heart or the right abdomen.
  • the second imaging condition a condition in which the frame rate at the time of ultrasonic diagnosis is increased can be set in order to increase the sampling accuracy with respect to the heart beat.
  • step S6 if the apparatus control unit 15 determines that all of the plurality of part probabilities calculated by the part probability calculating unit 11 are less than the threshold value, the process proceeds to step S16.
  • step S ⁇ b> 16 the device control unit 15 determines whether or not the number of times that the device control unit 15 determines that the plurality of part probabilities are all less than the threshold value in step S ⁇ b> 6 is N times. When the number of times that the apparatus control unit 15 determines that the plurality of part probabilities are all less than the threshold is less than N times, the process returns to step S2, and acquisition of an ultrasound image using the first imaging condition is performed. Done.
  • N is a natural number of 1 or more and can be set in advance in the program of the ultrasonic diagnostic apparatus 1 or the like.
  • an ultrasonic image is obtained. Since it may be preferable to reacquire the value, it is preferably a number of 2 or more.
  • step S8 the reception circuit 4 and the transmission circuit 5 of the image acquisition unit 3 further transmit, receive, and scan an ultrasonic beam with respect to the site of the subject using the second imaging condition.
  • step S9 the B-mode processing unit 20 of the image generation unit 6 of the image acquisition unit 3 uses a B-mode image (ultrasonic wave) using the ultrasonic reception signal acquired using the second imaging condition. (Image) signal is further generated.
  • step S ⁇ b> 10 the image analysis unit 13 performs image analysis for discriminating a portion of the subject included in the ultrasonic image with respect to the ultrasonic image further generated by the B-mode processing unit 20 of the image generation unit 6. Do. For example, when the frame rate at the time of ultrasonic diagnosis is set to a high speed as the second imaging condition, the image analysis unit 13 can perform an optical flow that is a time-series image analysis as the image analysis. . Although not shown, the optical flow uses a plurality of frames of ultrasonic images acquired in time series by the image acquisition unit 3 to form a plurality of characteristic patterns in the same part that are commonly included in the plurality of frames of ultrasonic images.
  • this is a method of mapping the moving direction and distance of each pattern using a vector or the like.
  • the part determination unit 14 determines the part of the subject included in the ultrasonic image based on the analysis result of the ultrasonic image in the image analysis unit 13.
  • the part probability determined to be equal to or higher than the threshold value in step S6 is the part probability that the part included in the ultrasound image is the heart and the part probability that the part is the right abdomen
  • the image analysis unit 13 uses the optical flow.
  • the part is determined based on the number of vectors mapped to the ultrasonic image.
  • the part determination unit 14 determines that the heart is a heartbeat if the number of mapped vectors is equal to or greater than a predetermined number, and determines the right abdomen if the number of mapped vectors is less than the predetermined number.
  • step S ⁇ b> 12 the imaging condition changing unit 12 changes the second imaging condition to a third imaging condition appropriate for the part determined by the part determining unit 14.
  • the reception circuit 4 and the transmission circuit 5 of the image acquisition unit 3 perform transmission / reception and scanning of an ultrasonic beam on the part determined by the part determination unit 14 using the third imaging condition.
  • the image generation unit 6 of the image acquisition unit 3 generates a B-mode image signal from the reception signals acquired by the reception circuit 4 and the transmission circuit 5 using the third imaging condition.
  • step S15 the apparatus control unit 15 determines whether or not the part of the subject currently undergoing ultrasonic diagnosis has been changed. For example, when the diagnostic site moves from the heart to the lung, it is determined that the diagnostic site has been changed. Specifically, in general, when the diagnostic site is changed, the probe is separated from the body surface and becomes aerial radiation. Therefore, by detecting such an aerial radiation state (a state in which a reflected signal cannot be obtained), diagnosis A change in the site can be determined. If it is determined in step S15 that the diagnostic site has not been changed, that is, it is determined that the same diagnostic site is being diagnosed, the process returns to step S13, and an ultrasound image is acquired using the third imaging condition. Is done. On the other hand, if it is determined in step S15 that the diagnostic region has been changed, the process returns to step S1 and the third imaging condition is initialized to the first imaging condition.
  • the first imaging condition is used to calculate the region probability based on the attitude angle of the ultrasonic probe 2.
  • the first imaging condition is changed to the second imaging condition to further acquire an ultrasonic image in order to discriminate the part included in the ultrasonic image based on the calculated part probability. To do. In this way, by acquiring ultrasonic images in two steps, it is possible to narrow down the regions that are candidates for determination, so it is possible to accurately determine the regions and set appropriate imaging conditions. .
  • the ultrasonic diagnostic apparatus 1 has a smaller amount of data processing than a part determination using only pattern determination with reference to a database widely performed as a conventional technique, and determines a part included in an ultrasonic image. In this case, the time required for image analysis can be shortened. Furthermore, even when an ultrasound image is acquired using general-purpose imaging conditions for a plurality of regions as the first imaging conditions, the first imaging conditions are determined based on the determination results of the region probabilities in step S6. Since the second imaging condition for discriminating a site that is a candidate for discrimination can be changed based on the above, the ultrasonic diagnostic apparatus 1 can determine the site with high accuracy.
  • step S3 and step S4 have been described as being synchronously parallel processed. However, before the process proceeds to step S5, the B-mode image and the ultrasonic probe are processed. If the attitude angle of 2 is acquired, step S3 and step S4 may not be subjected to synchronous parallel processing. That is, the acquisition of the posture angle of the ultrasonic probe 2 in step S4 may be performed after the acquisition of the B-mode image in step S3. Alternatively, the acquisition of the posture angle of the ultrasonic probe 2 may be performed after the acquisition of the posture angle of the ultrasonic probe 2. Acquisition may be performed.
  • the calculation method of the posture angle in the probe posture angle detection unit 10 is not limited to the above-described method as long as the posture angle of the ultrasonic probe 2 can be calculated.
  • the ultrasonic wave is detected.
  • the attitude angle of the probe 2 may be calculated.
  • the acceleration sensor is exemplified as the posture sensor 9 that detects the operation of the ultrasonic probe 2
  • the posture sensor 9 can be any other sensor as long as it detects the operation or position of the ultrasonic probe 2. It may be used.
  • a posture sensor 9 for example, a gyro sensor, a magnetic sensor, a GPS (Global Positioning System) sensor, or the like can be used in addition to an acceleration sensor. Further, these sensors may be attached to the ultrasonic probe 2 or may be built in the ultrasonic probe 2.
  • a gyro sensor attached to the ultrasonic probe 2 is used as the attitude sensor 9, and the attitude angle of the ultrasonic probe 2 is detected from a known calculation method based on the angular velocity of the ultrasonic probe 2 obtained from the gyro sensor. Also good.
  • a magnetic sensor may be used as the posture sensor 9 and the posture angle of the ultrasonic probe 2 may be detected based on the position information of the ultrasonic probe 2 detected by the magnetic sensor.
  • a GPS sensor may be used as the posture sensor 9 and the posture angle of the ultrasonic probe 2 may be detected based on the position information of the ultrasonic probe 2 obtained from the GPS sensor.
  • the posture sensor 9 may not be attached to or built in the ultrasonic probe 2 as long as it detects the operation or position of the ultrasonic probe 2, and may be provided away from the ultrasonic probe 2. good.
  • a posture sensor 9 for example, although not shown, the position information of the ultrasonic probe 2 is detected using a known camera or the like, and the posture sensor 9 detects the position information of the ultrasonic probe 2. Based on this, the posture angle of the ultrasonic probe 2 may be detected.
  • the second imaging condition is exemplified by setting the frame rate at the time of ultrasonic diagnosis at a high speed, but other conditions may be set as the second imaging condition. For example, if it is determined in step S6 that the part probability included in the ultrasound image is the heart and the part probability that the part is the right abdomen is greater than or equal to a threshold value, In order to clearly depict the pattern, the condition for increasing the brightness of the ultrasonic image may be set as the second imaging condition. For example, the luminance of the ultrasonic image may be increased by increasing the gain of the amplification unit 18 of the reception circuit 4. Further, for example, the luminance of the ultrasonic image may be increased by increasing the dynamic range in the A / D converter 19 of the receiving circuit 4.
  • the gain and dynamic range can also be adjusted simultaneously.
  • the luminance of the ultrasonic image may be increased by increasing the drive voltage output from the transmission circuit 5 to the transducer array 2A of the ultrasonic probe 2 to increase the gain.
  • a condition for increasing the resolution of the ultrasonic image may be used as a second imaging condition for clearly drawing a pattern of a part included in the ultrasonic image.
  • the resolution can be increased by increasing the number of ultrasonic transducers in the transducer array 2A used for ultrasonic diagnosis and increasing the density of the ultrasonic transducers used. it can.
  • the image analysis unit 13 performs the second imaging. It becomes easy to perform pattern recognition using template matching, texture analysis, machine learning, and the like on an ultrasonic image acquired using conditions.
  • the part determination unit 14 determines an image included in the ultrasonic image based on the pattern recognition result in the image analysis unit 13.
  • the case where the part probability determined by the apparatus control unit 15 to be equal to or greater than the threshold in step S6 is the part probability that the part included in the ultrasound image is the heart and the part probability that the part is the right abdomen.
  • the apparatus control unit 15 may determine that the part probability that the part included in the ultrasonic image is a part other than the heart and the right abdomen is equal to or greater than a threshold value.
  • the apparatus control unit 15 is the region probability that the region included in the ultrasound image is the lung and the bladder.
  • the second imaging condition for reducing the frame rate at the time of ultrasonic diagnosis can be used. Since the lung has few structures as an organ and is mostly air, a change with time is small when an ultrasound image of the lung is acquired. On the other hand, since the bladder has a structure as an organ, the change with time is larger than that of the lung. Therefore, the frame rate can be set to a low speed, and the change of the part between the acquired ultrasonic images can be made remarkable.
  • the image analysis unit 13 uses, for example, the ultrasound images acquired in time series using the second imaging condition.
  • the amount of movement of the pattern can be calculated.
  • the part determination unit 14 determines, for example, whether or not the frame difference value calculated by the image analysis unit 13 is a certain value or more. At this time, for example, if the frame difference value is equal to or greater than a certain value, the part determination unit 14 determines that the part included in the ultrasound image is a bladder that is a part that changes greatly with time.
  • the part determination unit 14 determines that the part included in the ultrasound image is a lung with a small change with respect to time.
  • the analysis method between the ultrasonic images performed in the image analysis unit 13 with respect to the ultrasonic image acquired using the second imaging condition for reducing the frame rate at the time of ultrasonic diagnosis is an ultrasonic The method is not limited to calculating the above-described frame difference value as long as it facilitates the determination of the part included in the sound wave image.
  • the rate of change of the frame difference value may be calculated, the rate of change of the area of the edge structure of the part included in the ultrasound image may be calculated, and the area of the pixel having a specific luminance in the ultrasound image may be calculated.
  • the rate of change may be calculated.
  • the B-mode image signal is generated from the reception signal output from the reception circuit 4.
  • an image signal other than the B-mode image signal may be generated from the reception signal.
  • the B mode processing unit of the image generating unit 6 is configured to generate an M mode (Motion mode) image signal, a color Doppler image signal, an elastic image signal, or a sound velocity map signal from the received signal. 20 may be replaced by a processing unit that generates an M-mode image signal, a color Doppler image signal, an elastic image signal, or a sound velocity map signal.
  • image analysis according to the type of each image signal may be performed.
  • the image analysis unit 13 may perform pattern recognition using template matching, texture analysis, machine learning, or the like, and a time series using an optical flow. Image analysis may be performed. For example, when a color Doppler image signal, an elastic image signal, or a sound velocity map signal is generated from the received signal, the image analysis unit 13 can analyze color information included in each image signal. it can.
  • the ultrasonic diagnostic apparatus 1 described above since the ultrasonic diagnostic apparatus 1 described above is small, it may be a portable ultrasonic diagnostic apparatus that is easily carried and used, and is a stationary ultrasonic wave that is used in an examination room or the like. It may be a diagnostic device.
  • the ultrasonic probe 2 is not particularly limited as long as it can transmit and receive an ultrasonic beam toward the subject, and may be a sector type, a convex type, a linear type, a radial type, or the like.
  • FIG. 5 shows an ultrasonic diagnostic apparatus 22 according to the second embodiment.
  • This ultrasonic diagnostic apparatus 22 does not have the posture sensor and the probe posture angle detection unit in the ultrasonic diagnostic device 1 of the first embodiment shown in FIG. 1, and a site probability calculation unit instead of the site probability calculation unit 11.
  • the image analysis unit 13 is connected to the part probability calculation unit 23.
  • Other configurations have the same components as those of the ultrasonic diagnostic apparatus 1 shown in FIG. Therefore, in FIG. 5, the same components as those in FIG. 1 are denoted by the same reference numerals, and detailed description of those components is omitted.
  • the part probability calculation unit 11 calculates the probability that the part of the subject included in the ultrasonic image is a specific part based on the posture angle of the ultrasonic probe 2.
  • the part probability calculation unit 23 in 2 calculates the probability that the part of the subject included in the ultrasonic image is each specific part based on the result of the image analysis.
  • Steps S1 to S3 are the same as steps S1 to S3 of the first embodiment shown in FIG. 4 except that step S3 is not synchronously parallel processed with step S4, and the imaging conditions are the first.
  • the B-mode image (ultrasound image) signal is generated from the reception signal that is initialized to the imaging condition of (1) and acquired by transmission / reception and scanning of the ultrasound beam using the first imaging condition.
  • step S18 following step S3, the apparatus control unit 15 determines whether or not the acquisition of the ultrasonic image using the first imaging condition is the first time.
  • step S18 when the acquisition of the ultrasonic image using the first imaging condition is the first time, the process proceeds to step S19.
  • step S ⁇ b> 19 the image analysis unit 13 performs image analysis on the single-frame ultrasonic image output from the image generation unit 6 of the image acquisition unit 3.
  • the image analysis for the single-frame ultrasound image performed in step S19 is performed in order to narrow down candidates for the region of the subject included in the ultrasound image from, for example, a plurality of diagnostic regions determined in the eFAST examination.
  • the image analysis unit 13 detects an edge structure included in the single-frame ultrasonic image, and an edge structure facing a specific direction, for example, an oblique direction.
  • the pixel area (edge pixel area) can be obtained.
  • the part probability calculation unit 23 calculates part probabilities that the parts included in the ultrasound image are specific parts based on the result of image analysis on the single-frame ultrasound image in step S19. .
  • Various calculation methods can be used for the calculation of the part probability in the part probability calculation unit 23.
  • the part probability calculation unit 23 sets a target specific direction for each specific part of the subject. The reciprocal of the difference between the area of the pixel having the facing edge structure (target edge pixel area) and the actual edge pixel area calculated in step S19 can be calculated as the part probability.
  • part probability calculation part 23 each calculates the probability that the site
  • apparatus controller 15 determines whether or not the region probability calculated in step S20 is equal to or greater than a predetermined threshold, as in step S6 of the first embodiment.
  • a predetermined threshold for example, it is preferable that the threshold used for the determination of the region probability is such that only the region probability for the region having the similar edge pixel area, that is, the target edge pixel area is equal to or greater than the threshold.
  • the edge structure is detected by image analysis, both the ultrasonic images of the heart and the right abdomen are detected with many edge structures in the oblique direction, and therefore the target edge pixel areas for the heart and the right abdomen are similar.
  • step S6 when it is determined that at least one part probability among the plurality of part probabilities calculated by the part probability calculating unit 23 is equal to or greater than the threshold value, the process proceeds to step S7.
  • Steps S7 to S15 are the same as steps S7 to S15 of the first embodiment shown in FIG. 4, and after changing the first imaging condition to the second imaging condition based on the region probability, By analyzing the acquired ultrasonic image, the region of the subject included in the ultrasonic image is determined.
  • the second imaging condition is changed to a third imaging condition suitable for the determined part, and an ultrasonic image is further acquired using the third imaging condition. Then, an ultrasonic image is further acquired until the diagnostic site is changed.
  • the process returns to step S1.
  • Step S6 when it is determined that the plurality of part probabilities calculated by the part probability calculating unit 23 are all less than the threshold value, the process returns to Step S2.
  • the apparatus control unit 15 determines that the acquisition of the ultrasonic image is not the first time, and the process proceeds to step S21.
  • step S21 the image analysis unit 13 performs image analysis on the ultrasonic images of a plurality of frames output from the image generation unit 6 of the image acquisition unit 3. Similar to the image analysis for the single-frame ultrasound image in step S19, the image analysis for the multiple-frame ultrasound image performed in step S21 is performed by selecting candidate regions of the subject included in the ultrasound image as a plurality of diagnostic regions. It is done to narrow down from. As such image analysis for a plurality of frames of ultrasonic images, for example, image analysis using a so-called optical flow can be performed on an ultrasonic image acquired using the first imaging condition.
  • the part probability calculation unit 23 calculates the part probability based on the result of image analysis on the ultrasonic images of a plurality of frames in step S21.
  • the part probability calculation unit 23 targets the number of vectors mapped in the optical flow (the number of target vectors) and the actual number of vectors calculated in step S ⁇ b> 21 (for each specific part of the subject). The reciprocal of the difference from the vector number) can be calculated as the part probability.
  • part probability calculation part 23 each calculates the probability that the site
  • an ultrasound image is acquired using the frame rate of the first imaging condition, a region with a lot of movement and a region with a little movement are distinguished by calculating a region probability.
  • some parts are not clearly distinguished.
  • the heart has a pulsation, more vectors are mapped to the ultrasound image of the heart by optical flow.
  • the abdomen includes many structures as organs, and the ultrasound probe 2 is moved by the operator during the ultrasound diagnosis. Therefore, the ultrasound image of the abdomen is caused by the movement of the ultrasound probe 2. Many vectors are mapped.
  • the lung has few structures as an organ and the ultrasonic probe 2 is rarely moved by an operator during ultrasonic diagnosis, the lung is mapped to an ultrasonic image of the lung by an optical flow.
  • step S23 the device control unit 15 determines whether or not the part probability obtained in step S22 is equal to or greater than a threshold value, as in step S6. If it is determined in step S23 that all of the plurality of region probabilities calculated based on the image analysis results for the plurality of frames of ultrasonic images are less than the threshold, the process proceeds to step S16. In step S16, as in step S16 of the first embodiment shown in FIG. 4, it is determined whether or not the number of determinations that the plurality of part probabilities are all less than the threshold value in step S23 is N times. . At that time, if the number determined in step S23 that the plurality of part probabilities are all less than the threshold is less than N times, the process returns to step S2.
  • step S23 the display unit 8 displays an error in step S17 and the operation of the ultrasonic diagnostic apparatus 22 is performed. Ends.
  • step S23 it is determined in step S23 that at least one of the plurality of region probabilities calculated based on the image analysis result for the ultrasonic images of the plurality of frames is equal to or greater than the threshold value, the process proceeds to step S7.
  • the part probability is calculated based on the analysis result of the ultrasonic image
  • the first imaging condition is calculated based on the part probability. Is changed to the second imaging condition, and an ultrasonic image is further acquired using the second imaging condition. Therefore, the ultrasonic diagnostic apparatus 22 according to the second embodiment shown in FIG. 5 obtains ultrasonic images in two steps in the same manner as the ultrasonic diagnostic apparatus 1 according to the first embodiment shown in FIG. Since it is possible to narrow down the parts that are candidates for discrimination, it is possible to precisely discriminate the parts and set appropriate imaging conditions.
  • the part probability calculation unit 23 can calculate the part probability based on the result of image analysis using a single-frame ultrasonic image or the result of image analysis using a plurality of frames of ultrasonic images.
  • the site probability can be calculated using the site structure or site motion characteristics. Therefore, it is possible to calculate an accurate part probability using image analysis suitable for the part.
  • an image analysis method using a single-frame ultrasonic image the case where the detection of the edge structure included in the ultrasonic image is used has been described.
  • pattern detection such as detection of high luminance pixels and template matching, etc.
  • An image analysis method can also be used. For example, when high-luminance pixels are detected as image analysis using a single-frame ultrasound image, in step S19, the image analysis unit 13 selects pixels having a certain level or more of brightness included in the ultrasound image. The area (high luminance pixel area) can be calculated.
  • the part probability calculation unit 23 calculates, for example, the reciprocal of the difference between the target high luminance pixel area (target high luminance pixel area) for each diagnostic part and the actual high luminance pixel area calculated in step S19. Can be calculated as a site probability.
  • the image analysis unit 13 determines the template of each diagnostic region and the actual ultrasonic image. The degree of similarity with the part included in can be calculated as a score.
  • part probability calculation unit 23 calculates, for example, the reciprocal of the difference between the target similarity score (target score) for each diagnostic part and the actual score calculated in step S19 as the part probability. be able to.
  • the image analysis unit 13 tracks a specific high-intensity point of a part included in an ultrasonic image of a plurality of frames in time series, and the period for the reciprocating motion of the high-intensity point. Can be calculated.
  • the part probability calculation unit 23 may calculate the reciprocal of the difference between the target high-intensity point period for each diagnostic part and the calculated actual high-intensity point period as the part probability. it can.
  • FIG. 7 shows an ultrasonic diagnostic apparatus 24 according to the third embodiment.
  • This ultrasonic diagnostic apparatus 24 replaces the part probability calculation unit 11 of the ultrasonic diagnostic apparatus 1 of the first embodiment shown in FIG. 1 with a part probability calculation part 25, and replaces the part probability calculation part 25 with the image analysis unit 13. Except for being connected, it has the same components as the ultrasonic diagnostic apparatus 1 shown in FIG. Therefore, in FIG. 7, the same components as those in FIG. 1 are denoted by the same reference numerals, and detailed description of these components is omitted.
  • the part probability calculation unit 11 of the first embodiment shown in FIG. 1 calculates the part probability based only on the attitude angle of the ultrasonic probe 2, and the part probability of the second embodiment shown in FIG.
  • the calculation unit 23 calculates the region probability based only on the result of the image analysis.
  • the part probability calculation unit 25 according to the third embodiment calculates the part probability by integrating the posture angle of the ultrasonic probe 2 and the result of the image analysis.
  • Steps S1 to S4 are the same as steps S1 to S4 of the first embodiment shown in FIG. 4, and the imaging conditions are initialized to the first imaging conditions, and the first imaging conditions are used.
  • a B-mode image (ultrasonic image) is generated from the received signal acquired by transmitting and receiving the ultrasonic beam and scanning, and the attitude angle of the ultrasonic probe 2 is detected in synchronization with the generation of the B-mode image.
  • step S18 following step S3 and step S4 is the same as step S18 of the second embodiment shown in FIG. 5, and the apparatus control unit 15 acquires an ultrasonic image using the first imaging condition. It is determined whether or not this is the first time.
  • step S18 when it is determined that the acquisition of the ultrasonic image using the first imaging condition is the first time, the process proceeds to step S24.
  • step S24 the image analysis unit 13 performs image analysis on the single-frame ultrasonic image acquired using the first imaging condition.
  • the image analysis method for the single-frame ultrasound image in step S24 is the same as the image analysis method for the single-frame ultrasound image described in step S19 of the second embodiment.
  • the part probability calculation unit 25 calculates the part probability based on the posture angle of the ultrasonic probe 2 detected in step S24 and the part probability based on the result of image analysis on the single-frame ultrasonic image, respectively. calculate.
  • the calculation method of the part probability based on the attitude angle of the ultrasonic probe 2 is the same as the calculation method described in step S5 of the first embodiment, and the part probability based on the result of image analysis on the single-frame ultrasonic image. This calculation method is the same as the calculation method described in step S20 of the second embodiment.
  • the part probability calculation unit 25 further integrates the part probability based on the attitude angle of the ultrasound probe 2 and the part probability based on the result of image analysis on the single-frame ultrasound image, Each part probability that the part included in the image is each specific part is calculated.
  • Various methods can be used as the method for integrating the site probabilities calculated by the two types of calculation methods as described above. For example, for each of the sites that are candidates for the diagnostic site, the ultrasonic probe 2 is used. The average value of the part probability based on the posture angle and the part probability based on the result of image analysis on the single-frame ultrasound image can be calculated as each part probability.
  • step S6 following step S25, as in step S6 of the first embodiment shown in FIG. 4, it is determined whether or not the part probability calculated in step S25 is equal to or greater than a predetermined threshold value.
  • step S6 when at least one of the calculated plurality of part probabilities is equal to or greater than the threshold value, the process proceeds to step S7.
  • Steps S7 to S15 are the same as steps S7 to S15 of the first embodiment shown in FIG. 4, and detailed description thereof is omitted.
  • step S6 when all the calculated part probabilities are less than the threshold, the process returns to step S2.
  • step S2 and step S3 when acquisition of an ultrasonic image using the first imaging condition is performed, acquisition of an ultrasonic image using the first imaging condition is 1 in the subsequent step S18. It is determined that it is not the first time, and the process proceeds to step S26.
  • step S26 the image analysis unit 13 performs image analysis on the ultrasonic images of a plurality of frames acquired using the first imaging condition.
  • the image analysis method for the multiple-frame ultrasound image in step S26 is the same as the image analysis method for the multiple-frame ultrasound image described in step S21 of the second embodiment.
  • step S27 the part probability calculation unit 25 calculates a part probability based on the posture angle of the ultrasonic probe 2 detected in step S26 and a part probability based on the result of image analysis on the ultrasonic images of a plurality of frames.
  • the calculation method of the part probability based on the attitude angle of the ultrasonic probe 2 is the same as the calculation method described in step S5 of the first embodiment, and the part probability based on the result of image analysis on the ultrasonic images of a plurality of frames. This calculation method is the same as the calculation method described in step S22 of the second embodiment.
  • the part probability calculation unit 25 further integrates the part probability based on the posture angle of the ultrasonic probe 2 and the part probability based on the result of image analysis of the ultrasonic images of a plurality of frames, Each part probability that the part included in the image is each specific part is calculated.
  • Various methods can be used as the method for integrating the site probabilities calculated by the two types of calculation methods as in the method described in step S25.
  • step S23 following step S27, as in step S23 of the second embodiment shown in FIG. 6, it is determined whether or not the part probability calculated in step S27 is equal to or greater than a threshold value. If the calculated plurality of part probabilities are all less than the threshold value in step S23, the process proceeds to step S16.
  • step S16 as in step S16 of the first embodiment shown in FIG. 4, in step S23, apparatus controller 15 determines that the number of times that the plurality of part probabilities are all less than the threshold is N times. It is determined whether or not. If it is determined in step S16 that the number of times that the plurality of part probabilities are all less than the threshold is less than N, the process returns to step S2.
  • step S16 when the number of times that all the part probabilities are determined to be less than the threshold value is N times in step S16, an error is displayed on the display unit 8 in step S17, and the ultrasonic diagnostic apparatus 24 is displayed. This completes the operation. If at least one of the calculated plurality of part probabilities is greater than or equal to the threshold value in step S23, the process proceeds to step S7.
  • the site probability is calculated based on the posture angle of the ultrasound probe 2 and the analysis result of the ultrasound image. Based on the probability, the first imaging condition is changed to the second imaging condition, and an ultrasound image is further acquired using the second imaging condition. Therefore, the ultrasonic diagnostic apparatus 24 according to the third embodiment shown in FIG. 7 obtains ultrasonic images in two steps in the same manner as the ultrasonic diagnostic apparatus 1 according to the first embodiment shown in FIG. Since it is possible to narrow down the parts that are candidates for discrimination, it is possible to precisely discriminate the parts and set appropriate imaging conditions.
  • the part probability calculation unit 25 may calculate the part probability in consideration of both the part probability calculated based on the attitude angle of the ultrasonic probe 2 and the part probability calculated using the image analysis result. Therefore, it is possible to calculate the site probability with higher accuracy than calculating the site probability using only one of the attitude angle of the ultrasonic probe 2 and the result of the image analysis.
  • the average value of both is used as a method of integrating the part probability calculated based on the attitude angle of the ultrasonic probe 2 and the part probability calculated based on the result of the image analysis.
  • the part probability calculation unit 25 weights at least one of the part probability calculated based on the attitude angle of the ultrasonic probe 2 and the part probability calculated based on the result of the image analysis, An average value can be calculated.
  • priority can be given to a suitable part probability calculation method for each part, so that the precision of the part probability for each part can be improved.
  • the part probability calculation unit 25 calculates a large part probability as a part probability among the part probability calculated based on the posture angle of the ultrasonic probe 2 and the part probability calculated based on the result of the image analysis. You can also In this case, among the part probabilities calculated based on the posture angle of the ultrasonic probe 2 and the part probabilities calculated based on the result of the image analysis, a more preferable calculation method is used for each part. The calculated site probability can be used.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

超音波診断装置は、超音波プローブから超音波ビームの送受信を行って超音波画像を取得する画像取得部と、第1の画像化条件に従って取得された超音波画像に対して超音波プローブの姿勢角及び超音波画像の解析結果の少なくとも一方から、超音波画像に含まれる部位が特定の部位である確率を計算する部位確率計算部と、確率が閾値以上である場合に、第1の画像化条件を、確率を計算した部位を判別するための第2の画像化条件に変更する画像化条件変更部と、を有し、第2の画像化条件を用いて超音波画像を更に取得する。

Description

超音波診断装置及び超音波診断装置の制御方法
 本発明は、超音波診断装置及び超音波診断装置の制御方法に係り、特に、超音波画像が生成された被検体の部位を判別する超音波診断装置に関する。
 従来から、被検体に振動子アレイを当てて被検体の内部の画像を得るものとして、超音波診断装置が知られている。一般的な超音波診断装置は、複数の素子が配列された振動子アレイから被検体内に向けて超音波ビームを送信し、被検体からの超音波エコーを振動子アレイにおいて受信して素子データを取得する。更に、超音波診断装置は、得られた素子データを電気的に処理して、被検体の当該部位に対する超音波画像を得る。
 このような超音波診断装置を用いて被検体を診断する際には、それぞれの検査部位に対して診断に適した超音波画像を得るために、オペレータが撮像部位に応じて画像化条件を設定している。その場合には、撮像部位が変わると、その都度、オペレータが画像化条件を設定する必要がある。そこで、特許文献1には、オペレータにより設定された画像化条件を用いて撮像された超音波画像を、撮像した際の画像化条件と共に基準画像として保存しておき、基準画像に対応する部位の撮像の際に、基準画像の画像化条件を読み出して設定する超音波診断装置が開示されている。
特開2004-290404号公報
 ところで、例えば、救急における外傷患者の初期診察のために複数の診断部位を連続的に診断するeFAST(extended Focused Assessment with Sonography for Trauma)検査においては、複数の診断部位に対して汎用な画像化条件を初期条件として用いて超音波診断を行うことが多い。そのため、例えば、eFAST検査においては、生成された超音波画像から得られるそれぞれの診断部位を判別するための情報量が少なく、診断部位を精緻に判別することが難しいという問題があった。
 また、この場合において、特許文献1に開示の技術では、診断部位を判別する手段が存在しないため、診断部位が未知の場合には、診断部位に対して適切な基準画像を選定すること、すなわち、診断部位に対して適切な画像化条件を選定することが困難であるという問題があった。
 本発明は、このような従来の問題点を解消するためになされたものであり、診断部位を精緻に判別することができる超音波診断装置及び超音波診断装置の制御方法を提供することを目的とする。
 上記目的を達成するために、本発明の超音波診断装置は、超音波プローブと、設定された画像化条件に従って、超音波プローブから被検体に向けて超音波ビームの送受信を行って、超音波画像を取得する画像取得部と、第1の画像化条件に従って画像取得部において取得された超音波画像に対して、超音波プローブの姿勢角及び超音波画像の解析結果の少なくとも一方から、超音波画像に含まれる被検体の部位が特定の部位である確率を計算する部位確率計算部と、部位確率計算部において計算された確率が定められた閾値以上である場合に、第1の画像化条件を、確率を計算した部位を判別するための第2の画像化条件に変更する画像化条件変更部と、を有し、画像取得部は、第2の画像化条件を用いて超音波画像を更に取得することを特徴とする。
 また、超音波プローブの動作又は位置を検出する姿勢センサと、姿勢センサの信号に基づいて姿勢角を検出するプローブ姿勢角検出部と、を更に有し、部位確率計算部は、姿勢角に基づいて確率を計算することが好ましい。
 また、画像取得部において更に取得された超音波画像を解析する画像解析部を更に有することが好ましい。
 もしくは、画像取得部において取得された超音波画像を解析する画像解析部を更に有し、部位確率計算部は、画像解析部における解析結果に基づいて確率を計算しても良い。
 もしくは、画像取得部において取得された超音波画像を解析する画像解析部と、超音波プローブの動作又は位置を検出する姿勢センサと、姿勢センサの信号に基づいて姿勢角を検出するプローブ姿勢角検出部と、を更に有し、部位確率計算部は、姿勢角及び画像解析部における超音波画像の解析結果に基づいて確率を計算しても良い。
 また、部位確率計算部は、画像解析部における単フレームの超音波画像に対する画像解析の結果に基づいて確率を計算することが好ましい。
 もしくは、部位確率計算部は、画像解析部における複数フレームの超音波画像に共通して含まれる特定のパターンの動きに対する解析結果に基づいて確率を計算しても良い。
 また、画像取得部において更に取得された超音波画像に対する画像解析部の解析結果に基づいて確率が計算された被検体の部位を判別する部位判別部を更に有することが好ましい。
 また、本発明の超音波診断装置の制御方法は、設定された画像化条件に従って、超音波プローブから被検体に向けて超音波ビームの送受信を行って、超音波画像を取得し、第1の画像化条件に従って取得された超音波画像に対して、超音波プローブの姿勢角及び超音波画像の解析結果の少なくとも一方から、超音波画像に含まれる被検体の部位が特定の部位である確率を計算し、計算された確率が定められた閾値以上である場合に、第1の画像化条件を、確率を計算した部位を判別するための第2の画像化条件に変更し、第2の画像化条件を用いて超音波画像を更に取得することを特徴とする。
 本発明によれば、超音波診断装置は、部位確率計算部により計算された確率に基づいて、第1の画像化条件を、確率を計算した部位を判別するための第2の画像化条件に変更する画像化条件変更部を有するため、超音波診断装置において診断部位の判別が難しい画像化条件を用いて超音波画像を生成した場合においても、診断部位を精緻に判別することができる。
本発明の実施の形態1に係る超音波診断装置の構成を示すブロック図である。 実施の形態1において用いられた受信回路の内部構成を示すブロック図である。 実施の形態1において用いられた画像生成部の内部構成を示すブロック図である。 実施の形態1のフローチャートである。 実施の形態2に係る超音波診断装置の構成を示すブロック図である。 実施の形態2のフローチャートである。 実施の形態3に係る超音波診断装置の構成を示すブロック図である。 実施の形態3のフローチャートである。
 以下、この発明の実施の形態を添付図面に基づいて説明する。
実施の形態1
 図1に、本発明の実施の形態1に係る超音波診断装置の構成を示す。超音波診断装置1は、振動子アレイ2Aを内蔵する超音波プローブ2を備え、超音波プローブ2に、画像取得部3を介して表示制御部7及び表示部8が順次接続されている。
 画像取得部3は、超音波プローブ2の振動子アレイ2Aに接続される受信回路4及び送信回路5と受信回路4に接続された画像生成部6とを有しており、表示制御部7は、画像生成部6に接続されている。また、超音波プローブ2に、姿勢センサ9が備えられており、姿勢センサ9には、プローブ姿勢角検出部10が接続されている。更に、プローブ姿勢角検出部10に、部位確率計算部11及び画像化条件変更部12が順次接続されている。また、画像取得部3の画像生成部6に、画像解析部13が接続され、画像解析部13に部位判別部14が接続され、部位判別部14に画像化条件変更部12が接続されている。
 更に、画像取得部3、表示制御部7、プローブ姿勢角検出部10、部位確率計算部11、画像化条件変更部12、画像解析部13及び部位判別部14に装置制御部15が接続され、装置制御部15に、操作部16及び格納部17がそれぞれ接続されている。なお、装置制御部15と格納部17とは、それぞれ双方向に情報を受け渡し可能に接続される。
 図1に示す超音波プローブ2の振動子アレイ2Aは、1次元又は2次元に配列された複数の素子(超音波振動子)を有している。これらの素子は、それぞれ送信回路5から供給される駆動信号に従って超音波を送信すると共に被検体からの超音波エコーを受信して受信信号を出力する。各素子は、例えば、PZT(Lead Zirconate Titanate:チタン酸ジルコン酸鉛)に代表される圧電セラミック、PVDF(Poly Vinylidene Di Fluoride:ポリフッ化ビニリデン)に代表される高分子圧電素子及びPMN-PT(Lead Magnesium Niobate-Lead Titanate:マグネシウムニオブ酸-チタン酸鉛固溶体)に代表される圧電単結晶等からなる圧電体の両端に電極を形成した振動子を用いて構成される。
 そのような振動子の電極に、パルス状又は連続波状の電圧を印加すると、圧電体が伸縮し、それぞれの振動子からパルス状又は連続波状の超音波が発生して、それらの超音波の合成波から、超音波ビームが形成される。また、それぞれの振動子は、伝搬する超音波を受信することにより伸縮して電気信号を発生し、それらの電気信号は、超音波の受信信号として、それぞれの振動子から受信回路4に出力される。
 画像取得部3の受信回路4は、図2に示すように、増幅部18とA/D(Analog/Digital:アナログ/デジタル)変換部19が直列接続された構成を有している。受信回路4は、振動子アレイ2Aの各素子から出力される受信信号を増幅部18において増幅し、A/D変換部19においてデジタル化して得られた素子データを画像生成部6に出力する。
 送信回路5は、例えば、複数のパルス発生器を含んでおり、装置制御部15からの制御信号に応じて選択された送信遅延パターンに基づいて、振動子アレイ2Aの複数の素子から送信される超音波が超音波ビームを形成するようにそれぞれの駆動信号の遅延量を調節して複数の素子に供給する。
 画像取得部3の画像生成部6は、図3に示すように、Bモード(Brightness mode:輝度モード)処理部20と画像処理部21とが順次直列に接続された構成を有している。
 Bモード処理部20は、装置制御部15からの制御信号に応じて選択された受信遅延パターンに基づき、設定された音速に従う各素子データにそれぞれの遅延を与えて加算(整相加算)を施す、受信フォーカス処理を行う。この受信フォーカス処理により、超音波エコーの焦点が絞り込まれた音線信号が生成される。更に、Bモード処理部20は、音線信号に対し、超音波の反射位置の深度に応じて伝搬距離に起因する減衰の補正を施した後、包絡線検波処理を施して、被検体内の組織に関する断層画像情報であるBモード画像信号を生成する。Bモード処理部20において生成されたBモード画像信号は、表示制御部7又は画像解析部13に出力される。
 画像処理部21は、Bモード処理部20において生成されたBモード画像信号を通常のテレビジョン信号の走査方式に従う画像信号に変換(ラスター変換)し、Bモード画像信号に諧調処理等の各種の必要な画像処理を施した後、Bモード画像信号を表示制御部7に出力する。
 図1に示すように、超音波診断装置1の表示制御部7は、画像取得部3において取得されたBモード画像信号に基づいて、表示部8に超音波診断画像を表示させる。
 表示部8は、例えば、LCD(Liquid Crystal Display:液晶ディスプレイ)等のディスプレイ装置を含んでおり、装置制御部15の制御の下、超音波診断画像を表示する。
 姿勢センサ9は、超音波プローブ2に備えられ、超音波診断中においてオペレータにより操作される超音波プローブ2の動作又は位置を電気信号として検出するものである。
 姿勢センサ9は、超音波プローブ2の動作又は位置を検出できるものであれば特に制限されないが、以下においては、姿勢センサ9として超音波プローブ2の動作を検出する加速度センサを用いた場合について説明する。この際、姿勢センサ9は、3次元空間内において互いに直交する3つの軸に沿った3成分の加速度を電気信号として検出する。更に、姿勢センサ9が検出した信号は、プローブ姿勢角検出部10に出力される。
 プローブ姿勢角検出部10は、姿勢センサ9が検出した超音波プローブ2の動作を示す信号に基づいて、超音波プローブ2の姿勢角を検出する。例えば、姿勢センサ9において得られた3次元空間内の加速度から、周知の計算方法を用いて超音波プローブ2の姿勢角を算出することができる。
 部位確率計算部11は、オペレータが超音波プローブ2を用いて超音波診断を行った際に、プローブ姿勢角検出部10において検出された超音波プローブ2の姿勢角に基づいて、画像取得部3において取得された超音波画像に含まれる被検体の部位が特定の部位である確率(部位確率)を計算する。部位確率計算部11は、例えば、画像取得部3において取得された超音波画像に含まれる被検体の部位が心臓である確率を計算することができる。なお、部位確率計算部11における部位確率の計算については、後に詳述する。
 画像化条件変更部12は、画像取得部3において超音波画像を取得する際に用いられた画像化条件を、超音波診断がなされた部位に応じた画像化条件に変更する。ここで、画像化条件は、超音波診断の際のフレームレート、超音波画像の解像度、超音波画像の輝度及び超音波診断の際のダイナミックレンジを含む。画像化条件変更部12は、これらの画像化条件のうち、少なくとも1つの条件を、部位確率計算部11における部位確率の計算結果又は部位判別部14における部位の判別結果に基づいて変更する。
 画像解析部13は、画像取得部3の画像生成部6のBモード処理部20において生成されたBモード画像信号に対する動き解析及びパターン認識等の画像解析を行い、その画像解析結果を部位判別部14に出力する。
 部位判別部14は、画像解析部13における超音波画像の解析結果に基づいて、超音波画像に含まれる被検体の部位を判別し、画像化条件変更部12に対して判別した部位の情報を出力する。
 装置制御部15は、オペレータにより操作部16を介して入力された指令に基づいて超音波診断装置1の各部の制御を行う。
 操作部16は、オペレータが入力操作を行うためのものであり、キーボード、マウス、トラックボール及びタッチパネル等を備えて構成することができる。
 格納部17は、超音波診断装置1の動作プログラム等を格納するもので、HDD(Hard Disc Drive:ハードディスクドライブ)、SSD(Solid State Drive:ソリッドステートドライブ)、FD(Flexible Disc:フレキシブルディスク)、MOディスク(Magneto-Optical disc:光磁気ディスク)、MT(Magnetic Tape:磁気テープ)、RAM(Random Access Memory:ランダムアクセスメモリ)、CD(Compact Disc:コンパクトディスク)、DVD(Digital Versatile Disc:デジタルバーサタイルディスク)、SDカード(Secure Digital card:セキュアデジタルカード)、USBメモリ(Universal Serial Bus memory:ユニバーサルシリアルバスメモリ)等の記録メディア、又はサーバ等を用いることができる。
 なお、画像生成部6、表示制御部7、プローブ姿勢角検出部10、部位確率計算部11、画像化条件変更部12、画像解析部13及び部位判別部14は、CPU(Central Processing Unit:中央処理装置)と、CPUに各種の処理を行わせるための動作プログラムから構成されるが、それらを、デジタル回路を用いて構成しても良い。また、これらの画像生成部6、表示制御部7、プローブ姿勢角検出部10、部位確率計算部11、画像化条件変更部12、画像解析部13及び部位判別部14を、部分的にあるいは全体的に1つのCPUに統合させて構成することもできる。
 次に、図4に示すフローチャートを用いて、実施の形態1における超音波診断装置1の動作について説明する。
 まず、ステップS1において、装置制御部15は、画像取得部3において超音波画像を取得するための画像化条件を第1の画像化条件に初期化する。第1の画像化条件は、例えば、複数の診断部位に対して汎用な設定がなされた画像化条件である。このような、複数の診断部位に対して汎用な画像化条件は、例えば、eFAST検査等の連続診断において、複数の部位を迅速に診断できるように設定されることが多い。
 ステップS2において、第1の画像化条件の下、超音波プローブ2の振動子アレイ2Aの複数の超音波振動子を用いた超音波ビームの送受信及び走査が画像取得部3の受信回路4及び送信回路5により行われる。この際に、被検体からの超音波エコーを受信した各超音波振動子から受信信号が受信回路4に出力され、受信回路4の増幅部18及びA/D変換部19において受信信号の増幅及びA/D変換が行われて受信信号が生成される。また、超音波ビームの送受信及び走査が行われている際に、姿勢センサ9は、オペレータにより操作されている超音波プローブ2の動作を電気信号として検出する。
 続くステップS3及びステップS4は、同期並列処理される。
 ステップS3において、画像生成部6のBモード処理部20は、第1の画像化条件において設定されている、超音波画像取得の際のフレームレートに基づいて受信回路4から入力された受信信号を用いて、順次Bモード画像を生成する。
 また、ステップS4において、プローブ姿勢角検出部10は、姿勢センサ9から入力された超音波プローブ2の動作を表す電気信号に基づいて、ステップS2において行われた超音波ビームの送受信又は走査の際の超音波プローブ2の姿勢角を検出する。例えば、姿勢センサ9により検出された、3次元空間内において互いに直交する3つの軸に沿った3成分の加速度から、公知の計算方法を用いて超音波プローブ2の姿勢角を算出することができる。超音波プローブ2の姿勢角は、超音波診断を行う被検体の各部位に応じて異なる。例えば、eFAST検査においては、診断部位として心臓、肺、右腹部、左腹部及び膀胱があり、これらの部位に対して適切な検査を行うために、それぞれの部位に応じて超音波プローブ2を、異なる姿勢角において使用することが知られている。また、複数の部位の超音波診断において、例えば腹部の診断において、オペレータは、超音波プローブ2を動かしながら診断を行うことが多い。このように、超音波診断中にオペレータにより超音波プローブ2が動かされる場合には、プローブ姿勢角検出部10は、例えば、一定時間内の超音波プローブ2の姿勢角の平均値を、超音波プローブ2の姿勢角として検出することができる。
 ステップS3におけるBモード画像の生成及びステップS4における超音波プローブ2の姿勢角の検出は、画像取得部3及びプローブ姿勢角検出部10に対して、装置制御部15から、Bモード画像生成を開始する旨の情報及び姿勢角の検出を開始する旨の情報が同時に送られることにより、それぞれ同時に開始される。ステップS3及びステップS4において、Bモード画像の生成及び超音波プローブ2の姿勢角の検出が開始されると、第1の画像化条件において設定されているフレームレートとプローブ姿勢角検出部10が姿勢センサ9の信号をサンプリングするサンプリング周波数とが同期される。このようにして、ステップS3におけるBモード画像の生成及びステップS4における超音波プローブ2の姿勢角の検出が同期並行処理される。なお、例えば、第1の画像化条件において設定されているフレームレートよりも高周波数の姿勢センサの情報を間引くことにより、第1の画像化条件において設定されているフレームレートとプローブ姿勢角検出部10のサンプリング周波数とを一致させることができる。
 ステップS5において、部位確率計算部11は、ステップS4においてプローブ姿勢角検出部10が検出した超音波プローブ2の姿勢角から、ステップS3において画像生成部6のBモード処理部20が生成したBモード画像(超音波画像)に含まれる被検体の部位が特定の部位である確率(部位確率)を計算する。部位確率計算部11における部位確率の計算には、種々の計算方法を用いることができるが、例えば、部位確率計算部11は、被検体の特定の部位に対して目標とする超音波プローブ2の姿勢角(目標プローブ角度)とプローブ姿勢角検出部10が検出した実際の姿勢角との差の逆数を、部位確率として計算することができる。その場合には、部位確率計算部11は、被検体の各部位に対する目標プローブ角度を用いて、超音波画像に含まれる部位が特定の各部位である部位確率をそれぞれ計算する。
 ステップS6において、装置制御部15は、超音波プローブ2の姿勢角を用いて部位確率計算部11が計算した部位確率が定められた閾値以上か否かを判定する。例えば、部位確率計算部11が、ステップS3において生成された超音波画像に含まれる部位がそれぞれ心臓、肺、右腹部、左腹部、及び、膀胱である確率を計算した場合に、これらの部位確率がそれぞれ閾値以上であるか否かを判定する。部位確率の判定に用いる閾値は、超音波診断の際の超音波プローブ2の姿勢角、すなわち、目標プローブ角度が類似している部位に対する部位確率のみが閾値以上となる値であることが好ましい。
 なお、この閾値は、例えば、過去の診断又は予備試験等における超音波プローブ2の姿勢角に対して統計値を算出する等により決定されることができる。
 ステップS6において、部位確率計算部11が計算した複数の部位確率のうち少なくとも1つの部位確率が閾値以上であると装置制御部15が判定した場合には、ステップS7に進む。ステップS7において、画像化条件変更部12は、装置制御部15により閾値以上であると判定された部位確率に基づいて、第1の画像化条件を、部位確率を計算した部位を判別するための第2の画像化条件に変更する。例えば、ステップS6において、超音波画像に含まれる部位が心臓である部位確率及び右腹部である部位確率が閾値以上と判定された場合には、画像化条件変更部12は、第1の画像化条件を、超音波画像に含まれる部位が心臓及び右腹部のどちらであるかを判別するための第2の画像化条件に変更する。この場合には、例えば、第2の画像化条件として、心臓の拍動に対するサンプリングの精度を高めるために、超音波診断の際のフレームレートを高速にした条件を設定することができる。
 ステップS6において、部位確率計算部11が計算した複数の部位確率の全てが閾値未満であると装置制御部15において判定された場合には、ステップS16に進む。ステップS16において、装置制御部15は、ステップS6において複数の部位確率が全て閾値未満であると装置制御部15に判定された回数がN回であるか否かを判定する。複数の部位確率が全て閾値未満であると装置制御部15に判定された回数がN回未満である場合には、ステップS2に戻り、第1の画像化条件を用いた超音波画像の取得が行われる。その後、複数の部位確率が全て閾値未満であると判定された回数がN回となった場合には、ステップS17へと進み、表示部8においてエラーが生じた旨のメッセージが表示された後、超音波診断装置1は動作を終了する。
 なお、Nは1以上の自然数であって、超音波診断装置1のプログラム等において予め設定できるが、オペレータが超音波診断装置1を用いた超音波画像の生成に失敗した場合など、超音波画像を取得し直すことが好ましい場合があるため、2以上の数であることが好ましい。
 ステップS7に続くステップS8においては、画像取得部3の受信回路4及び送信回路5は、第2の画像化条件を用いて、更に、超音波ビームを被検体の部位に対して送受信及び走査する。
 更に、ステップS9においては、画像取得部3の画像生成部6のBモード処理部20は、第2の画像化条件を用いて取得された超音波の受信信号を用いてBモード画像(超音波画像)信号を更に生成する。
 ステップS10において、画像解析部13は、画像生成部6のBモード処理部20が更に生成した超音波画像に対して、その超音波画像に含まれる被検体の部位を判別するための画像解析を行う。例えば、第2の画像化条件として超音波診断の際のフレームレートを高速に設定した場合には、画像解析部13は、画像解析として、時系列の画像解析であるオプティカルフローを行うことができる。オプティカルフローは、図示しないが、画像取得部3により時系列に取得された複数フレームの超音波画像を用いて、複数フレームの超音波画像に共通に含まれる同一部位における複数の特徴的なパターンに対して、各パターンの動く方向及び距離を、ベクトル等を用いてマッピングする手法である。このような、時系列の解析方法を用いることにより、心臓のような動きの多い部位と腹部のような動きの少ない部位とを判別し易くすることができる。
 ステップS11において、部位判別部14は、画像解析部13における超音波画像の解析結果に基づいて、超音波画像に含まれる被検体の部位を判別する。例えば、ステップS6において閾値以上と判定された部位確率が、超音波画像に含まれる部位が心臓である部位確率及び右腹部である部位確率であって、画像解析部13がオプティカルフローを用いた画像解析を行った場合には、超音波画像にマッピングされたベクトルの個数に基づいて部位の判別を行う。すなわち、部位判別部14は、マッピングされたベクトルの個数が定められた一定数以上であれば心臓と判別し、マッピングされたベクトルの個数が一定数未満であれば右腹部と判別する。
 ステップS12において、画像化条件変更部12は、第2の画像化条件を部位判別部14により判別された部位に適切な第3の画像化条件に変更する。
 続くステップS13において、画像取得部3の受信回路4及び送信回路5は、第3の画像化条件を用いて、部位判別部14により判別された部位に対して、超音波ビームの送受信及び走査を行う。
 更に、ステップS14において、画像取得部3の画像生成部6は、第3の画像化条件を用いて受信回路4及び送信回路5により取得された受信信号からBモード画像信号を生成する。
 ステップS15において、装置制御部15は、現在超音波診断を行っている被検体の部位が変更されたか否かを判定する。例えば、診断部位が心臓から肺に移行すると、診断部位が変更されたと判定される。具体的には、一般に診断部位が変更される場合にはプローブが体表から離れて空中放射になるため、このような空中放射状態(反射信号が得られない状態)を検出することにより、診断部位の変更を判定することができる。ステップS15において、診断部位が変更されていない、すなわち、同一の診断部位を診断していると判定された場合には、ステップS13に戻り、第3の画像化条件を用いた超音波画像の取得が行われる。一方、ステップS15において、診断部位が変更されたと判定された場合には、ステップS1に戻り、第3の画像化条件が第1の画像化条件へと初期化される。
 以上のように、図1に示す実施の形態1の超音波診断装置1によれば、超音波プローブ2の姿勢角に基づいて部位確率を計算するために第1の画像化条件を用いて超音波画像を取得した後に、計算した部位確率に基づいて超音波画像に含まれる部位を判別するために、第1の画像化条件を第2の画像化条件に変更して超音波画像を更に取得する。このように、2回に分けて超音波画像の取得を行うことにより、判別の候補となる部位を絞り込むことができるため、部位を精緻に判別して適切な画像化条件を設定することができる。また、超音波診断装置1は、従来技術として広く行われているデータベースを参照したパターン判別のみを使用した部位の判別と比較してデータの処理量が少なく、超音波画像に含まれる部位の判別の際に、画像解析に要する時間を短くすることができる。更に、第1の画像化条件として、複数の部位に対して汎用な画像化条件を用いて超音波画像を取得する場合においても、第1の画像化条件を、ステップS6における部位確率の判定結果に基づいて、判別の候補となる部位を判別するための第2の画像化条件に変更することができるため、超音波診断装置1は、精度良く部位を判定することができる。
 また、ステップS3のBモード画像の生成とステップS4の超音波プローブ2の姿勢角の取得は、同期並列処理されるものとして説明したが、ステップS5に移行する前にBモード画像及び超音波プローブ2の姿勢角が取得されていれば、ステップS3とステップS4とが同期並列処理されなくても良い。すなわち、ステップS3におけるBモード画像の取得の後に、ステップS4の超音波プローブ2の姿勢角の取得が行われても良く、あるいは、超音波プローブ2の姿勢角の取得の後に、Bモード画像の取得が行われても良い。
 また、プローブ姿勢角検出部10における姿勢角の計算方法は、超音波プローブ2の姿勢角を計算することができれば、上述した方法には限定されない。例えば、図示しないが、プローブ姿勢角検出部10において、姿勢センサ9が検出した加速度を2回、一定の時間内において時間積分することにより算出した超音波プローブ2の位置情報に基づいて、超音波プローブ2の姿勢角を計算しても良い。
 また、超音波プローブ2の動作を検出する姿勢センサ9として加速度センサを用いることを例示したが、姿勢センサ9は、超音波プローブ2の動作又は位置を検出するものであれば、他のセンサが用いられても良い。このような姿勢センサ9としては、例えば、加速度センサの他、ジャイロセンサ、磁気センサ又はGPS(Global Positioning System:全地球測位システム)センサ等を用いることができる。また、これらのセンサは、超音波プローブ2に装着されていても良く、超音波プローブ2に内蔵されていても良い。
 例えば、姿勢センサ9として超音波プローブ2に取り付けられたジャイロセンサを用い、ジャイロセンサから得られる超音波プローブ2の角速度に基づいて、周知の計算方法から超音波プローブ2の姿勢角を検出しても良い。また、例えば、姿勢センサ9として磁気センサを用い、磁気センサにより検出された超音波プローブ2の位置情報に基づいて超音波プローブ2の姿勢角を検出しても良い。更に、例えば、姿勢センサ9としてGPSセンサを用い、GPSセンサから得られた超音波プローブ2の位置情報に基づいて超音波プローブ2の姿勢角を検出しても良い。
 また、姿勢センサ9は、超音波プローブ2の動作又は位置を検出するものであれば、超音波プローブ2に装着又は内蔵されていなくても良く、超音波プローブ2から離れて備えられていても良い。このような姿勢センサ9としては、例えば、図示しないが、周知のカメラ等を用いて、超音波プローブ2の位置情報を検出し、姿勢センサ9は、検出された超音波プローブ2の位置情報に基づいて超音波プローブ2の姿勢角を検出しても良い。
 また、第2の画像化条件として、超音波診断の際のフレームレートを高速に設定することを例示したが、他の条件を第2の画像化条件としても良い。例えば、ステップS6において、超音波画像に含まれる部位が心臓である部位確率及び右腹部である部位確率が閾値以上と判定された場合に、心房、心室及び心室中隔等の心臓において特徴的なパターンを明瞭に描出するために、超音波画像を高輝度化する条件を第2の画像化条件としても良い。超音波画像の高輝度化は、例えば、受信回路4の増幅部18のゲインを上げることにより行っても良い。また、例えば、受信回路4のA/D変換部19におけるダイナミックレンジを上げることにより超音波画像を高輝度化しても良い。もちろん、ゲイン及びダイナミックレンジは、同時に調節されることもできる。また、超音波プローブ2の振動子アレイ2Aに対して送信回路5が出力する駆動電圧を大きくしてゲインを上げることにより超音波画像の高輝度化を行っても良い。
 また、超音波画像に含まれる部位のパターンを明瞭に描出するための第2の画像化条件として、超音波画像を高解像度化する条件を用いても良い。高解像度化は、例えば、図示しないが、超音波診断の際に用いる振動子アレイ2Aの超音波振動子の数を多くして、用いられる超音波振動子の密度を大きくすることにより行うことができる。
 このように、第2の画像化条件として、超音波画像を明瞭に描出する高輝度化及び高解像度化の少なくとも一方を行った場合には、例えば、画像解析部13は、第2の画像化条件を用いて取得された超音波画像に対してテンプレートマッチング、テクスチャ解析及び機械学習等を用いたパターン認識を行うことが容易となる。部位判別部14は、画像解析部13におけるパターン認識の結果に基づいて、超音波画像に含まれる画像の判別を行う。
 以上、主に、ステップS6において、装置制御部15が閾値以上であると判定した部位確率が、超音波画像に含まれる部位が心臓である部位確率及び右腹部である部位確率の場合を説明したが、もちろん、装置制御部15は、超音波画像に含まれる部位が心臓及び右腹部以外の部位である部位確率を閾値以上と判定する場合もある。肺及び膀胱の超音波診断を行う際の超音波プローブ2の姿勢角は類似しているため、例えば、装置制御部15が、超音波画像に含まれる部位が肺である部位確率及び膀胱である部位確率を閾値以上であると判定した場合、超音波診断の際のフレームレートを低速にする第2の画像化条件を用いることができる。肺は臓器としての構造が少なく、大部分が空気であるため、肺の超音波画像を取得した場合には、時間に対する変化が小さい。一方、膀胱は臓器としての構造を有するため、肺と比較して時間に対する変化が大きい。そのため、フレームレートを低速に設定して、取得した超音波画像間における部位の変化を顕著にすることができる。
 第2の画像化条件として、超音波診断の際のフレームレートを低速にした場合には、画像解析部13は、例えば、第2の画像化条件を用いて時系列に取得された超音波画像間におけるパターンの移動量(フレーム差分値)を算出することができる。
 部位判別部14は、例えば、画像解析部13において算出されたフレーム差分値が一定値以上か否かを判定する。この際、部位判別部14は、例えば、フレーム差分値が一定値以上であれば、超音波画像に含まれる部位が、時間に対する変化が大きい部位である膀胱であると判別する。一方、部位判別部14は、フレーム差分値が一定値未満であれば、超音波画像に含まれる部位が、時間に対する変化の小さい肺であると判別する。なお、超音波診断の際のフレームレートを低速にする第2の画像化条件を用いて取得された超音波画像に対して、画像解析部13において行われる超音波画像間の解析方法は、超音波画像に含まれる部位の判別を容易にするものであれば、上述したフレーム差分値を算出することに限定されない。例えば、フレーム差分値の変化率を算出しても良く、超音波画像に含まれる部位のエッジ構造の面積の変化率を算出しても良く、超音波画像において特定の輝度を有する画素の面積の変化率を算出しても良い。
 また、画像取得部3の画像生成部6において、受信回路4から出力された受信信号からBモード画像信号を生成したが、受信信号から、Bモード画像信号以外の画像信号が生成されても良い。例えば、図示しないが、受信信号から、Mモード(Motion mode:動きモード)画像信号、カラードプラ画像信号、弾性画像信号又は音速マップ信号が生成されるように、画像生成部6のBモード処理部20が、Mモード画像信号、カラードプラ画像信号、弾性画像信号又は音速マップ信号を生成する処理部に置換されても良い。
 このように、受信信号からBモード画像信号以外の画像信号が生成された場合には、それぞれの画像信号の種類に応じた画像解析を行っても良い。例えば、受信信号からMモード画像信号が生成された場合には、画像解析部13は、テンプレートマッチング、テクスチャ解析及び機械学習等を用いたパターン認識を行っても良く、オプティカルフローを用いた時系列の画像解析を行っても良い。
 また、例えば、受信信号から、カラードプラ画像信号、弾性画像信号又は音速マップ信号が生成された場合には、画像解析部13は、それぞれの画像信号に含まれる色情報の解析等を行うことができる。
 また、以上において説明した超音波診断装置1は、小型のため、容易に携帯されて用いられる携帯型の超音波診断装置であっても良く、診察室等に備え付けて用いられる据置型の超音波診断装置であっても良い。
 また、超音波プローブ2は、被検体に向けて超音波ビームを送受信できるものであれば特に限定されず、セクタ型、コンベックス型、リニア型及びラジアル型等の形態であっても良い。
実施の形態2
 図5に実施の形態2の超音波診断装置22を示す。この超音波診断装置22は、図1に示した実施の形態1の超音波診断装置1において、姿勢センサ及びプローブ姿勢角検出部を有さず、部位確率計算部11の代わりに部位確率計算部23を有し、更に、画像解析部13が部位確率計算部23に接続するものである。その他の構成は、図1に示す超音波診断装置1と同一の構成要素を有する。そのため、図5において、図1と同一の構成要素には同一の参照番号を付し、それらの構成要素の詳細な説明は省略する。
 実施の形態1における部位確率計算部11は、超音波プローブ2の姿勢角に基づいて、超音波画像に含まれる被検体の部位が特定の各部位である確率を計算したが、この実施の形態2における部位確率計算部23は、画像解析の結果に基づいて、超音波画像に含まれる被検体の部位が特定の各部位である確率を計算する。
 このような構成の下、以下において、図6に示すフローチャートを用いて実施の形態2の超音波診断装置22の動作を説明する。
 ステップS1~ステップS3においては、ステップS3がステップS4と同期並列処理されていないことを除いて、図4に示す実施の形態1のステップS1~ステップS3と同一であり、画像化条件が第1の画像化条件に初期化され、第1の画像化条件を用いた超音波ビームの送受信及び走査により取得した受信信号から、Bモード画像(超音波画像)信号が生成される。
 ステップS3に続くステップS18において、装置制御部15は、第1の画像化条件を用いた超音波画像の取得が1回目か否かを判定する。
 ステップS18において、第1の画像化条件を用いた超音波画像の取得が1回目であった場合には、ステップS19に進む。ステップS19において、画像解析部13は、画像取得部3の画像生成部6から出力された単フレームの超音波画像に対して画像解析を行う。ステップS19において行われる単フレームの超音波画像に対する画像解析は、超音波画像に含まれる被検体の部位の候補を、例えば、eFAST検査において定められている複数の診断部位から絞り込むために行われる。そのような、単フレームの超音波画像に対する画像解析として、例えば、画像解析部13は、単フレームの超音波画像に含まれるエッジ構造を検出し、特定の方向、例えば斜め方向を向いたエッジ構造の画素の面積(エッジ画素面積)を求めることができる。
 更に、ステップS20において、部位確率計算部23は、ステップS19における単フレームの超音波画像に対する画像解析の結果に基づいて、超音波画像に含まれる部位が特定の各部位である部位確率を計算する。部位確率計算部23における部位確率の計算には、種々の計算方法を用いることができるが、例えば、部位確率計算部23は、被検体の特定の各部位に対して目標とする、特定方向を向いたエッジ構造の画素の面積(目標エッジ画素面積)とステップS19において算出された実際のエッジ画素面積との差の逆数を、部位確率として計算することができる。その場合には、部位確率計算部23は、被検体の各部位に対する目標画素面積を用いて、超音波画像に含まれる部位が特定の各部位である確率をそれぞれ計算する。
 続くステップS6において、装置制御部15は、実施の形態1のステップS6と同様に、ステップS20において算出された部位確率が定められた閾値以上か否かを判定する。部位確率の判定に用いる閾値は、例えば、エッジ画素面積、すなわち、目標エッジ画素面積が類似している部位に対する部位確率のみが閾値以上となることが好ましい。例えば、画像解析によりエッジ構造の検出が行われると、心臓及び右腹部の超音波画像は共に、斜め方向のエッジ構造が多く検出されるため、心臓及び右腹部に対する目標エッジ画素面積は類似する。一方、肺は、臓器としての構造が少ないため、画像解析によりエッジ構造の検出が行われたとしても斜め方向のエッジ構造が少なく、心臓及び右腹部とは目標エッジ画素面積が類似しない。このため、肺を心臓及び右腹部から区別することができる。
 ステップS6において、部位確率計算部23が計算した複数の部位確率のうち少なくとも1つの部位確率が閾値以上であると判定された場合には、ステップS7に進む。ステップS7~ステップS15は、図4に示す実施の形態1のステップS7~ステップS15と同一であり、部位確率に基づいて第1の画像化条件を第2の画像化条件に変更した後、更に取得した超音波画像を画像解析することにより、超音波画像に含まれる被検体の部位が判別される。その後、第2の画像化条件が、判別された部位に対して好適な第3の画像化条件に変更され、第3の画像化条件を用いて超音波画像が更に取得される。そして、診断部位が変更されるまで超音波画像が更に取得され、診断部位が変更された際には、ステップS1に戻る。
 ステップS6において、部位確率計算部23が計算した複数の部位確率が全て閾値未満であると判定された場合には、ステップS2に戻る。2回目のステップS2及びステップS3において超音波画像が取得されると、続くステップS18において、超音波画像の取得が1回目ではないと装置制御部15により判定されて、ステップS21に進む。
 ステップS21において、画像解析部13は、画像取得部3の画像生成部6から出力された複数フレームの超音波画像に対して画像解析を行う。ステップS21において行われる複数フレームの超音波画像に対する画像解析は、ステップS19における単フレームの超音波画像に対する画像解析と同様に、超音波画像に含まれる被検体の部位の候補を、複数の診断部位から絞り込むために行われる。そのような、複数フレームの超音波画像に対する画像解析として、例えば、第1の画像化条件を用いて取得された超音波画像に対して、いわゆるオプティカルフローを用いた画像解析を行うことができる。
 続くステップS22において、部位確率計算部23は、ステップS21における複数フレームの超音波画像に対する画像解析の結果に基づいて部位確率を計算する。部位確率計算部23は、例えば、被検体の特定の各部位に対して目標とする、オプティカルフローにおいてマッピングされたベクトルの数(目標ベクトル数)とステップS21において算出された実際のベクトルの数(ベクトル数)との差の逆数を、部位確率として計算することができる。その場合には、部位確率計算部23は、被検体の各部位に対する目標ベクトル数を用いて、超音波画像に含まれる部位が特定の各部位である確率をそれぞれ計算する。
 なお、この場合には、第1の画像化条件のフレームレートを用いて超音波画像を取得しているため、動きの多い部位と動きの少ない部位を、部位確率を計算することにより区別することができるが、明確に区別されない部位もある。例えば、心臓は、拍動を有するため、心臓の超音波画像には、オプティカルフローにより多くのベクトルがマッピングされる。また、腹部は、臓器としての構造が多く含まれ、かつ、超音波診断の際に超音波プローブ2がオペレータにより動かされるため、腹部の超音波画像には、超音波プローブ2の動きに起因して多くのベクトルがマッピングされる。一方、例えば、肺は、臓器としての構造が少なく、かつ、超音波診断の際にオペレータにより超音波プローブ2を動かされることが少ないため、肺の超音波画像には、オプティカルフローによりマッピングされるベクトルが少ない。そのため、例えば、第1の画像化条件を用いて得られた超音波画像に対するオプティカルフローに基づいた部位確率の計算により、動きの多い部位である心臓及び腹部と動きの少ない部位である肺とを区別することができる。
 ステップS23において、装置制御部15は、ステップS6と同様に、ステップS22において得られた部位確率が閾値以上であるか否かを判定する。
 ステップS23において、複数フレームの超音波画像に対する画像解析の結果に基づいて計算された複数の部位確率の全てが閾値未満であると判定された場合には、ステップS16に進む。
 ステップS16においては、図4に示す実施の形態1のステップS16と同様に、ステップS23において複数の部位確率が全て閾値未満であると判定された数がN回であるか否かが判定される。その際、ステップS23において複数の部位確率が全て閾値未満であると判定された数がN回未満であった場合には、ステップS2に戻る。その後、ステップS23において複数の部位確率が全て閾値未満であると判定された数がN回となった場合には、ステップS17において、表示部8がエラー表示をして超音波診断装置22の動作が終了する。
 一方、ステップS23において、複数フレームの超音波画像に対する画像解析の結果に基づいて計算された複数の部位確率のうち少なくとも1つが閾値以上であると判定された場合には、ステップS7に進む。
 以上のように、図5に示す実施の形態2の超音波診断装置22によれば、超音波画像の解析結果に基づいて部位確率を計算し、この部位確率に基づいて第1の画像化条件を第2の画像化条件に変更し、第2の画像化条件を用いて超音波画像を更に取得する。そのため、図5に示す実施の形態2の超音波診断装置22は、図1に示す実施の形態1の超音波診断装置1と同様に、2回に分けて超音波画像の取得を行うことにより、判別の候補となる部位を絞り込むことができるため、部位を精緻に判別して適切な画像化条件を設定することができる。また、部位確率計算部23は、単フレームの超音波画像を用いた画像解析の結果又は複数フレームの超音波画像を用いた画像解析の結果に基づいて部位確率を計算することができる、すなわち、部位の構造又は部位の動きの特徴を用いて部位確率を計算することができる。そのため、部位に適した画像解析を用いて精度の良い部位確率を計算することができる。
 また、単フレームの超音波画像を用いた画像解析の方法として、超音波画像に含まれるエッジ構造の検出が用いられる場合を説明したが、高輝度画素の検出及びテンプレートマッチング等のパターン認識等の画像解析の方法を用いることもできる。
 例えば、単フレームの超音波画像を用いた画像解析として高輝度画素の検出が行われる場合には、ステップS19において、画像解析部13は、超音波画像に含まれる一定以上の輝度を有する画素の面積(高輝度画素面積)を算出することができる。続くステップS20において、部位確率計算部23は、例えば、各診断部位に対する目標の高輝度画素面積(目標高輝度画素面積)とステップS19において算出された実際の高輝度画素面積との差の逆数を、部位確率として計算することができる。
 また、例えば、単フレームの超音波画像を用いた画像解析としてテンプレートマッチング等のパターン認識が行われる場合には、ステップS19において、画像解析部13は、各診断部位のテンプレートと実際の超音波画像に含まれる部位との類似度をスコアとして算出することができる。続くステップS20において、部位確率計算部23は、例えば、各診断部位に対する目標の類似度のスコア(目標スコア)とステップS19において算出された実際のスコアとの差の逆数を、部位確率として計算することができる。
 また、複数フレームの超音波画像を用いた画像解析の方法として、オプティカルフローが用いられる場合を説明したが、他の解析方法を用いることもできる。例えば、このような画像解析の方法として、画像解析部13は、複数フレームの超音波画像に含まれる部位の特定の高輝度点をそれぞれ時系列に追跡し、その高輝度点の往復運動に対する周期を算出することができる。その場合には、部位確率計算部23は、例えば、各診断部位に対する目標の高輝度点の周期と算出された実際の高輝度点の周期との差の逆数を、部位確率として計算することができる。
実施の形態3
 図7に実施の形態3の超音波診断装置24を示す。この超音波診断装置24は、図1に示す実施の形態1の超音波診断装置1の部位確率計算部11を部位確率計算部25に置換して、部位確率計算部25を画像解析部13に接続したことを除いて、図1に示す超音波診断装置1と同一の構成要素を有する。そのため、図7において、図1と同一の構成要素には同一の参照番号を付し、それら構成要素については、詳細な説明を省略する。
 ところで、図1に示した実施の形態1の部位確率計算部11は、超音波プローブ2の姿勢角のみに基づいて部位確率を計算し、また、図5に示した実施の形態2の部位確率計算部23は、画像解析の結果のみに基づいて部位確率を計算した。これらに対して、実施の形態3の部位確率計算部25は、超音波プローブ2の姿勢角及び画像解析の結果を統合して部位確率を計算する。
 このような構成の下、以下において、図8に示すフローチャートを用いて実施の形態3の超音波診断装置24の動作を説明する。
 ステップS1~ステップS4においては、図4に示す実施の形態1のステップS1~ステップS4と同一であり、画像化条件が第1の画像化条件に初期化され、第1の画像化条件を用いた超音波ビームの送受信及び走査により取得した受信信号から、Bモード画像(超音波画像)が生成され、Bモード画像の生成と同期して、超音波プローブ2の姿勢角の検出が行われる。
 また、ステップS3及びステップS4に続くステップS18は、図5に示す実施の形態2のステップS18と同一であり、装置制御部15が、第1の画像化条件を用いた超音波画像の取得が1回目であるか否かを判定する。
 ステップS18において、第1の画像化条件を用いた超音波画像の取得が1回目であると判定された場合には、ステップS24に進む。ステップS24において、画像解析部13は、第1の画像化条件を用いて取得された単フレームの超音波画像に対して画像解析を行う。ステップS24における、単フレームの超音波画像に対する画像解析の方法は、実施の形態2のステップS19において説明した、単フレームの超音波画像に対する画像解析の方法と同一である。
 続くステップS25において、部位確率計算部25は、ステップS24において検出された超音波プローブ2の姿勢角に基づいた部位確率及び単フレームの超音波画像に対する画像解析の結果に基づいた部位確率を、それぞれ計算する。超音波プローブ2の姿勢角に基づいた部位確率の計算方法は、実施の形態1のステップS5において説明した計算方法と同一であり、単フレームの超音波画像に対する画像解析の結果に基づいた部位確率の計算方法は、実施の形態2のステップS20において説明した計算方法と同一である。ステップS25において、部位確率計算部25は、更に、超音波プローブ2の姿勢角に基づいた部位確率と単フレームの超音波画像に対する画像解析の結果に基づいた部位確率とを統合して、超音波画像に含まれる部位が特定の各部位である各部位確率を計算する。このような、2種類の計算方法により計算された部位確率を統合する方法は、種々の方法を用いることができるが、例えば、診断部位の候補となる部位のそれぞれに対して、超音波プローブ2の姿勢角に基づいた部位確率と単フレームの超音波画像に対する画像解析の結果に基づいた部位確率との平均値を、各部位確率として計算することができる。
 ステップS25に続くステップS6においては、図4に示す実施の形態1のステップS6と同様に、ステップS25において計算された部位確率が定められた閾値以上であるか否かが判定される。
 ステップS6において、計算された複数の部位確率うち少なくとも1つが閾値以上であった場合には、ステップS7に進む。ステップS7~ステップS15は、図4に示す実施の形態1のステップS7~ステップS15と同一であり、詳細な説明は省略する。
 ステップS6において、計算された複数の部位確率が全て閾値未満であった場合には、ステップS2に戻る。2回目のステップS2及びステップS3において、第1の画像化条件を用いた超音波画像の取得が行われると、続くステップS18において、第1の画像化条件を用いた超音波画像の取得が1回目ではないと判定されて、ステップS26へと進む。
 ステップS26において、画像解析部13は、第1の画像化条件を用いて取得された複数フレームの超音波画像に対して画像解析を行う。ステップS26における、複数フレームの超音波画像に対する画像解析の方法は、実施の形態2のステップS21において説明した、複数フレームの超音波画像に対する画像解析の方法と同一である。
 ステップS27において、部位確率計算部25は、ステップS26において検出された超音波プローブ2の姿勢角に基づいた部位確率及び複数フレームの超音波画像に対する画像解析の結果に基づいた部位確率を、それぞれ計算する。超音波プローブ2の姿勢角に基づいた部位確率の計算方法は、実施の形態1のステップS5において説明した計算方法と同一であり、複数フレームの超音波画像に対する画像解析の結果に基づいた部位確率の計算方法は、実施の形態2のステップS22において説明した計算方法と同一である。ステップS26において、部位確率計算部25は、更に、超音波プローブ2の姿勢角に基づいた部位確率と複数フレームの超音波画像に対する画像解析の結果に基づいた部位確率とを統合して、超音波画像に含まれる部位が特定の各部位である各部位確率を計算する。このような、2種類の計算方法により計算された部位確率を統合する方法は、ステップS25において説明した方法と同様に、種々の方法を用いることができる。
 ステップS27に続くステップS23においては、図6に示した実施の形態2のステップS23と同様に、ステップS27において計算された部位確率が閾値以上か否かが判定される。
 ステップS23において、計算された複数の部位確率が全て閾値未満である場合には、ステップS16に進む。
 ステップS16においては、図4に示す実施の形態1のステップS16と同様に、ステップS23において、装置制御部15は、複数の部位確率が全て閾値未満であると判定された回数がN回であるか否かを判定する。ステップS16において、複数の部位確率が全て閾値未満であると判定された回数がN回未満であると判定された場合には、ステップS2に戻る。その後、ステップS16において、数の部位確率が全て閾値未満であると判定された回数がN回となった場合には、ステップS17において、表示部8にエラー表示をさせて、超音波診断装置24の動作が終了する。
 ステップS23において、計算された複数の部位確率のうち少なくとも1つが閾値以上である場合には、ステップS7に進む。
 以上のように、図7に示す実施の形態3の超音波診断装置24によれば、超音波プローブ2の姿勢角及び超音波画像の解析結果のそれぞれに基づいて部位確率を計算し、この部位確率に基づいて第1の画像化条件を第2の画像化条件に変更し、第2の画像化条件を用いて超音波画像を更に取得する。そのため、図7に示す実施の形態3の超音波診断装置24は、図1に示す実施の形態1の超音波診断装置1と同様に、2回に分けて超音波画像の取得を行うことにより、判別の候補となる部位を絞り込むことができるため、部位を精緻に判別して適切な画像化条件を設定することができる。また、部位確率計算部25は、超音波プローブ2の姿勢角に基づいて計算された部位確率及び画像解析の結果を用いて計算された部位確率の両方を考慮して部位確率を計算することができるため、超音波プローブ2の姿勢角及び画像解析の結果のどちらか一方のみを用いて部位確率を計算するよりも精度の良い部位確率を計算することができる。
 また、超音波プローブ2の姿勢角に基づいて計算された部位確率と画像解析の結果に基づいて計算された部位確率とを統合する方法として、両者の平均値を用いることを説明したが、その他の方法を用いることもできる。
 例えば、部位確率計算部25は、超音波プローブ2の姿勢角に基づいて計算された部位確率及び画像解析の結果に基づいて計算された部位確率の少なくとも一方に重み付けを行った上で、両者の平均値を計算することができる。このように、部位確率に重み付けを行うことにより、各部位に対する好適な部位確率の計算方法に対して優先順位を付与することができるため、各部位に対する部位確率の精度を向上させることができる。
 また、例えば、部位確率計算部25は、超音波プローブ2の姿勢角に基づいて計算された部位確率及び画像解析の結果に基づいて計算された部位確率のうち、大きい部位確率を、部位確率とすることもできる。この場合には、超音波プローブ2の姿勢角に基づいて計算された部位確率及び画像解析の結果に基づいて計算された部位確率のうち、各部位に対して、より好適な計算方法を用いて計算された部位確率を用いることができる。
 以上、本発明に係る超音波診断装置について詳細に説明したが、本発明は、以上の例には限定されず、本発明の要旨を逸脱しない範囲において、各種の改良及び変形を行っても良いのはもちろんである。また、以上において示した複数の実施の形態及び例は、適宜組み合わせて用いることができる。
1,22,24 超音波診断装置、2 超音波プローブ、2A 振動子アレイ、3 画像取得部、4 受信回路、5 送信回路、6 画像生成部、7 表示制御部、8 表示部、9 姿勢センサ、10 プローブ姿勢角検出部、11,23,25 部位確率計算部、12 画像化条件変更部、13 画像解析部、14 部位判別部、15 装置制御部、16 操作部、17 格納部、18 増幅部、19 A/D変換部、20 Bモード処理部、21 画像処理部。

Claims (9)

  1.  超音波プローブと、
     設定された画像化条件に従って、前記超音波プローブから被検体に向けて超音波ビームの送受信を行って、超音波画像を取得する画像取得部と、
     第1の画像化条件に従って前記画像取得部において取得された超音波画像に対して、前記超音波プローブの姿勢角及び前記超音波画像の解析結果の少なくとも一方から、前記超音波画像に含まれる被検体の部位が特定の部位である確率を計算する部位確率計算部と、
     前記部位確率計算部において計算された前記確率が定められた閾値以上である場合に、前記第1の画像化条件を、前記確率を計算した部位を判別するための第2の画像化条件に変更する画像化条件変更部と、を有し、
     前記画像取得部は、前記第2の画像化条件を用いて超音波画像を更に取得することを特徴とする超音波診断装置。
  2.  前記超音波プローブの動作又は位置を検出する姿勢センサと、
     前記姿勢センサの信号に基づいて前記姿勢角を検出するプローブ姿勢角検出部と、を更に有し、
     前記部位確率計算部は、前記姿勢角に基づいて前記確率を計算する請求項1に記載の超音波診断装置。
  3.  前記画像取得部において更に取得された超音波画像を解析する画像解析部を更に有する請求項2に記載の超音波診断装置。
  4.  前記画像取得部において取得された超音波画像を解析する画像解析部を更に有し、
     前記部位確率計算部は、前記画像解析部における前記解析結果に基づいて前記確率を計算する請求項1に記載の超音波診断装置。
  5.  前記画像取得部において取得された超音波画像を解析する画像解析部と、
     前記超音波プローブの動作又は位置を検出する姿勢センサと、
     前記姿勢センサの信号に基づいて前記姿勢角を検出するプローブ姿勢角検出部と、を更に有し、
     前記部位確率計算部は、前記姿勢角及び前記画像解析部における超音波画像の解析結果に基づいて前記確率を計算する請求項1に記載の超音波診断装置。
  6.  前記部位確率計算部は、前記画像解析部における単フレームの超音波画像に対する画像解析の結果に基づいて前記確率を計算する請求項4又は5に記載の超音波診断装置。
  7.  前記部位確率計算部は、前記画像解析部における複数フレームの超音波画像に共通して含まれる特定のパターンの動きに対する解析結果に基づいて前記確率を計算する請求項4又は5に記載の超音波診断装置。
  8.  前記画像取得部において更に取得された超音波画像に対する前記画像解析部の解析結果に基づいて前記確率が計算された被検体の部位を判別する部位判別部を更に有する請求項3~7のいずれか一項に記載の超音波診断装置。
  9.  設定された画像化条件に従って、超音波プローブから被検体に向けて超音波ビームの送受信を行って、超音波画像を取得し、
     第1の画像化条件に従って取得された超音波画像に対して、前記超音波プローブの姿勢角及び前記超音波画像の解析結果の少なくとも一方から、前記超音波画像に含まれる被検体の部位が特定の部位である確率を計算し、
     計算された前記確率が定められた閾値以上である場合に、前記第1の画像化条件を、前記確率を計算した部位を判別するための第2の画像化条件に変更し、
     前記第2の画像化条件を用いて超音波画像を更に取得することを特徴とする超音波診断装置の制御方法。
PCT/JP2017/019410 2016-09-16 2017-05-24 超音波診断装置及び超音波診断装置の制御方法 WO2018051578A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP17850485.8A EP3513738B1 (en) 2016-09-16 2017-05-24 Ultrasonic diagnostic device and method for controlling ultrasonic diagnostic device
CN201780056223.1A CN109788942B (zh) 2016-09-16 2017-05-24 超声波诊断装置及超声波诊断装置的控制方法
JP2018539519A JP6637610B2 (ja) 2016-09-16 2017-05-24 超音波診断装置及び超音波診断装置の制御方法
US16/294,288 US11311277B2 (en) 2016-09-16 2019-03-06 Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016181715 2016-09-16
JP2016-181715 2016-09-16

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/294,288 Continuation US11311277B2 (en) 2016-09-16 2019-03-06 Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus

Publications (1)

Publication Number Publication Date
WO2018051578A1 true WO2018051578A1 (ja) 2018-03-22

Family

ID=61619066

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/019410 WO2018051578A1 (ja) 2016-09-16 2017-05-24 超音波診断装置及び超音波診断装置の制御方法

Country Status (5)

Country Link
US (1) US11311277B2 (ja)
EP (1) EP3513738B1 (ja)
JP (1) JP6637610B2 (ja)
CN (1) CN109788942B (ja)
WO (1) WO2018051578A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3653129A1 (en) * 2018-11-15 2020-05-20 Samsung Electronics Co., Ltd. Ultrasound imaging apparatus and operating method thereof
JP7302051B1 (ja) 2022-02-17 2023-07-03 ジーイー・プレシジョン・ヘルスケア・エルエルシー 超音波画像表示システムおよび記憶媒体

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3469993A1 (en) * 2017-10-16 2019-04-17 Koninklijke Philips N.V. An ultrasound imaging system and method
EP3799065A1 (en) * 2019-09-26 2021-03-31 Siemens Healthcare GmbH Method for operating a medical imaging apparatus, medical imaging apparatus, computer program and electronically readable storage medium
WO2021063807A1 (en) * 2019-09-30 2021-04-08 Koninklijke Philips N.V. Recording ultrasound images
CN117355260A (zh) * 2021-10-20 2024-01-05 本多电子株式会社 超声波图像诊断装置及超声波图像显示程序

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04224738A (ja) * 1990-12-27 1992-08-14 Yokogawa Medical Syst Ltd 診断部位判別装置およびスキャンパラメータ設定装置
JP2010259662A (ja) * 2009-05-08 2010-11-18 Shimadzu Corp 超音波診断装置
JP2013111309A (ja) * 2011-11-30 2013-06-10 Ge Medical Systems Global Technology Co Llc 超音波診断装置及びその制御プログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4058368B2 (ja) 2003-03-27 2008-03-05 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波診断装置
US7648460B2 (en) * 2005-08-31 2010-01-19 Siemens Medical Solutions Usa, Inc. Medical diagnostic imaging optimization based on anatomy recognition
JP4772540B2 (ja) * 2006-03-10 2011-09-14 株式会社東芝 超音波診断装置
US8460190B2 (en) * 2006-12-21 2013-06-11 Siemens Medical Solutions Usa, Inc. Automated image interpretation with transducer position or orientation sensing for medical ultrasound
JP2010029351A (ja) * 2008-07-28 2010-02-12 Shimadzu Corp 超音波診断装置
JP5400466B2 (ja) * 2009-05-01 2014-01-29 キヤノン株式会社 画像診断装置、画像診断方法
JP5835903B2 (ja) * 2011-02-03 2015-12-24 株式会社東芝 超音波診断装置
US9058647B2 (en) * 2012-01-16 2015-06-16 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
US20130184584A1 (en) * 2012-01-17 2013-07-18 Richard E. Berkey Systems and methods for computerized ultrasound image interpretation and labeling
US20140187946A1 (en) * 2012-12-31 2014-07-03 General Electric Company Active ultrasound imaging for interventional procedures
JP6356661B2 (ja) 2013-03-12 2018-07-11 株式会社東芝 光触媒体とそれを用いた光触媒分散液、光触媒塗料、光触媒膜および製品
JP2014213030A (ja) * 2013-04-26 2014-11-17 コニカミノルタ株式会社 超音波診断装置及び超音波診断装置の制御方法
KR101501479B1 (ko) * 2013-05-09 2015-03-11 알피니언메디칼시스템 주식회사 초음파 최적화 방법과 그를 위한 초음파 의료 장치
CN105451662B (zh) * 2013-08-09 2019-03-01 皇家飞利浦有限公司 用于医学成像与信息显示的方法和系统
US9861341B2 (en) * 2014-01-29 2018-01-09 Toshiba Medical Systems Corporation Ultrasound diagnosis apparatus
EP2926736B1 (en) * 2014-03-31 2020-06-17 Esaote S.p.A. Apparatus and method for ultrasound image acquisition, generation and display
JP2016022297A (ja) * 2014-07-24 2016-02-08 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波診断装置及びその制御プログラム
CN105740751A (zh) * 2014-12-11 2016-07-06 深圳市赛为智能股份有限公司 一种目标检测与识别的方法和系统
US20180042577A1 (en) * 2016-08-12 2018-02-15 General Electric Company Methods and systems for ultrasound imaging

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04224738A (ja) * 1990-12-27 1992-08-14 Yokogawa Medical Syst Ltd 診断部位判別装置およびスキャンパラメータ設定装置
JP2010259662A (ja) * 2009-05-08 2010-11-18 Shimadzu Corp 超音波診断装置
JP2013111309A (ja) * 2011-11-30 2013-06-10 Ge Medical Systems Global Technology Co Llc 超音波診断装置及びその制御プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3513738A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3653129A1 (en) * 2018-11-15 2020-05-20 Samsung Electronics Co., Ltd. Ultrasound imaging apparatus and operating method thereof
CN111184533A (zh) * 2018-11-15 2020-05-22 三星麦迪森株式会社 超声成像设备及操作该超声成像设备的方法
JP7302051B1 (ja) 2022-02-17 2023-07-03 ジーイー・プレシジョン・ヘルスケア・エルエルシー 超音波画像表示システムおよび記憶媒体
JP2023120110A (ja) * 2022-02-17 2023-08-29 ジーイー・プレシジョン・ヘルスケア・エルエルシー 超音波画像表示システムおよび記憶媒体

Also Published As

Publication number Publication date
CN109788942A (zh) 2019-05-21
CN109788942B (zh) 2022-03-29
EP3513738A4 (en) 2019-10-16
US11311277B2 (en) 2022-04-26
EP3513738A1 (en) 2019-07-24
JP6637610B2 (ja) 2020-01-29
JPWO2018051578A1 (ja) 2019-06-24
US20190200963A1 (en) 2019-07-04
EP3513738B1 (en) 2023-07-12

Similar Documents

Publication Publication Date Title
JP6637610B2 (ja) 超音波診断装置及び超音波診断装置の制御方法
JP6419976B2 (ja) 超音波診断装置および超音波診断装置の制御方法
JP6637611B2 (ja) 超音波診断装置および超音波診断装置の制御方法
US11607202B2 (en) Ultrasound diagnostic apparatus, method for controlling ultrasound diagnostic apparatus, and readable recording medium recording a program for controlling ultrasound diagnostic apparatus
JP6423540B2 (ja) 超音波診断装置および超音波診断装置の制御方法
US11324487B2 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
US11116481B2 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
US20190307429A1 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
WO2018142950A1 (ja) 超音波診断装置、超音波診断装置の制御方法及び超音波診断装置の制御プログラム
US20240122576A1 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
JP2024025865A (ja) 超音波診断装置の制御方法および超音波診断装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17850485

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018539519

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017850485

Country of ref document: EP

Effective date: 20190416