WO2017033502A1 - 超音波診断装置および超音波診断装置の制御方法 - Google Patents

超音波診断装置および超音波診断装置の制御方法 Download PDF

Info

Publication number
WO2017033502A1
WO2017033502A1 PCT/JP2016/063833 JP2016063833W WO2017033502A1 WO 2017033502 A1 WO2017033502 A1 WO 2017033502A1 JP 2016063833 W JP2016063833 W JP 2016063833W WO 2017033502 A1 WO2017033502 A1 WO 2017033502A1
Authority
WO
WIPO (PCT)
Prior art keywords
ultrasonic
imaging
probe
state
unit
Prior art date
Application number
PCT/JP2016/063833
Other languages
English (en)
French (fr)
Inventor
睦朗 今井
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to DK16838849.4T priority Critical patent/DK3338642T3/da
Priority to EP16838849.4A priority patent/EP3338642B1/en
Priority to JP2017536633A priority patent/JP6419976B2/ja
Publication of WO2017033502A1 publication Critical patent/WO2017033502A1/ja
Priority to US15/860,974 priority patent/US11666310B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/56Details of data transmission or power supply
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image

Definitions

  • the present invention relates to an ultrasonic diagnostic apparatus and a method for controlling the ultrasonic diagnostic apparatus, and more particularly to an ultrasonic diagnostic apparatus that performs transmission / reception and scanning of an ultrasonic beam according to preset imaging conditions and generates an ultrasonic image. .
  • this type of ultrasonic diagnostic apparatus scans an ultrasonic beam from an ultrasonic probe incorporating an array transducer into a subject, receives an ultrasonic echo from the subject with the ultrasonic probe, and An ultrasonic image is generated by electrically processing the received signal.
  • Patent Document 1 discloses an ultrasonic diagnostic apparatus that automatically determines an imaging region from a generated ultrasonic image by pattern matching processing and sets an optimal scanning parameter for the imaging region based on the determination result. Yes.
  • an ultrasound image is generated under the imaging conditions corresponding to the imaging part immediately before the change, and the optimal imaging condition is established between the imaging part immediately before the change and the imaging part after the change. If there is a difference, it is necessary to perform site discrimination using an ultrasound image whose image quality has deteriorated due to being generated under inappropriate imaging conditions for the changed imaging site, and to perform accurate site discrimination Can be difficult.
  • the present invention has been made to solve such a conventional problem, and when changing an imaging part, an ultrasonic image capable of obtaining a stable image quality ultrasonic image regardless of the imaging part immediately before the change.
  • An object of the present invention is to provide a method for controlling an ultrasonic diagnostic apparatus and an ultrasonic diagnostic apparatus.
  • An ultrasonic diagnostic apparatus transmits and receives an ultrasonic beam from an ultrasonic probe toward a subject and outputs a reception signal output from the ultrasonic probe according to an imaging condition set.
  • An imaging unit that generates an ultrasonic image of the subject by imaging, a probe state determination unit that determines whether the ultrasonic probe is in an air radiation state or a contact state with the subject, and a probe state determination unit
  • the imaging condition is changed and the ultrasound image is used by changing the imaging condition by controlling the imaging unit.
  • generates is provided.
  • the apparatus further includes a region determination unit that determines the imaging region of the subject using the ultrasonic image generated by the imaging unit, and the apparatus control unit controls the region determination unit so that the probe state determination unit performs the ultrasonic probe. If the probe state determination unit determines that the ultrasound probe has transitioned from the aerial radiation state to the contact state with the subject, the region determination is not performed. It is preferable to implement.
  • the apparatus further comprises an imaging condition memory in which a plurality of site-specific imaging conditions set for each of the plurality of imaging sites and a site determination imaging condition common to the plurality of imaging sites are stored. The control unit is stored in the imaging condition memory when the probe state determination unit determines that the ultrasonic probe has transitioned from the contact state to the subject to the aerial radiation state by controlling the imaging unit.
  • the apparatus control unit can gradually change the imaging condition to the region-specific imaging condition selected from the region determination imaging conditions when the region determination is completed by the region determination unit.
  • the apparatus control unit determines that the ultrasonic probe has transitioned from the contact state to the subject to the air radiation state by the probe state determination unit, and the ultrasonic probe is continuously in the air radiation state over a preset number of frames.
  • the imaging condition may be changed when it is determined that the image is present.
  • the ultrasonic probe has a motion sensor that detects the amount of movement of the ultrasonic probe, and the apparatus control unit determines that the ultrasonic probe has transitioned from the contact state to the subject to the aerial radiation state by the probe state determination unit.
  • the imaging condition can also be changed when the amount of motion of the ultrasonic probe detected by the motion sensor is equal to or greater than a preset threshold value.
  • the imaging unit includes a transmission / reception unit that transmits / receives an ultrasonic beam according to an ultrasonic beam scanning condition, and an image generation unit that generates an ultrasonic image from a reception signal according to the ultrasonic image generation condition. It can be configured to include a sound beam scanning condition and an ultrasound image generation condition.
  • the method for controlling an ultrasonic diagnostic apparatus is a method for controlling an ultrasonic diagnostic apparatus including an ultrasonic probe, in which an ultrasonic beam is directed from an ultrasonic probe toward a subject in accordance with a set imaging condition.
  • a process of generating an ultrasound image of a subject by performing transmission / reception and imaging a reception signal output from the ultrasound probe, and determining whether the ultrasound probe is in an aerial emission state or a contact state with the subject and a step of changing the imaging condition and generating an ultrasonic image using the changed imaging condition when it is determined that the ultrasonic probe has transitioned from the contact state to the subject to the aerial radiation state.
  • a method including:
  • the imaging condition is changed by changing the imaging condition and controlling the imaging unit. Since the ultrasonic image is generated at, it is possible to obtain an ultrasonic image with stable image quality regardless of the imaging part immediately before the change when the imaging part is changed.
  • FIG. 1 is a block diagram showing a configuration of an ultrasonic diagnostic apparatus according to Embodiment 1 of the present invention. It is a block diagram which shows the internal structure of a receiving part. It is a block diagram which shows the internal structure of a B mode process part. 6 is a diagram showing a B-mode image in the first embodiment. FIG. It is a figure which shows the B mode image in which the some region of interest was set. It is a figure which shows the B mode image in which the several observation point was set. 3 is a flowchart showing the operation of the first embodiment. 10 is a flowchart showing the operation of the second embodiment. 6 is a block diagram illustrating a configuration of an ultrasonic diagnostic apparatus according to Embodiment 3. FIG. 10 is a flowchart showing the operation of the third embodiment.
  • FIG. 1 shows the configuration of an ultrasonic diagnostic apparatus according to Embodiment 1 of the present invention.
  • the ultrasonic diagnostic apparatus includes an ultrasonic probe 1 having a built-in array transducer 1 ⁇ / b> A.
  • An image generation unit 3 is connected to the ultrasonic probe 1 via a transmission / reception unit 2, and a display control unit 4 is connected to the image generation unit 3.
  • the display unit 5 is connected via
  • the transmission / reception unit 2 includes a transmission unit 6 and a reception unit 7 connected to the array transducer 1 ⁇ / b> A of the ultrasonic probe 1, and a transmission / reception control unit 8 connected to the transmission unit 6 and the reception unit 7.
  • the image generation unit 3 includes a B mode processing unit 9 connected to the reception unit 7 of the transmission / reception unit 2 and a DSC (Digital Scan Converter) 10 connected to the B mode processing unit 9. Are connected to the DSC 10. Further, the part determination unit 11 and the probe state determination unit 12 are respectively connected to the DSC 10 of the image generation unit 3.
  • the apparatus control unit 14 is connected to the transmission / reception control unit 8 of the transmission / reception unit 2, the B mode processing unit 9 and the DSC 10 of the image generation unit 3, the display control unit 4, the region determination unit 11, and the probe state determination unit 12. Furthermore, an imaging condition memory 15, an operation unit 16, and a storage unit 17 are connected to the device control unit 14.
  • the array transducer 1A of the ultrasonic probe 1 has a plurality of ultrasonic transducers arranged one-dimensionally or two-dimensionally. Each of these ultrasonic transducers transmits an ultrasonic wave according to a drive signal supplied from the transmission unit 6 and receives an ultrasonic echo from the subject to output a reception signal.
  • Each ultrasonic transducer is, for example, a piezoelectric ceramic represented by PZT (lead zirconate titanate), a polymer piezoelectric element represented by PVDF (polyvinylidene fluoride), or PMN-PT (magnesium niobate / lead titanate). It is constituted by a vibrator in which electrodes are formed on both ends of a piezoelectric body made of a piezoelectric single crystal represented by a solid solution).
  • each transducer When a pulsed or continuous wave voltage is applied to the electrodes of such a vibrator, the piezoelectric body expands and contracts, and pulsed or continuous wave ultrasonic waves are generated from the respective vibrators, and the synthesis of those ultrasonic waves. As a result, an ultrasonic beam is formed.
  • each transducer generates an electric signal by expanding and contracting by receiving propagating ultrasonic waves, and these electric signals are output as ultrasonic reception signals.
  • the transmission / reception unit 2 performs transmission / reception of an ultrasonic beam according to the set ultrasonic beam scanning conditions, and the image generation unit 3 generates a B-mode image signal according to the set ultrasonic image generation conditions.
  • 2 and the image generation unit 3 constitute an imaging unit.
  • the imaging condition for the imaging unit is configured by the ultrasonic beam scanning condition for the transmission / reception unit 2 and the ultrasonic image generation condition for the image generation unit 3.
  • ultrasound beam scanning conditions include ultrasound beam transmission frequency, focal position, display depth, etc.
  • ultrasound image generation conditions include sound speed, detection conditions, gain, dynamics, etc. Examples include a range, a gradation curve, speckle suppression strength, and edge enhancement.
  • the transmission unit 6 of the transmission / reception unit 2 includes, for example, a plurality of pulse generators, and a plurality of ultrasonic waves of the array transducer 1A based on a transmission delay pattern selected according to a control signal from the transmission / reception control unit 8.
  • the delay amount of each drive signal is adjusted so that the ultrasonic waves transmitted from the transducers form an ultrasonic beam and supplied to a plurality of ultrasonic transducers.
  • the receiver 7 has a configuration in which an amplifier 18 and an A / D (analog / digital) converter 19 are sequentially connected in series.
  • the receiving unit 7 amplifies reception signals transmitted from the respective ultrasonic transducers of the array transducer 1 ⁇ / b> A by the amplification unit 18, and performs A / D conversion by the A / D conversion unit 19 to generate digital reception data.
  • the transmission / reception control unit 8 Based on various control signals transmitted from the device control unit 14, transmits ultrasonic pulses to the subject and repeats ultrasonic echoes from the subject at repetition frequency (PRF) intervals.
  • PRF repetition frequency
  • the B mode processing unit 9 of the image generation unit 3 has a configuration in which a beam former 20 and a signal processing unit 21 are sequentially connected in series.
  • the beamformer 20 applies to the received data output from the receiving unit 7 of the transmitting / receiving unit 2 according to the sound speed or the distribution of sound speeds set based on the reception delay pattern selected according to the control signal from the device control unit 14.
  • Receive focus processing is performed by adding and giving a delay of. By this reception focus processing, a sound ray signal in which phasing addition is performed and the focus of the ultrasonic echo is narrowed down is generated.
  • the signal processing unit 21 performs an envelope detection process on the sound ray signal generated by the beam former 20 after correcting the attenuation according to the distance according to the depth of the reflection position of the ultrasonic wave. By performing various necessary image processing such as processing, a B-mode image signal that is tomographic image information related to the tissue in the subject is generated.
  • the DSC 10 of the image generation unit 3 converts (raster conversion) the B-mode image signal generated by the signal processing unit 21 into an image signal according to a normal television signal scanning method.
  • the display control unit 4 displays a B-mode image on the display unit 5 based on the B-mode image signal generated by the image generation unit 3.
  • the display unit 5 includes a display device such as an LCD (liquid crystal display), for example, and displays a B-mode image under the control of the display control unit 4.
  • the part determination unit 11 determines the imaging part of the subject based on the B-mode image signal generated by the image generation unit 3.
  • the probe state determination unit 12 is based on the B mode image generated by the image generation unit 3, and the ultrasonic probe 1 contacts the body surface of the subject and emits ultrasonic waves into the body of the subject. It is determined whether the subject is in an aerial radiation state in which an ultrasonic wave is radiated away from the body surface of the subject.
  • the device control unit 14 is configured to control the transmission / reception control unit 8, the B-mode processing unit 9, the DSC 10, the display control unit 4, the region determination unit 11, and the probe state determination unit 12 based on a command input from the operation unit 16 by the operator. Take control.
  • the imaging condition memory 15 stores in advance a plurality of site-specific imaging conditions respectively set for a plurality of imaging regions of the subject and a region discrimination imaging condition common to the plurality of imaging regions of the subject. ing.
  • the plurality of site-specific imaging conditions are for acquiring B-mode images suitable for diagnosis of the corresponding imaging site.
  • the part discrimination imaging condition is for acquiring a B-mode image that is common to all imaging parts and does not correspond to a specific imaging part, and that focuses on accurate part discrimination. is there.
  • the operation unit 16 is for an operator to perform an input operation, and can be formed from a keyboard, a mouse, a trackball, a touch panel, or the like.
  • the storage unit 17 stores an operation program and the like.
  • a storage medium such as a hard disk, a flexible disk, an MO, an MT, a RAM, a CD-ROM, a DVD-ROM, an SD card, a CF card, a USB memory, or a server is stored. Can be used.
  • the part determination unit 11 stores typical pattern data of a plurality of imaging parts in advance, and stores a plurality of B-mode image signals of the imaging part output from the DSC 10 of the image generation unit 3 in advance. Each similarity to the pattern data is calculated.
  • a known matching technique can be used for calculating the similarity. In addition to the matching technique, for example, Csurka et al .: Visual Categorization with Bags of Keypoints, Proc. Of ECCV Workshop on Statistical Learning in Computer Vision, pp.
  • the part discriminating unit 11 calculates a similarity score with a plurality of imaging parts for the B-mode image signal of the imaging part, and uses the imaging part having the highest similarity score as a discrimination result. For example, when the similarity score for the heart is 5, the similarity score for the right abdomen is 10, the similarity score for the left abdomen is 6, and the similarity score for the bladder is 3, A determination result is obtained that is the highest right abdomen.
  • the operator may input subject information (physique, sex, etc.) via the operation unit 16 and change the pattern data used for the part determination according to the subject information. it can. That is, for each imaging region, a plurality of pattern data corresponding to the size of the physique and gender differences are stored, and the region determination is performed using the pattern data corresponding to the input subject information. In this way, it is possible to prevent erroneous discrimination due to differences in the physique and gender of the subject and improve the accuracy of part discrimination.
  • the part determination by the part determination unit 11 can be performed for each B-mode image display frame with respect to one imaging part, or can be performed once every several frames.
  • the probe state determination unit 12 determines whether the ultrasonic probe 1 is in a contact state with the subject or in the air emission state. This determination is performed by analyzing the B-mode image generated by the image generation unit 3. Can be done. In general, when the ultrasound probe 1 comes into contact with the body surface of the subject and emits ultrasound into the body of the subject, as shown in FIG. Although the internal tissue is depicted, when the ultrasonic probe 1 leaves the body surface of the subject and emits ultrasonic waves in the air, the structure is not depicted in the B-mode image 22.
  • the ultrasonic probe 1 is inspected.
  • the presence of a structure is not detected in the B-mode image 22, it can be determined that the ultrasonic probe 1 is in the air emission state.
  • the B-mode image 22 is divided into a plurality of regions 23, and the luminance distribution or the difference between the maximum luminance and the minimum luminance in each region 23 is obtained as an index value and set in advance.
  • the probe state determination unit 12 determines that the ultrasonic probe 1 is in contact with the subject. To do.
  • the probe state determination unit 12 determines that the ultrasonic probe 1 is in the air radiation state. To do.
  • a plurality of observation points 24 are set in the B-mode image 22, and the movement of each observation point 24 between frames is performed.
  • the state of the ultrasonic probe 1 can also be determined by detecting the amount.
  • the probe state determination unit 12 stabilizes the movement of the ultrasonic probe 1 when the amount of movement of each observation point 24 between frames is equal to or greater than a preset threshold value. And whether the ultrasonic probe 1 is in contact with the subject or in the air radiation state may be determined based on the index value of the luminance of each region 23.
  • the probe state determination unit 12 can also determine the state of the ultrasonic probe 1 using a matching technique such as template matching.
  • the apparatus control unit 14 Whether or not the region determination by the region determination unit 11 is performed is controlled by the apparatus control unit 14 based on the determination result of the state of the ultrasonic probe 1 by the probe state determination unit 12. That is, when the probe state determination unit 12 determines that the ultrasonic probe 1 is in the air emission state, the apparatus control unit 14 does not perform the region determination, and the probe state determination unit 12 determines that the ultrasonic probe 1 is When it is determined that the state has changed from the aerial radiation state to the state of contact with the subject, the part determination unit 11 is controlled so as to perform part determination.
  • the part determination imaging condition stored in the imaging condition memory 15 includes, for example, at least one of various conditions set as follows.
  • (1) Image gain Using the result of image analysis in the probe state determination unit 12, the average luminance of each region 23 or the average luminance of the entire screen is within a predetermined range of a target predetermined by the ultrasonic diagnostic apparatus. Set to For example, between the maximum value that is 10% smaller than the predetermined maximum luminance in the ultrasonic diagnostic apparatus and the minimum value that is 10% larger than the minimum luminance that is predetermined in the ultrasonic diagnostic apparatus.
  • the average luminance of the area 23 or the average luminance of the entire screen is set so as to fall within the range.
  • Image Dynamic Range Using the result of image analysis in the probe state determination unit 12, the average luminance of each region 23, the average luminance of the entire screen, or the dynamic range of the entire screen is determined in advance by this ultrasonic diagnostic apparatus. Is set to fall within a predetermined range of the target. (3) Gradation curve It is set linearly so as not to emphasize a specific gradation range. (4) Sharpness enhancement degree, speckle suppression degree, and edge enhancement degree are set to 0 (not emphasized). (5) Image Display Depth Set to an intermediate value of the maximum depth. (6) Focal position of image It is set at the midpoint of the display depth of the image. (7) Image Transmission Frequency The image transmission frequency is set to an intermediate frequency in the transmission band of the array transducer 1A of the ultrasonic probe 1.
  • the device control unit 14 selects a part determination imaging condition stored in the imaging condition memory 15 in advance, and performs transmission / reception unit 2 so as to perform imaging according to the part determination imaging condition. It is assumed that the image generation unit 3 is controlled.
  • step S1 the transmission / reception unit 2 performs transmission / reception and scanning of an ultrasonic beam using a plurality of ultrasonic transducers of the array transducer 1A of the ultrasonic probe 1, and receives each ultrasonic echo from the subject.
  • a reception signal is output from the acoustic wave transducer to the reception unit 7, and is amplified and A / D converted by the reception unit 7 to generate reception data.
  • the received data is input to the image generation unit 3, and after receiving focus processing is performed by the B mode processing unit 9, the signal is converted by the DSC 10 to generate a B mode image signal.
  • the B-mode image signal is output from the image generation unit 3 to the display control unit 4, and the B-mode image is displayed on the display unit 5.
  • the B-mode image signal output from the DSC 10 of the image generation unit 3 is input to the part determination unit 11 and the probe state determination unit 12, and the probe 1 is detected by the probe state determination unit 12 in step S3. It is determined whether it is in a contact state or an air radiation state.
  • step S3 when it is determined that the ultrasonic probe 1 is not in the air radiation state but in a contact state in contact with the body surface of the subject, in step S4, the region determination is performed by the region determination unit 11, and the region determination is performed.
  • the determination result is output from the unit 11 to the apparatus control unit 14.
  • the region determination imaging condition selected as the initial setting is a condition common to all the imaging regions without corresponding to a specific imaging region, and imaging is performed according to the region determination imaging conditions. By doing so, it is possible to acquire a stable B-mode image regardless of the imaging region, and it is possible to perform accurate region determination by the region determination unit 11 in step S4.
  • step S5 the device control unit 14 sets the site-specific imaging conditions according to the discrimination result of the site discrimination unit 11.
  • the device control unit 14 selects a site-specific imaging condition according to the discrimination result from a plurality of site-specific imaging conditions stored in advance in the imaging condition memory 15 based on the discrimination result input from the site discrimination unit 11. Then, the transmission / reception unit 2 and the image generation unit 3 are controlled so that the imaging is performed under the selected region-specific imaging conditions.
  • imaging is performed in steps S6 and S7 in a state where the part-specific imaging conditions according to the discrimination result of the part discrimination unit 11 are set. That is, in step S6, ultrasonic beam transmission / reception and scanning are performed according to the ultrasound beam scanning conditions included in the site-specific imaging conditions selected from the imaging condition memory 15, and in step S7, the selected site-specific imaging conditions are selected. A B-mode image signal is generated from the received signal in accordance with the ultrasonic image generation conditions included in the image, and the B-mode image is displayed on the display unit 5. The imaging in steps S6 and S7 is continued until it is determined in subsequent step S8 that the ultrasonic probe 1 has transitioned from the contact state to the subject to the aerial radiation state, whereby the imaging region is inspected. Is done.
  • step S8 if the probe state determination unit 12 determines that the ultrasound probe 1 has transitioned from the contact state to the subject to the aerial radiation state, the process proceeds to step S9, and the device control unit 14 determines the region. Imaging conditions are set. That is, the apparatus control unit 14 determines that the imaging region is changed because the ultrasonic probe 1 has transitioned from the contact state to the subject to the aerial radiation state, and is stored in the imaging condition memory 15 in advance. The part determination imaging condition is selected, and the transmission / reception unit 2 and the image generation unit 3 are controlled so that imaging is performed under the selected part determination imaging condition.
  • step S3 the ultrasound probe 1 is moved from the air radiation state to the subject. If it determines with having changed to the contact state, it will progress to step S4 and the site
  • step S9 after changing from the part-by-part imaging condition to the part discrimination imaging condition, the B-mode image used for part discrimination in step S4 is newly imaged because it is imaged in steps S1 and S2. Regardless of which part is imaged, the image quality is stable, and therefore the part discriminating unit 11 can perform accurate part discrimination.
  • the region determination imaging condition is set, and the region determination Since the part discrimination by the part discriminating unit 11 is performed based on the B-mode image generated according to the imaging conditions, when changing the imaging part, an ultrasound image having a stable image quality can be obtained regardless of the imaging part immediately before the change. Acquired and accurate part discrimination can be performed.
  • the part determination imaging condition set by the apparatus control unit 14 in step S9 can be adjusted according to the part determination method in the part determination unit 11.
  • the conditions that greatly affect the brightness and gradation of the image such as gain and dynamic range
  • the conditions that greatly affect the brightness and gradation of the image are common to all imaging regions from the region-specific imaging conditions.
  • it is preferable to change to those that are not affected by the brightness and gradation of the image, such as sharpness enhancement and speckle suppression do not change and use the ones included in the imaging conditions for each part. May be.
  • the region-specific imaging condition is set in step S5 based on the determination result output from the region determination unit 11 after the region determination is completed by the region determination unit 11 in step S4,
  • the condition can be gradually changed over a plurality of frames instead of immediately changing from the part discrimination imaging condition to the part-specific imaging condition.
  • the gain value in the region determination imaging condition used in the region determination is “60” and the gain value in the region-specific imaging condition set after the region determination is “80”
  • the region discrimination imaging condition is gradually changed to the site-specific imaging condition. In this way, the image quality can be changed smoothly from the B-mode image for region discrimination to the B-mode image for imaging region inspection, and the uncomfortable feeling caused by a sudden change in image quality can be suppressed. It becomes possible.
  • Embodiment 2 In the first embodiment, when the probe state determination unit 12 determines in step S8 that the ultrasonic probe 1 has transitioned from the contact state to the subject to the air radiation state, the process immediately proceeds to step S9.
  • the region determination imaging conditions are set, the present invention is not limited to this.
  • step S10 After the probe state determination unit 12 determines in step S8 that the ultrasonic probe 1 has transitioned from the contact state to the subject to the aerial radiation state, in step S10, when the probe state determination unit 12 determines that the ultrasonic probe 1 is in the air radiation state continuously over the set number Nth of frames, the process proceeds to step S9 to set the region determination imaging condition. You may make it perform.
  • the apparatus control unit 14 moves the ultrasonic probe 1 from the body surface of the subject for the purpose of moving the imaging region. It is determined that they are separated from each other, and a region discrimination imaging condition is set.
  • the apparatus control unit 14 determines the operator during imaging of the imaging region. Therefore, it is determined that the ultrasonic probe 1 has instantaneously moved away from the body surface of the subject without intention, and the part-by-part imaging conditions set up to that point are used as they are.
  • the ultrasonic probe 1 is in the aerial radiation state for the purpose of moving the imaging region, and to set the region determination imaging condition.
  • the set number Nth for example, the number of frames can be set directly, such as “90”, or a time such as “3 seconds” can be input and automatically converted into the number of frames according to the frame rate. You may make it do.
  • FIG. 9 shows the configuration of the ultrasonic diagnostic apparatus according to the third embodiment.
  • This ultrasonic diagnostic apparatus is the ultrasonic diagnostic apparatus according to the first embodiment shown in FIG. 1, in which the ultrasonic probe 1 has a built-in motion sensor 1 ⁇ / b> B and uses the apparatus control unit 14 ⁇ / b> A instead of the apparatus control unit 14. It is.
  • the motion sensor 1B detects the amount of motion of the ultrasonic probe 1, and specifically includes an acceleration sensor, a posture sensor, and the like.
  • the probe state determination unit 12 determines that the ultrasound probe 1 has transitioned from the contact state to the subject to the aerial radiation state, and the motion amount of the ultrasound probe 1 detected by the motion sensor 1B is determined in advance. When it is equal to or greater than the set threshold value Mth, the region determination imaging condition is set.
  • step S8 determines in step S8 that the ultrasonic probe 1 has transitioned from the contact state to the subject to the air radiation state. If it is determined in step S11 that the amount of motion of the ultrasonic probe 1 detected by the motion sensor 1B is equal to or greater than a preset threshold value Mth, the process proceeds to step S9, where the region determination imaging condition is set. Is set.
  • the apparatus control unit 14 determines that the operator has intentionally separated the ultrasonic probe 1 from the body surface of the subject, Set the imaging conditions for discrimination.
  • the apparatus control unit 14 does not intentionally indicate the air emission state of the ultrasonic probe 1 and the ultrasonic probe during imaging of the imaging region. 1 is instantaneously separated from the body surface of the subject, and the part-by-part imaging conditions set up to that point are used as they are. In this way, it is possible to reliably recognize that the ultrasonic probe 1 has been intentionally brought into the aerial radiation state for the purpose of moving the imaging region, and to set the region determination imaging condition.
  • the present invention when changing the imaging part, it is possible to obtain an ultrasound image having a stable image quality regardless of the imaging part immediately before the change, so that FAST (Focused Assessment with Sonography for Trauma) inspection in lifesaving
  • FAST Fluorused Assessment with Sonography for Trauma
  • 1 ultrasonic probe 1A array transducer, 1B motion sensor, 2 transmission / reception unit, 3 image generation unit, 4 display control unit, 5 display unit, 6 transmission unit, 7 reception unit, 8 transmission / reception control unit, 9 B mode processing unit, 10 DSC, 11 site determination unit, 12 probe state determination unit, 14, 14A device control unit, 15 imaging condition memory, 16 operation unit, 17 storage unit, 18 amplification unit, 19 A / D conversion unit, 20 beamformer, 21 signal processing unit, 22 B-mode image, 23 areas, 24 observation points.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

超音波診断装置は、超音波プローブと、設定された画像化条件に従って、超音波プローブから被検体に向けて超音波ビームの送受信を行い且つ超音波プローブから出力される受信信号を画像化して被検体の超音波画像を生成する画像化部と、超音波プローブが空中放射状態と被検体への接触状態のいずれにあるかを判定するプローブ状態判定部と、プローブ状態判定部により超音波プローブが被検体への接触状態から空中放射状態に遷移したと判定された場合に画像化条件を変更し且つ画像化部を制御することにより変更された画像化条件を用いて超音波画像を生成する装置制御部とを備えている。

Description

超音波診断装置および超音波診断装置の制御方法
 この発明は、超音波診断装置および超音波診断装置の制御方法に係り、特に、予め設定された画像化条件に従って超音波ビームの送受信および走査を行い且つ超音波画像を生成する超音波診断装置に関する。
 従来から、医療分野において、超音波画像を利用した超音波診断装置が実用化されている。一般に、この種の超音波診断装置は、アレイトランスデューサを内蔵した超音波プローブから被検体内に向けて超音波ビームを走査し、被検体からの超音波エコーを超音波プローブで受信して、その受信信号を電気的に処理することにより超音波画像が生成される。
 このような超音波診断装置を用いて被検体の複数の撮像部位を診断しようとする場合、それぞれの撮像部位に対して診断に適した超音波画像を得るために、撮像部位に応じてそれぞれ異なる適切な画像化条件が存在する。そこで、例えば特許文献1には、生成された超音波画像からパターンマッチング処理により撮像部位を自動判別し、判別結果に基づいて撮像部位に最適な走査パラメータを設定する超音波診断装置が開示されている。
特開平4-224738号公報
 しかしながら、撮像部位を変更した直後は、変更直前の撮像部位に対応する画像化条件で超音波画像を生成することとなり、変更直前の撮像部位と変更後の撮像部位とで最適な画像化条件に差があると、変更後の撮像部位に対して不適切な画像化条件で生成されることにより画質が低下した超音波画像を用いて部位判別を行わなければならず、正確な部位判別を行うことが難しくなるおそれがある。
 この発明は、このような従来の問題点を解消するためになされたもので、撮像部位を変更する場合に変更直前の撮像部位に関わらずに安定した画質の超音波画像を得ることができる超音波診断装置および超音波診断装置の制御方法を提供することを目的とする。
 この発明に係る超音波診断装置は、超音波プローブと、設定された画像化条件に従って、超音波プローブから被検体に向けて超音波ビームの送受信を行い且つ超音波プローブから出力される受信信号を画像化して被検体の超音波画像を生成する画像化部と、超音波プローブが空中放射状態と被検体への接触状態のいずれにあるかを判定するプローブ状態判定部と、プローブ状態判定部により超音波プローブが被検体への接触状態から空中放射状態に遷移したと判定された場合に画像化条件を変更し且つ画像化部を制御することにより変更された画像化条件を用いて超音波画像を生成する装置制御部とを備えたものである。
 画像化部で生成された超音波画像を用いて被検体の撮像部位を判別する部位判別部をさらに備え、装置制御部は、部位判別部を制御することにより、プローブ状態判定部により超音波プローブが空中放射状態にあると判定された場合には部位判別を実施せず、プローブ状態判定部により超音波プローブが空中放射状態から被検体への接触状態に遷移したと判定された場合に部位判別を実施することが好ましい。
 また、複数の前記撮像部位に対してそれぞれ設定された複数の部位別画像化条件と、複数の撮像部位に共通の部位判別用画像化条件とが保存された画像化条件メモリをさらに備え、装置制御部は、画像化部を制御することにより、プローブ状態判定部により超音波プローブが被検体への接触状態から空中放射状態に遷移したと判定された場合に画像化条件メモリに保存されている部位判別用画像化条件を用いて超音波画像を生成し、部位判別部により部位判別が完了した場合に画像化条件メモリに保存されている複数の部位別画像化条件から部位判別部の判別結果に応じた部位別画像化条件を選択し且つ選択された部位別画像化条件を用いて超音波画像を生成することが好ましい。
 装置制御部は、部位判別部により部位判別が完了した場合に画像化条件を部位判別用画像化条件から選択された部位別画像化条件に徐々に変化させることもできる。
 装置制御部は、プローブ状態判定部により超音波プローブが被検体への接触状態から空中放射状態に遷移したと判定され且つ予め設定された設定数のフレームにわたり連続して超音波プローブが空中放射状態にあると判定された場合に画像化条件を変更するようにしてもよい。
 超音波プローブは、超音波プローブの動き量を検知する動きセンサを有し、装置制御部は、プローブ状態判定部により超音波プローブが被検体への接触状態から空中放射状態に遷移したと判定され且つ動きセンサにより検知された超音波プローブの動き量が予め設定されたしきい値以上の場合に画像化条件を変更することもできる。
 画像化部は、超音波ビーム走査条件に従って超音波ビームの送受信を行う送受信部と、超音波画像生成条件に従って受信信号から超音波画像を生成する画像生成部とを含み、画像化条件は、超音波ビーム走査条件と超音波画像生成条件とを含むように構成することができる。
 この発明に係る超音波診断装置の制御方法は、超音波プローブを含む超音波診断装置の制御方法であって、設定された画像化条件に従って、超音波プローブから被検体に向けて超音波ビームの送受信を行い且つ超音波プローブから出力される受信信号を画像化して被検体の超音波画像を生成する工程と、超音波プローブが空中放射状態と被検体への接触状態のいずれにあるかを判定する工程と、超音波プローブが被検体への接触状態から空中放射状態に遷移したと判定された場合に画像化条件を変更し且つ変更された画像化条件を用いて超音波画像を生成する工程とを含む方法である。
 この発明によれば、超音波プローブが被検体への接触状態から空中放射状態に遷移したと判定された場合に画像化条件を変更し且つ画像化部を制御することにより変更された画像化条件にて超音波画像を生成するので、撮像部位を変更する場合に変更直前の撮像部位に関わらずに安定した画質の超音波画像を得ることが可能となる。
この発明の実施の形態1に係る超音波診断装置の構成を示すブロック図である。 受信部の内部構成を示すブロック図である。 Bモード処理部の内部構成を示すブロック図である。 実施の形態1におけるBモード画像を示す図である。 複数の関心領域が設定されたBモード画像を示す図である。 複数の観察点が設定されたBモード画像を示す図である。 実施の形態1の動作を示すフローチャートである。 実施の形態2の動作を示すフローチャートである。 実施の形態3に係る超音波診断装置の構成を示すブロック図である。 実施の形態3の動作を示すフローチャートである。
 以下、この発明の実施の形態を添付図面に基づいて説明する。
実施の形態1
 図1に、この発明の実施の形態1に係る超音波診断装置の構成を示す。超音波診断装置は、アレイトランスデューサ1Aを内蔵する超音波プローブ1を備え、この超音波プローブ1に送受信部2を介して画像生成部3が接続され、さらに、画像生成部3に表示制御部4を介して表示部5が接続されている。
 送受信部2は、超音波プローブ1のアレイトランスデューサ1Aに接続された送信部6および受信部7と、これら送信部6および受信部7に接続された送受信制御部8を有している。画像生成部3は、送受信部2の受信部7に接続されたBモード処理部9と、Bモード処理部9に接続されたDSC(Digital Scan Converter)10を有しており、表示制御部4は、DSC10に接続されている。
 また、画像生成部3のDSC10に部位判別部11およびプローブ状態判定部12がそれぞれ接続されている。
 送受信部2の送受信制御部8、画像生成部3のBモード処理部9およびDSC10、表示制御部4、部位判別部11およびプローブ状態判定部12に装置制御部14が接続されている。さらに、装置制御部14に、画像化条件メモリ15と操作部16および格納部17がそれぞれ接続されている。
 超音波プローブ1のアレイトランスデューサ1Aは、1次元又は2次元に配列された複数の超音波トランスデューサを有している。これらの超音波トランスデューサは、それぞれ送信部6から供給される駆動信号に従って超音波を送信すると共に被検体からの超音波エコーを受信して受信信号を出力する。各超音波トランスデューサは、例えば、PZT(チタン酸ジルコン酸鉛)に代表される圧電セラミックや、PVDF(ポリフッ化ビニリデン)に代表される高分子圧電素子、PMN-PT(マグネシウムニオブ酸・チタン酸鉛固溶体)に代表される圧電単結晶等からなる圧電体の両端に電極を形成した振動子によって構成される。
 そのような振動子の電極に、パルス状又は連続波の電圧を印加すると、圧電体が伸縮し、それぞれの振動子からパルス状又は連続波の超音波が発生して、それらの超音波の合成により超音波ビームが形成される。また、それぞれの振動子は、伝搬する超音波を受信することにより伸縮して電気信号を発生し、それらの電気信号は、超音波の受信信号として出力される。
 送受信部2は、設定された超音波ビーム走査条件に従って超音波ビームの送受信を行い、画像生成部3は、設定された超音波画像生成条件に従ってBモード画像信号を生成するもので、これら送受信部2および画像生成部3により画像化部が構成されている。また、送受信部2に対する超音波ビーム走査条件と画像生成部3に対する超音波画像生成条件により画像化部に対する画像化条件が構成されている。
 なお、画像化条件のうち、超音波ビーム走査条件としては、超音波ビームの送信周波数、焦点位置、表示深さ等が挙げられ、超音波画像生成条件としては、音速、検波条件、ゲイン、ダイナミックレンジ、階調カーブ、スペックル抑制強度、エッジ強調度等を挙げることができる。
 送受信部2の送信部6は、例えば、複数のパルス発生器を含んでおり、送受信制御部8からの制御信号に応じて選択された送信遅延パターンに基づいて、アレイトランスデューサ1Aの複数の超音波トランスデューサから送信される超音波が超音波ビームを形成するようにそれぞれの駆動信号の遅延量を調節して複数の超音波トランスデューサに供給する。
 受信部7は、図2に示されるように、増幅部18とA/D(アナログ/デジタル)変換部19が順次直列に接続された構成を有している。受信部7は、アレイトランスデューサ1Aの各超音波トランスデューサから送信される受信信号を増幅部18で増幅し、A/D変換部19でA/D変換してデジタルの受信データを生成する。
 送受信制御部8は、装置制御部14から伝送される各種の制御信号に基づき、繰り返し周波数(PRF:Pulse Repetition Frequency)間隔で被検体への超音波パルスの送信と被検体からの超音波エコーの受信が繰り返し行われるように、送信部6および受信部7を制御する。
 画像生成部3のBモード処理部9は、図3に示されるように、ビームフォーマ20と信号処理部21とが順次直列に接続された構成を有している。ビームフォーマ20は、装置制御部14からの制御信号に応じて選択された受信遅延パターンに基づいて設定される音速または音速の分布に従い、送受信部2の受信部7から出力された受信データにそれぞれの遅延を与えて加算することにより、受信フォーカス処理を行う。この受信フォーカス処理により、整相加算され超音波エコーの焦点が絞り込まれた音線信号が生成される。
 信号処理部21は、ビームフォーマ20で生成された音線信号に対し、超音波の反射位置の深度に応じて距離による減衰の補正を施した後、包絡線検波処理を施し、さらに、階調処理等の各種の必要な画像処理を施すことにより、被検体内の組織に関する断層画像情報であるBモード画像信号を生成する。
 画像生成部3のDSC10は、信号処理部21で生成されたBモード画像信号を通常のテレビジョン信号の走査方式に従う画像信号に変換(ラスター変換)する。
 表示制御部4は、画像生成部3により生成されたBモード画像信号に基づいて、表示部5にBモード画像を表示させる。
 表示部5は、例えば、LCD(liquid crystal display)等のディスプレイ装置を含んでおり、表示制御部4の制御の下で、Bモード画像を表示する。
 部位判別部11は、画像生成部3で生成されたBモード画像信号に基づいて、被検体の撮像部位を判別する。
 プローブ状態判定部12は、画像生成部3で生成されたBモード画像に基づき、超音波プローブ1が、被検体の体表に接触して超音波を被検体の体内に放射する接触状態と、被検体の体表から離れて超音波を空中に放射する空中放射状態のいずれにあるかを判定する。
 装置制御部14は、操作者により操作部16から入力された指令に基づいて、送受信制御部8、Bモード処理部9、DSC10、表示制御部4、部位判別部11およびプローブ状態判定部12の制御を行う。
 画像化条件メモリ15は、被検体の複数の撮像部位に対してそれぞれ設定された複数の部位別画像化条件と、被検体の複数の撮像部位に共通の部位判別用画像化条件を予め保存している。複数の部位別画像化条件は、それぞれ対応する撮像部位の診断に適したBモード画像を取得するためのものである。一方、部位判別用画像化条件は、特定の撮像部位に対応することなく、すべての撮像部位に共通で、正確な部位判別を行うことを主眼に置いたBモード画像を取得するためのものである。
 また、操作部16は、操作者が入力操作を行うためのもので、キーボード、マウス、トラックボール、タッチパネル等から形成することができる。
 格納部17は、動作プログラム等を格納するもので、ハードディスク、フレキシブルディスク、MO、MT、RAM、CD-ROM、DVD-ROM、SDカード、CFカード、USBメモリ等の記録メディア、またはサーバ等を用いることができる。
 ここで、部位判別部11における部位判別の方法について説明する。
 被検体の撮像部位としては、例えば、心臓、右腹部、左腹部、膀胱等を挙げることができる。もちろん、その他の各種の撮像部位を判別するように構成することもできる。
 部位判別部11は、予め、複数の撮像部位の典型的なパターンデータを記憶しており、画像生成部3のDSC10から出力された撮像部位のBモード画像信号について、予め記憶している複数のパターンデータに対するそれぞれの類似度を算出する。この類似度の算出には、周知のマッチング技術を用いることができる。また、マッチング技術の他、例えば、Csurka et al.: Visual Categorization with Bags of Keypoints, Proc. of ECCV Workshop on Statistical Learning in Computer Vision, pp. 59-74 (2004) に記載されている機械学習手法、あるいは、Krizhevsk et al.: ImageNet Classification with Deep Convolutional Neural Networks, Advances in Neural Information Processing Systems 25, pp.1106-1114 (2012) に記載されているDeep Learningを用いた一般画像認識手法等を用いて類似度の算出を行うこともできる。
 これらの方法により、部位判別部11は、撮像部位のBモード画像信号について、複数の撮像部位との類似度スコアをそれぞれ算出し、最も高い類似度スコアを有する撮像部位を判別結果とする。例えば、心臓に対する類似度スコアが5、右腹部に対する類似度スコアが10、左腹部に対する類似度スコアが6、膀胱に対する類似度スコアが3であった場合、撮像された撮像部位は、類似度スコアが最も高い右腹部である、との判別結果が得られる。
 このとき、部位判別に先立って、操作者が操作部16を介して被検体情報(体格、性別等)を入力し、被検体情報に応じて部位判別に使用されるパターンデータを変更することもできる。すなわち、撮像部位毎に、体格の大小および性別の違い等に応じた複数のパターンデータを記憶しておき、入力された被検体情報に対応するパターンデータを用いて部位判別を行う。このようにすれば、被検体の体格および性別等の違いに起因する誤判別を防止して、部位判別の精度を向上させることが可能となる。
 なお、部位判別部11による部位判別は、1つの撮像部位に対して、Bモード画像の表示フレーム毎に行うこともでき、また、数フレームに1回の割合で行うこともできる。
 プローブ状態判定部12は、超音波プローブ1が被検体への接触状態と空中放射状態のいずれにあるかを判定するが、この判定は、画像生成部3で生成されたBモード画像を解析することにより行うことができる。一般に、超音波プローブ1が被検体の体表に接触して超音波を被検体の体内に放射する場合には、図4に示されるように、Bモード画像22内に何らかの構造物すなわち被検体内の組織が描出されるが、超音波プローブ1が被検体の体表から離れて超音波を空中に放射する場合には、Bモード画像22内に構造物が描出されない。
 そこで、Bモード画像22の輝度分布に基づいてBモード画像22内の構造物の有無を検知し、Bモード画像22内に構造物の存在が検知される場合に、超音波プローブ1が被検体への接触状態にあると判定し、Bモード画像22内に構造物の存在が検知されない場合に、超音波プローブ1が空中放射状態にあると判定することができる。
 具体的には、図5に示されるように、Bモード画像22を複数の領域23に分割し、各領域23内の輝度の分散または最大輝度と最小輝度の差分を指標値として求め、予め設定された設定値以上の指標値を有する領域23の個数が予め設定されたしきい値以上である場合に、プローブ状態判定部12は、超音波プローブ1が被検体への接触状態にあると判定する。一方、予め設定された設定値以上の指標値を有する領域23の個数が予め設定されたしきい値未満であれば、プローブ状態判定部12は、超音波プローブ1が空中放射状態にあると判定する。
 さらに、上述した各領域23の輝度の指標値に基づく解析に加え、図6に示されるように、Bモード画像22内に複数の観察点24を設定し、各観察点24のフレーム間の移動量を検知して、超音波プローブ1の状態を判定することもできる。
 プローブ状態判定部12は、各観察点24のフレーム間の移動量が設定値以下の観察点24の個数が予め設定されたしきい値以上である場合に、超音波プローブ1の動きが安定したと判断し、各領域23の輝度の指標値に基づいて超音波プローブ1が被検体への接触状態と空中放射状態のいずれにあるかを判定してもよい。
 また、超音波プローブ1が空中放射状態にある場合には、ほぼ同じBモード画像が取得されると考えられるため、超音波プローブ1が空中放射状態の場合のBモード画像を予め保持しておき、テンプレートマッチング等のマッチング技術を用いて、プローブ状態判定部12が超音波プローブ1の状態を判定することもできる。
 部位判別部11により部位判別を実施するか否かは、プローブ状態判定部12による超音波プローブ1の状態の判定結果に基づいて、装置制御部14により制御されている。すなわち、装置制御部14は、プローブ状態判定部12により超音波プローブ1が空中放射状態にあると判定された場合には、部位判別を実施せず、プローブ状態判定部12により超音波プローブ1が空中放射状態から被検体への接触状態に遷移したと判定された場合に、部位判別を実施するように、部位判別部11を制御する。
 なお、画像化条件メモリ15に保存されている部位判別用画像化条件は、例えば、以下のように設定された諸条件の少なくとも1つを含んでいる。
(1)画像ゲイン
 プローブ状態判定部12における画像解析の結果を用い、各領域23の平均輝度あるいは画面全体の平均輝度が、この超音波診断装置で予め定められている目標の所定範囲に収まるように設定される。例えば、超音波診断装置で予め定められている最大輝度に対して10%小さい値の最大値と超音波診断装置で予め定められている最小輝度に対して10%大きい値の最小値との間に収まるように、領域23の平均輝度あるいは画面全体の平均輝度が設定される。
(2)画像ダイナミックレンジ
 プローブ状態判定部12における画像解析の結果を用い、各領域23の平均輝度、画面全体の平均輝度、あるいは画面全体のダイナミックレンジが、この超音波診断装置で予め定められている目標の所定範囲に収まるように設定される。
(3)階調カーブ
 特定の階調範囲を強調しないようにリニアに設定される。
(4)シャープネス強調度、スペックル抑制度、エッジ強調度
 0(強調しない)に設定される。
(5)画像の表示深度
 最大深度の中間の値に設定される。
(6)画像の焦点位置
 画像の表示深度の中間地点に設定される。
(7)画像の送信周波数
 超音波プローブ1のアレイトランスデューサ1Aの送信帯域のうち中間的な周波数に設定される。
 次に、図7のフローチャートを参照して実施の形態1の動作について説明する。
 予め、初期設定として、装置制御部14により、画像化条件メモリ15に予め保存されている部位判別用画像化条件が選択され、この部位判別用画像化条件に従って画像化を行うように送受信部2および画像生成部3が制御されるものとする。
 まず、ステップS1で、送受信部2により超音波プローブ1のアレイトランスデューサ1Aの複数の超音波トランスデューサを用いた超音波ビームの送受信および走査が行われ、被検体からの超音波エコーを受信した各超音波トランスデューサから受信信号が受信部7に出力され、受信部7で増幅およびA/D変換されて受信データが生成される。
 さらに、ステップS2で、受信データは画像生成部3に入力され、Bモード処理部9で受信フォーカス処理が行われた後にDSC10で信号変換されてBモード画像信号が生成される。このBモード画像信号は、画像生成部3から表示制御部4に出力され、Bモード画像が表示部5に表示される。
 また、画像生成部3のDSC10から出力されたBモード画像信号は、部位判別部11およびプローブ状態判定部12に入力され、ステップS3で、プローブ状態判定部12により、超音波プローブ1が被検体への接触状態と空中放射状態のいずれにあるかが判定される。
 ステップS3において、超音波プローブ1が空中放射状態ではなく、被検体の体表に接触した接触状態にあると判定されると、ステップS4で、部位判別部11により部位判別が実施され、部位判別部11から装置制御部14に判別結果が出力される。このとき、初期設定として選択されている部位判別用画像化条件は、特定の撮像部位に対応することなく、すべての撮像部位に共通の条件であり、この部位判別用画像化条件に従って画像化がなされることで、撮像部位がいずれの撮像部位であっても、安定したBモード画像を取得することができ、ステップS4において、部位判別部11により正確な部位判別を行うことが可能となる。
 そして、ステップS5で、装置制御部14により、部位判別部11の判別結果に応じた部位別画像化条件の設定が行われる。装置制御部14は、部位判別部11から入力された判別結果に基づき、画像化条件メモリ15に予め保存されている複数の部位別画像化条件から判別結果に応じた部位別画像化条件を選択し、選択された部位別画像化条件で画像化が行われるように送受信部2および画像生成部3を制御する。
 このように部位判別部11の判別結果に応じた部位別画像化条件が設定された状態で、ステップS6およびS7において画像化が行われる。すなわち、ステップS6で、画像化条件メモリ15から選択した部位別画像化条件に含まれる超音波ビーム走査条件に従って超音波ビームの送受信および走査が行われ、ステップS7で、選択した部位別画像化条件に含まれる超音波画像生成条件に従って受信信号からBモード画像信号が生成され、表示部5にBモード画像が表示される。
 このステップS6およびS7における画像化は、続くステップS8で、超音波プローブ1が被検体への接触状態から空中放射状態に遷移したと判定されるまで続けられ、これにより、撮像部位の検査が実施される。
 そして、ステップS8で、プローブ状態判定部12により、超音波プローブ1が被検体への接触状態から空中放射状態に遷移したと判定されると、ステップS9に進み、装置制御部14により、部位判別用画像化条件の設定が行われる。すなわち、装置制御部14は、超音波プローブ1が被検体への接触状態から空中放射状態に遷移したことから、撮像部位が変更されると判断し、画像化条件メモリ15に予め保存されている部位判別用画像化条件を選択し、選択された部位判別用画像化条件で画像化が行われるように送受信部2および画像生成部3を制御する。
 このように部位判別用画像化条件が設定された状態で、ステップS1に戻り、ステップS1およびS2において画像化が行われ、続くステップS3で、超音波プローブ1が空中放射状態から被検体への接触状態に遷移したと判定されると、ステップS4に進み、部位判別部11による部位判別が実施される。
 ステップS9で、部位別画像化条件から部位判別用画像化条件に変更された後に、ステップS1およびS2で画像化されているため、ステップS4で部位判別に用いられるBモード画像は、新たな撮像部位がいずれの撮像部位であっても、安定した画質を有しており、このため、部位判別部11により正確な部位判別を行うことが可能となる。
 このようにして、プローブ状態判定部12により、超音波プローブ1が被検体への接触状態から空中放射状態に遷移したと判定される毎に、部位判別用画像化条件が設定され、部位判別用画像化条件に従って生成されたBモード画像に基づいて部位判別部11による部位判別が実施されるので、撮像部位を変更する場合に変更直前の撮像部位に関わらずに安定した画質の超音波画像を取得し、正確な部位判別を行うことができる。
 なお、ステップS9で、装置制御部14が設定する部位判別用画像化条件は、部位判別部11における部位判別の方式に応じて調整することもできる。例えば、類似度算出のためのマッチングを低解像度で行なう場合には、ゲイン、ダイナミックレンジ等、画像の輝度および階調に大きく影響する条件は、部位別画像化条件からすべての撮像部位に共通のものに変更することが好ましいが、シャープネス強調度、スペックル抑制度等、画像の輝度および階調に対する影響が小さいものは、変更しないで、それぞれの部位別画像化条件に含まれるものをそのまま使用してもよい。
 逆に、テクスチャ特徴量等を用いてマッチングする場合は、シャープネス強調度、スペックル抑制度等についても、部位別画像化条件からすべての撮像部位に共通のものに変更することが望ましい。
 また、ステップS4で、部位判別部11により部位判別が完了した後、部位判別部11から出力される判別結果に基づき、ステップS5で、部位別画像化条件を設定する場合には、部位判別時の部位判別用画像化条件から部位別画像化条件に即座に変更するのではなく、複数フレームにわたって徐々に条件を変化させることもできる。
 例えば、部位判別の際に用いた部位判別用画像化条件におけるゲインの値が「60」で、部位判別後に設定される部位別画像化条件におけるゲインの値が「80」であるとした場合、5フレームにわたって1フレーム毎に「4」だけゲインの値を増加させることにより、部位判別用画像化条件から部位別画像化条件に徐々に変更させる。
 このようにすることで、部位判別のためのBモード画像から撮像部位検査のためのBモード画像まで画質をなだらかに変化させることができ、急激な画質の変化に起因する違和感を抑制することが可能となる。
実施の形態2
 上記の実施の形態1では、ステップS8で、プローブ状態判定部12により、超音波プローブ1が被検体への接触状態から空中放射状態に遷移したと判定された場合に、即座にステップS9に進んで、部位判別用画像化条件の設定を行ったが、これに限るものではない。
 例えば、図8に示されるように、ステップS8で、プローブ状態判定部12により、超音波プローブ1が被検体への接触状態から空中放射状態に遷移したと判定された後、ステップS10で、予め設定された設定数Nthのフレームにわたり連続してプローブ状態判定部12により超音波プローブ1が空中放射状態にあると判定された場合に、ステップS9に進んで、部位判別用画像化条件の設定を行うようにしてもよい。
 装置制御部14は、設定数Nthのフレームにわたり連続して超音波プローブ1が空中放射状態にある場合には、操作者が撮像部位を移行する目的で超音波プローブ1を被検体の体表から離したものと判断して、部位判別用画像化条件を設定する。一方、設定数Nthより少ない数のフレームでのみ超音波プローブ1が空中放射状態となった後に被検体への接触状態に戻った場合は、装置制御部14は、撮像部位の撮像中に操作者が意図することなく超音波プローブ1が瞬間的に被検体の体表から離れて浮いてしまったものと判断し、それまで設定されていた部位別画像化条件をそのまま使用する。
 このようにすれば、撮像部位を移行する目的で超音波プローブ1が空中放射状態になったことを確実に認識して、部位判別用画像化条件の設定を行うことができる。
 なお、設定数Nthとしては、例えば、「90」等、フレーム数を直接設定することもでき、あるいは、「3秒」等の時間を入力し、フレームレートに応じて自動的にフレーム数に換算するようにしてもよい。
実施の形態3
 図9に、実施の形態3に係る超音波診断装置の構成を示す。この超音波診断装置は、図1に示した実施の形態1の超音波診断装置において、超音波プローブ1が動きセンサ1Bを内蔵し、装置制御部14の代わりに装置制御部14Aを用いたものである。
 動きセンサ1Bは、超音波プローブ1の動き量を検知するもので、具体的には、加速度センサ、姿勢センサ等から構成されている。
 装置制御部14Aは、プローブ状態判定部12により超音波プローブ1が被検体への接触状態から空中放射状態に遷移したと判定され且つ動きセンサ1Bにより検知された超音波プローブ1の動き量が予め設定されたしきい値Mth以上である場合に、部位判別用画像化条件の設定を行う。
 この実施の形態3においては、図10に示されるように、ステップS8で、プローブ状態判定部12により、超音波プローブ1が被検体への接触状態から空中放射状態に遷移したと判定された後、ステップS11で、動きセンサ1Bより検知された超音波プローブ1の動き量が予め設定されたしきい値Mth以上であると判定された場合に、ステップS9に進んで、部位判別用画像化条件の設定が行われる。
 装置制御部14は、超音波プローブ1の動き量がしきい値Mth以上の場合には、操作者が意図的に超音波プローブ1を被検体の体表から離したものと判断して、部位判別用画像化条件を設定する。一方、超音波プローブ1の動き量がしきい値Mthより小さい場合は、装置制御部14は、超音波プローブ1の空中放射状態が意図的なものではなく、撮像部位の撮像中に超音波プローブ1が瞬間的に被検体の体表から離れて浮いてしまったものと判断し、それまで設定されていた部位別画像化条件をそのまま使用する。
 このようにすれば、撮像部位を移行する目的で意図的に超音波プローブ1を空中放射状態にしたことを確実に認識して、部位判別用画像化条件の設定を行うことができる。
 この発明によれば、撮像部位を変更する場合に変更直前の撮像部位に関わらずに安定した画質の超音波画像を得ることができるので、救命救急におけるFAST(Focused Assessment with Sonography for Trauma)検査のように、予め決められた手順で複数の撮像部位を順次検査する場合に、検査部位に対する部位判別を精度よく行うことが可能となる。
 1 超音波プローブ、1A アレイトランスデューサ、1B 動きセンサ、2 送受信部、3 画像生成部、4 表示制御部、5 表示部、6 送信部、7 受信部、8 送受信制御部、9 Bモード処理部、10 DSC、11 部位判別部、12 プローブ状態判定部、14,14A 装置制御部、15 画像化条件メモリ、16 操作部、17 格納部、18 増幅部、19 A/D変換部、20 ビームフォーマ、21 信号処理部、22 Bモード画像、23 領域、24 観察点。

Claims (8)

  1.  超音波プローブと、
     設定された画像化条件に従って、前記超音波プローブから被検体に向けて超音波ビームの送受信を行い且つ前記超音波プローブから出力される受信信号を画像化して前記被検体の超音波画像を生成する画像化部と、
     前記超音波プローブが空中放射状態と前記被検体への接触状態のいずれにあるかを判定するプローブ状態判定部と、
     前記プローブ状態判定部により前記超音波プローブが前記被検体への接触状態から空中放射状態に遷移したと判定された場合に前記画像化条件を変更し且つ前記画像化部を制御することにより前記変更された画像化条件を用いて前記超音波画像を生成する装置制御部と
     を備えた超音波診断装置。
  2.  前記画像化部で生成された前記超音波画像を用いて前記被検体の撮像部位を判別する部位判別部をさらに備え、
     前記装置制御部は、前記部位判別部を制御することにより、前記プローブ状態判定部により前記超音波プローブが空中放射状態にあると判定された場合には部位判別を実施せず、前記プローブ状態判定部により前記超音波プローブが空中放射状態から前記被検体への接触状態に遷移したと判定された場合に部位判別を実施する請求項1に記載の超音波診断装置。
  3.  複数の前記撮像部位に対してそれぞれ設定された複数の部位別画像化条件と、前記複数の撮像部位に共通の部位判別用画像化条件とが保存された画像化条件メモリをさらに備え、
     前記装置制御部は、前記画像化部を制御することにより、前記プローブ状態判定部により前記超音波プローブが前記被検体への接触状態から空中放射状態に遷移したと判定された場合に前記画像化条件メモリに保存されている前記部位判別用画像化条件を用いて前記超音波画像を生成し、前記部位判別部により部位判別が完了した場合に前記画像化条件メモリに保存されている前記複数の部位別画像化条件から前記部位判別部の判別結果に応じた部位別画像化条件を選択し且つ選択された前記部位別画像化条件を用いて前記超音波画像を生成する請求項2に記載の超音波診断装置。
  4.  前記装置制御部は、前記部位判別部により部位判別が完了した場合に前記画像化条件を前記部位判別用画像化条件から前記選択された部位別画像化条件に徐々に変化させる請求項3に記載の超音波診断装置。
  5.  前記装置制御部は、前記プローブ状態判定部により前記超音波プローブが前記被検体への接触状態から空中放射状態に遷移したと判定され且つ予め設定された設定数のフレームにわたり連続して前記超音波プローブが空中放射状態にあると判定された場合に前記画像化条件を変更する請求項1~4のいずれか一項に記載の超音波診断装置。
  6.  前記超音波プローブは、前記超音波プローブの動き量を検知する動きセンサを有し、
     前記装置制御部は、前記プローブ状態判定部により前記超音波プローブが前記被検体への接触状態から空中放射状態に遷移したと判定され且つ前記動きセンサにより検知された前記超音波プローブの動き量が予め設定されたしきい値以上の場合に前記画像化条件を変更する請求項1~4のいずれか一項に記載の超音波診断装置。
  7.  前記画像化部は、超音波ビーム走査条件に従って超音波ビームの送受信を行う送受信部と、超音波画像生成条件に従って前記受信信号から前記超音波画像を生成する画像生成部とを含み、
     前記画像化条件は、前記超音波ビーム走査条件と前記超音波画像生成条件とを含む請求項1~6のいずれか一項に記載の超音波診断装置。
  8.  超音波プローブを含む超音波診断装置の制御方法であって、
     設定された画像化条件に従って、超音波プローブから被検体に向けて超音波ビームの送受信を行い且つ前記超音波プローブから出力される受信信号を画像化して前記被検体の超音波画像を生成する工程と、
     前記超音波プローブが空中放射状態と前記被検体への接触状態のいずれにあるかを判定する工程と、
     前記超音波プローブが前記被検体への接触状態から空中放射状態に遷移したと判定された場合に前記画像化条件を変更し且つ変更された前記画像化条件を用いて前記超音波画像を生成する工程と
     を含む超音波診断装置の制御方法。
PCT/JP2016/063833 2015-08-21 2016-05-10 超音波診断装置および超音波診断装置の制御方法 WO2017033502A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DK16838849.4T DK3338642T3 (da) 2015-08-21 2016-05-10 Ultralydsdiagnoseanordning og fremgangsmåde til styring af ultralydsdiagnoseanordning
EP16838849.4A EP3338642B1 (en) 2015-08-21 2016-05-10 Ultrasonic diagnostic device and method for controlling ultrasonic diagnostic device
JP2017536633A JP6419976B2 (ja) 2015-08-21 2016-05-10 超音波診断装置および超音波診断装置の制御方法
US15/860,974 US11666310B2 (en) 2015-08-21 2018-01-03 Ultrasound diagnostic apparatus and method for controlling ultrasound diagnostic apparatus using predetermined imaging conditions for B-mode image generation

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015164173 2015-08-21
JP2015-164173 2015-08-21

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/860,974 Continuation US11666310B2 (en) 2015-08-21 2018-01-03 Ultrasound diagnostic apparatus and method for controlling ultrasound diagnostic apparatus using predetermined imaging conditions for B-mode image generation

Publications (1)

Publication Number Publication Date
WO2017033502A1 true WO2017033502A1 (ja) 2017-03-02

Family

ID=58099873

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/063833 WO2017033502A1 (ja) 2015-08-21 2016-05-10 超音波診断装置および超音波診断装置の制御方法

Country Status (5)

Country Link
US (1) US11666310B2 (ja)
EP (1) EP3338642B1 (ja)
JP (1) JP6419976B2 (ja)
DK (1) DK3338642T3 (ja)
WO (1) WO2017033502A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019208591A (ja) * 2018-05-31 2019-12-12 キヤノンメディカルシステムズ株式会社 超音波診断装置および自動保存制御プログラム
JP2020519369A (ja) * 2017-05-11 2020-07-02 ベラソン インコーポレイテッドVerathon Inc. 確率マップに基づいた超音波検査
WO2022049808A1 (ja) * 2020-09-02 2022-03-10 富士フイルム株式会社 超音波システムおよび超音波システムの制御方法
JP7452046B2 (ja) 2020-01-31 2024-03-19 株式会社Jvcケンウッド 表示制御装置、画像表示装置、制御方法および制御プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020075575A1 (ja) * 2018-10-12 2020-04-16 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
CN111281424A (zh) * 2018-12-07 2020-06-16 深圳迈瑞生物医疗电子股份有限公司 一种超声成像范围的调节方法及相关设备
JP2024060462A (ja) * 2022-10-19 2024-05-02 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006212146A (ja) * 2005-02-02 2006-08-17 Matsushita Electric Ind Co Ltd 超音波診断装置
JP2014180481A (ja) * 2013-03-21 2014-09-29 Fujifilm Corp 光音響計測装置および光音響計測方法並びにプローブの接触判断方法
JP2014184025A (ja) * 2013-03-25 2014-10-02 Fujifilm Corp 光音響計測装置、プローブおよび音響整合部材並びに光音響計測方法およびプローブの接触判断方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2943015B2 (ja) 1990-12-27 1999-08-30 ジーイー横河メディカルシステム株式会社 診断部位判別装置およびスキャンパラメータ設定装置
JPH09238944A (ja) * 1996-03-13 1997-09-16 Fujitsu Ltd 超音波診断装置
US8267864B2 (en) * 2003-04-08 2012-09-18 Hitachi Medical Corporation Ultrasonic diagnostic apparatus
JP2005058285A (ja) * 2003-08-19 2005-03-10 Ge Medical Systems Global Technology Co Llc 超音波診断装置
US7740584B2 (en) * 2005-08-16 2010-06-22 The General Electric Company Method and system for mapping physiology information onto ultrasound-based anatomic structure
US20080025583A1 (en) * 2006-07-27 2008-01-31 General Electric Company System and method for on-demand visual enhancement of clinical conitions in images
JP4542591B2 (ja) * 2008-03-05 2010-09-15 富士フイルム株式会社 画像処理システム、画像保管装置、および、画像処理装置、並びに、画像処理方法、プログラム
JP5395371B2 (ja) * 2008-06-18 2014-01-22 株式会社東芝 超音波診断装置、超音波画像の取得方法及びプログラム
US20110166455A1 (en) * 2010-01-07 2011-07-07 Cully Edward H Catheter
US8805043B1 (en) * 2010-04-02 2014-08-12 Jasjit S. Suri System and method for creating and using intelligent databases for assisting in intima-media thickness (IMT)
JP2012187389A (ja) * 2011-02-22 2012-10-04 Fujifilm Corp 光音響画像生成装置、及び方法
CN105050504B (zh) * 2013-03-29 2018-01-26 株式会社日立制作所 医疗诊断装置及其测量方法
US9554778B2 (en) * 2013-11-08 2017-01-31 Siemens Medical Solutions Usa, Inc. Responsive power saving in ultrasound

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006212146A (ja) * 2005-02-02 2006-08-17 Matsushita Electric Ind Co Ltd 超音波診断装置
JP2014180481A (ja) * 2013-03-21 2014-09-29 Fujifilm Corp 光音響計測装置および光音響計測方法並びにプローブの接触判断方法
JP2014184025A (ja) * 2013-03-25 2014-10-02 Fujifilm Corp 光音響計測装置、プローブおよび音響整合部材並びに光音響計測方法およびプローブの接触判断方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020519369A (ja) * 2017-05-11 2020-07-02 ベラソン インコーポレイテッドVerathon Inc. 確率マップに基づいた超音波検査
KR20220040507A (ko) * 2017-05-11 2022-03-30 베라톤 인코포레이티드 확률 맵 기반의 초음파 스캐닝
KR102409090B1 (ko) 2017-05-11 2022-06-15 베라톤 인코포레이티드 확률 맵 기반의 초음파 스캐닝
JP2019208591A (ja) * 2018-05-31 2019-12-12 キヤノンメディカルシステムズ株式会社 超音波診断装置および自動保存制御プログラム
JP7190263B2 (ja) 2018-05-31 2022-12-15 キヤノンメディカルシステムズ株式会社 超音波診断装置および自動保存制御プログラム
JP7452046B2 (ja) 2020-01-31 2024-03-19 株式会社Jvcケンウッド 表示制御装置、画像表示装置、制御方法および制御プログラム
WO2022049808A1 (ja) * 2020-09-02 2022-03-10 富士フイルム株式会社 超音波システムおよび超音波システムの制御方法
JP7407959B2 (ja) 2020-09-02 2024-01-04 富士フイルム株式会社 超音波システムおよび超音波システムの制御方法

Also Published As

Publication number Publication date
US11666310B2 (en) 2023-06-06
DK3338642T3 (da) 2020-07-06
EP3338642A1 (en) 2018-06-27
US20180140281A1 (en) 2018-05-24
EP3338642A4 (en) 2018-07-11
EP3338642B1 (en) 2020-05-06
JPWO2017033502A1 (ja) 2018-02-22
JP6419976B2 (ja) 2018-11-07

Similar Documents

Publication Publication Date Title
JP6419976B2 (ja) 超音波診断装置および超音波診断装置の制御方法
JP5719098B2 (ja) 超音波診断装置
US11116475B2 (en) Ultrasound diagnostic apparatus and method for controlling ultrasound diagnostic apparatus
US20120259225A1 (en) Ultrasound diagnostic apparatus and ultrasound image producing method
JP6637611B2 (ja) 超音波診断装置および超音波診断装置の制御方法
US10918360B2 (en) Ultrasound diagnostic apparatus and method for controlling ultrasound diagnostic apparatus
US20190038261A1 (en) Ultrasound diagnostic apparatus and method for controlling ultrasound diagnostic apparatus
WO2020075609A1 (ja) 超音波診断装置および超音波診断装置の制御方法
US11134920B2 (en) Ultrasound diagnostic apparatus and method for determination of an imaging part
US11116481B2 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
JP5836241B2 (ja) 超音波検査装置、超音波検査装置の信号処理方法およびプログラム
US11373307B2 (en) Ultrasound diagnostic apparatus and method for controlling ultrasound diagnostic apparatus
JP5851345B2 (ja) 超音波診断装置およびデータ処理方法
US9291601B2 (en) Ambient sound velocity obtaining method and apparatus
US20230172587A1 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
JP2024025865A (ja) 超音波診断装置の制御方法および超音波診断装置
JP5450488B2 (ja) 超音波診断装置および超音波画像生成方法
JP2024039865A (ja) 超音波診断装置および超音波診断装置の制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16838849

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017536633

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016838849

Country of ref document: EP