WO2022107440A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2022107440A1
WO2022107440A1 PCT/JP2021/034782 JP2021034782W WO2022107440A1 WO 2022107440 A1 WO2022107440 A1 WO 2022107440A1 JP 2021034782 W JP2021034782 W JP 2021034782W WO 2022107440 A1 WO2022107440 A1 WO 2022107440A1
Authority
WO
WIPO (PCT)
Prior art keywords
blood vessel
unit
determination
arteriovenous
aggregate
Prior art date
Application number
PCT/JP2021/034782
Other languages
English (en)
French (fr)
Inventor
剛 松本
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2022563598A priority Critical patent/JPWO2022107440A1/ja
Priority to EP21894315.7A priority patent/EP4248878A4/en
Priority to CN202180076543.XA priority patent/CN116507288A/zh
Publication of WO2022107440A1 publication Critical patent/WO2022107440A1/ja
Priority to US18/310,032 priority patent/US20230263505A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0858Detecting organic movements or changes, e.g. tumours, cysts, swellings involving measuring tissue layers, e.g. skin, interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0891Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4427Device being portable or laptop-like
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Definitions

  • the techniques disclosed in this disclosure relate to information processing devices, information processing methods, and programs.
  • an ultrasonic diagnostic apparatus has been known as a device for obtaining an image of the inside of a subject.
  • An ultrasonic diagnostic apparatus generally has an ultrasonic probe provided with an oscillator array in which a plurality of ultrasonic oscillators are arranged.
  • This ultrasonic probe transmits an ultrasonic beam from the vibrator array toward the inside of the subject in a state of being in contact with the body surface of the subject, and receives an ultrasonic echo from the subject by the vibrator array.
  • the electric signal corresponding to the ultrasonic echo is acquired.
  • the ultrasonic diagnostic apparatus processes the acquired electric signal to generate an ultrasonic image of the site of the subject.
  • an arteriovenous determination At the time of puncture, the surgeon needs to accurately determine whether the blood vessel is an artery or a vein based on an ultrasonic image. Hereinafter, this determination is referred to as an arteriovenous determination.
  • the technique of the present disclosure is intended to provide an information processing device, an information processing method, and a program capable of supporting an arteriovenous determination of a blood vessel.
  • the information processing apparatus of the present disclosure causes an ultrasonic beam to be transmitted from the vibrator array toward the living body, and displays an ultrasonic image generated by receiving the ultrasonic echo generated in the living body on the display device.
  • An information processing device that performs processing to detect a blood vessel aggregate region including a blood vessel aggregate region in which three or more blood vessels are aggregated from within an ultrasonic image, and an ultrasonic image of the blood vessel aggregate region. It is provided with a highlighting unit for highlighting inside.
  • the arteriovenous determination unit makes a determination based on at least one characteristic amount among the blood vessel diameter, the amount of displacement of the blood vessel from the center of the blood vessel aggregate region, and the circularity of the blood vessel.
  • the correction unit compares the certainty of the arteriovenous determination by the single blood vessel detection unit with the certainty of the arteriovenous determination by the arteriovenous determination unit, and selects the judgment result having the higher certainty.
  • the highlighting unit displays each of the blood vessels contained in the blood vessel aggregate region so that the arteries and veins can be distinguished based on the correction result by the correction unit.
  • the highlighting unit displays the degree of certainty for the determination result selected by the correction unit on the display device.
  • the highlighting unit displays a message calling attention on the display device when the certainty of the determination result selected by the correction unit is lower than a certain value.
  • an ultrasonic beam is transmitted from an oscillator array toward an in-vivo body, and an ultrasonic image generated by receiving an ultrasonic echo generated in the living body is displayed on a display device. It is an information processing method that performs processing to detect a vascular aggregate region containing a vascular aggregate in which three or more blood vessels are aggregated from the ultrasonic image, and highlight the detected vascular aggregate region in the ultrasonic image. do.
  • the program of the present disclosure is a process of transmitting an ultrasonic beam from an oscillator array toward an in-vivo body and displaying an ultrasonic image generated by receiving an ultrasonic echo generated in the living body on a display device.
  • an information processing device an information processing method, and a program capable of supporting the arteriovenous determination of a blood vessel.
  • FIG. 1 shows an example of the configuration of the ultrasonic diagnostic apparatus 2 according to the technique of the present disclosure.
  • the ultrasonic diagnostic apparatus 2 according to the present embodiment includes an ultrasonic probe 10 and an apparatus main body 20.
  • the ultrasonic probe 10 is held by the operator and comes into contact with the surface of the living body to be measured.
  • the ultrasonic probe 10 transmits and receives an ultrasonic beam to and from the inside of a living body.
  • the device main body 20 is, for example, a smartphone, a tablet terminal, or the like.
  • the device main body 20 images the signal output from the ultrasonic probe 10 by installing a program such as application software.
  • the ultrasonic probe 10 and the device main body 20 perform wireless communication (that is, wireless communication) with each other by, for example, WiFi or Bluetooth (registered trademark).
  • the device main body 20 is not limited to a mobile terminal such as a smartphone or a tablet terminal, and may be a PC (Personal Computer) or the like.
  • the device main body 20 is an example of an "information processing device" according to the technique of the present disclosure.
  • the ultrasonic probe 10 has a housing 11.
  • the housing 11 is composed of an array accommodating portion 11A and a grip portion 11B.
  • the array accommodating portion 11A accommodates the oscillator array 13 (see FIG. 3).
  • the grip portion 11B is connected to the array accommodating portion 11A and is gripped by the operator.
  • the direction from the grip portion 11B toward the array accommodating portion 11A is the + Y direction
  • the width direction of the ultrasonic probe 10 orthogonal to the Y direction is the X direction
  • the directions orthogonal to the X direction and the Y direction That is, the thickness direction of the ultrasonic probe 10) is the Z direction.
  • An acoustic lens is arranged at the + Y direction end of the array accommodating portion 11A.
  • a so-called acoustic matching layer (not shown) is arranged on the vibrator array 13, and an acoustic lens is arranged on the acoustic matching layer.
  • the plurality of oscillators included in the oscillator array 13 are arranged linearly along the X direction. That is, the ultrasonic probe 10 of the present embodiment is a linear type, and transmits an ultrasonic beam UB linearly.
  • the ultrasonic probe 10 may be a convex type in which the oscillator array 13 is arranged in a convex curved surface. In this case, the ultrasonic probe 10 transmits the ultrasonic beam UB radially. Further, the ultrasonic probe 10 may be a sector type.
  • a linear guide marker M extending along the Y direction is attached to the outer peripheral portion of the array accommodating portion 11A.
  • the guide marker M is used as a guide when the operator brings the ultrasonic probe 10 into contact with the living body.
  • the device main body 20 has a display device 21 for displaying an ultrasonic image based on a signal transmitted from the ultrasonic probe 10.
  • the display device 21 is, for example, a display device such as an organic EL (Organic Electro-Luminescence) display or a liquid crystal display.
  • the display device 21 has a built-in touch panel. The operator can perform various operations on the device main body 20 by using the touch panel.
  • FIG. 2 is a diagram illustrating an example of an echo-guided puncture method.
  • the ultrasonic probe 10 is used when the operator punctures the blood vessel B in the living body 30 with the puncture needle 31 while checking the ultrasonic image displayed on the device main body 20.
  • the living body 30 is, for example, a human arm.
  • the ultrasonic probe 10 is applied to the surface of the living body 30 so that the width direction (that is, the X direction) of the ultrasonic probe 10 crosses the traveling direction of the blood vessel B. This procedure is called the short axis method (or crossing method).
  • the ultrasonic image shows the cross section of the blood vessel B.
  • the surgeon punctures, for example, a vein among one or more blood vessels B displayed on the ultrasonic image.
  • the apparatus main body 20 After detecting the blood vessel from the ultrasonic image, the apparatus main body 20 determines the arteriovenous of the blood vessel, and displays the result of the arteriovenous determination in the ultrasonic image displayed on the display device 21 by the operator. Support puncture.
  • FIG. 3 shows an example of the configuration of the ultrasonic diagnostic apparatus 2.
  • the ultrasonic probe 10 includes an oscillator array 13, a transmission / reception circuit 14, and a communication unit 15.
  • the transmission / reception circuit 14 includes a transmission circuit 16 and a reception circuit 17.
  • the transmission circuit 16 and the reception circuit 17 are each connected to the oscillator array 13. Further, the transmission / reception circuit 14 inputs / outputs / outputs signals to / from the processor 25 of the apparatus main body 20 via the communication unit 15, respectively.
  • the oscillator array 13 has a plurality of oscillators (not shown) arranged one-dimensionally or two-dimensionally. Each of these oscillators transmits an ultrasonic beam UB according to a drive signal supplied from the transmission circuit 16 and receives an ultrasonic echo from the living body 30. The oscillator outputs a signal based on the received ultrasonic echo.
  • the oscillator is configured, for example, by forming electrodes at both ends of the piezoelectric body.
  • Piezoelectric materials include piezoelectric ceramics typified by PZT (Lead Zirconate Titanate), polymer piezoelectric elements typified by PVDF (Poly Vinylidene Di Fluoride), and piezoelectric typified by PMN-PT (Lead Magnetesium Niobate-Lead Titanate). It consists of a single crystal or the like.
  • the transmission circuit 16 includes, for example, a plurality of pulse generators.
  • the transmission circuit 16 adjusts the delay amount of the drive signal based on the transmission delay pattern selected according to the control signal transmitted from the processor 25 of the apparatus main body 20, and a plurality of oscillators included in the oscillator array 13. Supply to.
  • the delay amount of the drive signal is adjusted by the transmission circuit 16 so that the ultrasonic waves transmitted from the plurality of oscillators form the ultrasonic beam UB.
  • the drive signal is a pulsed or continuous wave voltage signal. When a drive signal is applied, the vibrator expands and contracts to transmit pulsed or continuous wave ultrasonic waves. By synthesizing ultrasonic waves transmitted from a plurality of oscillators, an ultrasonic beam UB as a synthesized wave is formed.
  • the ultrasonic beam UB transmitted into the living body 30 is reflected at a site such as a blood vessel B in the living body 30 to become an ultrasonic echo and propagates toward the vibrator array 13.
  • the ultrasonic echo propagating toward the oscillator array 13 in this way is received by a plurality of oscillators constituting the oscillator array 13.
  • the vibrator expands and contracts to generate an electric signal by receiving an ultrasonic echo.
  • the electric signal generated by the vibrator is output to the receiving circuit 17.
  • the receiving circuit 17 generates a sound line signal by processing an electric signal output from the vibrator array 13 according to a control signal transmitted from the processor 25 of the apparatus main body 20.
  • the receiving circuit 17 is configured by connecting an amplification unit 41, an A / D (Analog to Digital) conversion unit 42, and a beam former 43 in series.
  • the amplification unit 41 amplifies the signals input from the plurality of vibrators constituting the vibrator array 13, and transmits the amplified signal to the A / D conversion unit 42.
  • the A / D conversion unit 42 converts the signal transmitted from the amplification unit 41 into digital reception data, and transmits the converted reception data to the beam former 43.
  • Each of the beam formers 43 is converted by the A / D conversion unit 42 according to the sound velocity or the sound velocity distribution set based on the reception delay pattern selected according to the control signal transmitted from the processor 25 of the apparatus main body 20. Each delay is given to the received data and added. This addition process is called a receive focus process.
  • each received data converted by the A / D conversion unit 42 is phase-adjusted and added, and a sound line signal in which the focus of the ultrasonic echo is narrowed down is acquired.
  • the device main body 20 has a display device 21, an input device 22, a communication unit 23, a storage device 24, and a processor 25.
  • the input device 22 is, for example, a touch panel incorporated in the display device 21 or the like.
  • the input device 22 may be a keyboard, a mouse, a trackball, a touch pad, or the like.
  • the communication unit 23 performs wireless communication with the communication unit 15 of the ultrasonic probe 10.
  • the input device 22 and the storage device 24 are connected to the processor 25.
  • the processor 25 and the storage device 24 are connected so that information can be exchanged in both directions.
  • the storage device 24 is a device that stores a program 26 or the like that operates the ultrasonic diagnostic device 2, and is, for example, a flash memory, an HDD (Hard Disc Drive), or an SSD (Solid State Drive).
  • the storage device 24 is an FD (Flexible Disc), MO (Magneto-Optical) disc, magnetic tape, CD (Compact Disc), DVD (Digital Versatile Disc), SD (Secure).
  • a recording medium such as a Digital) card, a USB (Universal Serial Bus) memory, a server, or the like can be used.
  • the processor 25 is, for example, a CPU (Central Processing Unit). Based on the program 26, the processor 25 performs processing in cooperation with a RAM (RandomAccessMemory) memory (not shown) and the like, so that the main control unit 50, the image generation unit 51, the display control unit 52, and the image analysis unit It functions as 53 and the highlighting unit 54.
  • a CPU Central Processing Unit
  • RAM RandomAccessMemory
  • the processor 25 is not limited to the CPU, but uses FPGA (Field Programmable Gate Array), DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), GPU (Graphics Processing Unit), and other ICs (Integrated Circuit). It may be configured by the above, or it may be configured by combining them.
  • FPGA Field Programmable Gate Array
  • DSP Digital Signal Processor
  • ASIC Application Specific Integrated Circuit
  • GPU Graphics Processing Unit
  • ICs Integrated Circuit
  • the main control unit 50 controls each unit of the ultrasonic diagnostic apparatus 2 based on an input operation by the operator via the input device 22.
  • the main control unit 50 transmits the above-mentioned control signal to the ultrasonic probe 10 via the communication unit 23.
  • a sound line signal generated by the receiving circuit 17 from the ultrasonic probe 10 is input to the processor 25 via the communication unit 23.
  • the image generation unit 51 acquires a sound line signal input from the ultrasonic probe 10 under the control of the main control unit 50, and generates an ultrasonic image U based on the acquired sound line signal.
  • the image generation unit 51 is configured by connecting a signal processing unit 61, a DSC (Digital Scan Converter) 62, and an image processing unit 63 in series.
  • DSC Digital Scan Converter
  • the signal processing unit 61 corrects the attenuation of the sound line signal generated by the receiving circuit 17 due to the distance according to the depth of the ultrasonic reflection position, and then performs the envelope detection process to perform the subject. Generates a B-mode image signal, which is tomographic image information about the tissue inside.
  • the DSC 62 converts the B-mode image signal generated by the signal processing unit 61 into an image signal according to a normal television signal scanning method (so-called raster conversion).
  • the image processing unit 63 performs various image processing such as gradation processing on the B mode image signal input from the DSC 62, and then outputs the B mode image signal to the display control unit 52 and the image analysis unit 53.
  • the B-mode image signal that has been image-processed by the image processing unit 63 is simply referred to as an ultrasonic image U.
  • the transmission / reception circuit 14 of the ultrasonic probe 10 and the image generation unit 51 are controlled by the main control unit 50 so that the ultrasonic image U is periodically generated at a constant frame rate.
  • the transmission / reception circuit 14 and the image generation unit 51 function as an image acquisition unit for acquiring the ultrasonic image U.
  • the display control unit 52 Under the control of the main control unit 50, the display control unit 52 performs a predetermined process on the ultrasonic image U generated by the image generation unit 51, and causes the display device 21 to display the processed ultrasonic image U. ..
  • the image analysis unit 53 generates a blood vessel detection information DB by image analysis of the ultrasonic image U input from the image generation unit 51 under the control of the main control unit 50, and emphasizes the generated blood vessel detection information DB. Output to the display unit 54.
  • the blood vessel detection information DB includes, for example, a detection result of a blood vessel region included in the ultrasonic image U and an arteriovenous determination result of the detected blood vessel.
  • the blood vessel region includes a "single blood vessel region" representing a region of a single blood vessel and a "vascular aggregate region” representing a region of a blood vessel aggregate in which three or more blood vessels are aggregated.
  • a vascular aggregate is, for example, a complex of arteries and accompanying veins. Vascular aggregates are primarily located in anatomically stable areas.
  • the highlighting unit 54 controls the display control unit 52 based on the blood vessel detection information DB input from the image analysis unit 53 under the control of the main control unit 50, so that the ultrasonic waves displayed on the display device 21 are displayed.
  • the single blood vessel region and the aggregate blood vessel region are highlighted in the image U. Further, the highlighting unit 54 displays the blood vessel single region so that it can be discriminated whether the blood vessel contained in the blood vessel single region is an artery or a vein based on the arteriovenous determination result.
  • the image analysis unit 53 is composed of a blood vessel single detection unit 71, a blood vessel aggregate detection unit 72, an arteriovenous determination unit 73, and a correction unit 74.
  • the ultrasonic image U generated by the image generation unit 51 is input to the blood vessel unit detection unit 71 and the blood vessel aggregate detection unit 72.
  • the single blood vessel detection unit 71 identifies the single blood vessel region by individually detecting each blood vessel contained in the ultrasonic image U, and determines the arteriovenous of the blood vessel contained in the single blood vessel region.
  • the blood vessel unit detection unit 71 outputs information including the detection result of the blood vessel unit region and the arteriovenous determination result for each blood vessel unit region to the correction unit 74 as the blood vessel unit detection information D1.
  • the blood vessel aggregate detection unit 72 detects a blood vessel aggregate region in which three or more blood vessels are aggregated based on the ultrasonic image U, and uses information representing the detected blood vessel aggregate region as the blood vessel aggregate detection information D2 in the arteries and veins. Output to the determination unit 73.
  • the arteriovenous determination unit 73 performs arteriovenous determination for each of the blood vessels in the blood vessel aggregate region included in the blood vessel aggregate detection information D2, and the information indicating the result of the arteriovenous determination is corrected as the arteriovenous determination information D3. Output to 74.
  • the correction unit 74 corrects the arteriovenous determination result included in the blood vessel unit detection information D1 based on the arteriovenous determination information D3.
  • the correction unit 74 outputs information including the corrected blood vessel unit detection information D1, blood vessel aggregate detection information D2, and arteriovenous determination information D3 to the highlighting unit 54 as the above-mentioned blood vessel detection information DB.
  • FIG. 7 shows an example of blood vessel unit detection processing by the blood vessel unit detection unit 71.
  • the blood vessel unit detection unit 71 performs a process of detecting a blood vessel unit region Rs including a blood vessel unit from the ultrasonic image U and an arteriovenous determination using a known algorithm.
  • reference numerals B1 to B5 represent blood vessels.
  • the single blood vessel region Rs shown by the broken line represents a region including the blood vessel B determined to be an artery.
  • the single blood vessel region Rs shown by the solid line represents a region including the blood vessel B determined to be a vein.
  • a "label” indicating the arteriovenous determination result and a “score” indicating the certainty (that is, certainty) of the arteriovenous determination result are attached to the single blood vessel region Rs.
  • the label indicates whether the blood vessel B contained in the single blood vessel region Rs is an "artery” or a "vein”.
  • the score is a value within the range of 0 or more and 1 or less, and the closer it is to 1, the higher the certainty.
  • the single blood vessel region Rs labeled and scored corresponds to the above-mentioned single blood vessel detection information D1.
  • the blood vessel unit detection unit 71 performs the blood vessel unit detection process using the blood vessel unit detection model 71A (see FIG. 8), which is a learned model generated by machine learning.
  • the single blood vessel detection model 71A is, for example, an algorithm for detecting an object using deep learning.
  • an object detection model composed of R-CNN (Regional CNN), which is a kind of convolutional neural network (CNN), can be used.
  • the single blood vessel detection model 71A detects a region containing a single blood vessel as an object in the ultrasonic image U, and determines a label for the detected region. Then, the blood vessel unit detection model 71A outputs information representing the detected blood vessel unit region Rs together with a label and a score.
  • FIG. 8 is a diagram illustrating an example of a learning phase in which the single blood vessel detection model 71A is learned by machine learning.
  • the blood vessel unit detection model 71A performs learning using the teacher data TD1.
  • the teacher data TD1 includes a plurality of teacher images P with a correct label L.
  • the teacher image P included in the teacher data TD1 is a sample image of a single blood vessel (artery and vein).
  • the teacher data TD1 includes various teacher images P having different shapes, sizes, and the like of blood vessels.
  • the teacher image P is input to the blood vessel unit detection model 71A.
  • the blood vessel unit detection model 71A outputs the determination result A for the teacher image P. Based on this determination result A and the correct label L, a loss operation using a loss function is performed. Then, various coefficients of the blood vessel unit detection model 71A are updated according to the result of the loss calculation, and the blood vessel unit detection model 71A is updated according to the update setting.
  • a series of processes of inputting the teacher image P to the blood vessel unit detection model 71A, outputting the determination result A from the blood vessel unit detection model 71A, loss calculation, update setting, and updating the blood vessel unit detection model 71A are performed. It is repeated. The repetition of this series of processes ends when the detection accuracy reaches a predetermined set level.
  • the blood vessel unit detection model 71A whose detection accuracy has reached the set level is stored in the storage device 24 and then used by the blood vessel unit detection unit 71 in the blood vessel unit detection process, which is the operation phase.
  • FIG. 9 shows an example of the blood vessel aggregate detection process by the blood vessel aggregate detection unit 72.
  • the blood vessel aggregate detection unit 72 performs a process of detecting the blood vessel aggregate region Ra including the blood vessel aggregate from the ultrasonic image U by using a known algorithm.
  • the blood vessel aggregate detection unit 72 performs the blood vessel aggregate detection process using the blood vessel aggregate detection model 72A (see FIG. 10), which is a learned model generated by machine learning.
  • the blood vessel aggregate detection model 72A is, for example, an algorithm for object detection using deep learning.
  • As the blood vessel aggregate detection model 72A for example, an object detection model composed of R-CNN, which is a kind of CNN, can be used.
  • the blood vessel aggregate detection unit 72 detects the blood vessel aggregate region Ra including the blood vessel aggregate as an object from the ultrasonic image U.
  • the information representing the blood vessel aggregate region Ra corresponds to the above-mentioned blood vessel aggregate detection information D2.
  • FIG. 10 is a diagram illustrating an example of a learning phase in which the blood vessel aggregate detection model 72A is learned by machine learning.
  • the blood vessel aggregate detection model 72A performs learning using the teacher data TD2.
  • the teacher data TD2 includes a plurality of teacher images P with the correct label L.
  • the teacher image P included in the teacher data TD2 is a sample image of a blood vessel aggregate.
  • the teacher data TD2 includes various teacher images P different in the number of blood vessels constituting the blood vessel aggregate, the shape of the blood vessels, the size of the blood vessels, the arrangement (positional relationship) of the plurality of blood vessels, and the like.
  • the teacher image P is input to the blood vessel aggregate detection model 72A.
  • the blood vessel aggregate detection model 72A outputs the determination result A for the teacher image P. Based on this determination result A and the correct label L, a loss operation using a loss function is performed. Then, various coefficients of the blood vessel aggregate detection model 72A are updated according to the result of the loss calculation, and the blood vessel aggregate detection model 72A is updated according to the update setting.
  • the blood vessel aggregate detection model 72A whose detection accuracy has reached a set level is stored in the storage device 24 and then used by the blood vessel aggregate detection unit 72 in the blood vessel aggregate detection process, which is an operation phase.
  • FIG. 11 shows an example of the arteriovenous determination process by the arteriovenous determination unit 73.
  • the arteriovenous determination unit 73 performs arteriovenous determination for each of the blood vessels B contained in the blood vessel aggregate region Ra based on the blood vessel aggregate detection information D2, and obtains a label and a score for each blood vessel B to determine the arteriovenous vein. Generate information D3.
  • the arteriovenous determination unit 73 uses the feature amount of the anatomical blood vessel in the blood vessel aggregate region Ra in the arteriovenous determination.
  • the arteriovenous determination unit 73 obtains a score for each of "artery" and "vein" as labels for blood vessel B, and selects the label having the larger score.
  • FIG. 12 is a diagram illustrating an example of the arteriovenous determination process in more detail.
  • the arteriovenous determination unit 73 calculates a feature amount for each of the blood vessels B contained in the blood vessel aggregate region Ra.
  • the feature amounts include the diameter (hereinafter referred to as blood vessel diameter) D of each blood vessel B in the blood vessel aggregate region Ra, the displacement amount K of the blood vessel B from the center C of the blood vessel aggregate region Ra, the circularity of each blood vessel B, and the like.
  • the displacement amount K is, for example, the distance from the center C of the blood vessel aggregate region Ra to the center of each blood vessel B.
  • the arteriovenous determination unit 73 determines whether each of the blood vessels B is an artery or a vein by using at least one feature amount of the blood vessel diameter D, the displacement amount K, and the circularity.
  • the arteriovenous determination unit 73 performs arteriovenous determination using, for example, an algorithm by machine learning such as AdaBoost and SVM (Support Vector Machine).
  • the arteriovenous determination unit 73 makes an arteriovenous determination for each of the blood vessels B based on these feature quantities, calculates a score, and determines a label. For example, the arteriovenous determination unit 73 calculates a score as an artery and a score as a vein for each of the blood vessels B, and selects the label having the larger score. In this way, by performing the determination using the anatomical features as the blood vessel aggregate, the arteriovenous determination can be performed with high accuracy.
  • FIG. 13 shows an example of the correction process by the correction unit 74.
  • the correction unit 74 compares the score included in the arteriovenous determination information D3 with the score included in the blood vessel unit detection information D1 for the corresponding blood vessel B, and selects the label having the higher score. For example, in the example shown in FIG. 13, for the blood vessel B3, the score (0.90) included in the arteriovenous determination information D3 is higher than the score (0.75) included in the blood vessel unit detection information D1. Therefore, the correction unit 74 selects the label (artery) included in the arteriovenous determination information D3 instead of the label (vein) included in the blood vessel unit detection information D1 as the label of the blood vessel B3.
  • the correction unit 74 selects the label having the higher score for the blood vessels B4 and B5. That is, in the example shown in FIG. 13, only the label of the blood vessel B3 is corrected among the labels of the blood vessels B1 to B5 included in the blood vessel unit detection information D1. In this way, the label included in the blood vessel unit detection information D1 is corrected.
  • the correction unit 74 displays the information including the corrected blood vessel unit detection information D1 with the modified label, the blood vessel aggregate detection information D2, and the arteriovenous determination information D3 on the highlighting unit 54 as the above-mentioned blood vessel detection information DB.
  • the blood vessel detection information DB includes position information of the blood vessel single region Rs and the blood vessel aggregate region Ra in the ultrasonic image U, and labels and scores for the blood vessel single region Rs.
  • FIG. 14 shows an example of highlighting processing by the highlighting unit 54.
  • the highlighting unit 54 uses a rectangular frame to display the blood vessel single region Rs and the blood vessel aggregate region Ra in the ultrasonic image U displayed on the display device 21 of the device main body 20 based on the blood vessel detection information DB. indicate. Further, the highlighting unit 54 displays the blood vessel single region Rs so that it can be discriminated whether the blood vessel contained in the blood vessel single region Rs is an artery or a vein, based on the arteriovenous determination result.
  • the single blood vessel region Rs containing a vein is shown by a solid line
  • the single blood vessel region Rs containing an artery is shown by a broken line.
  • the blood vessel aggregate region Ra is shown by a two-dot chain line.
  • the highlighting unit 54 may display the blood vessel single region Rs and the blood vessel aggregate region Ra not only by the line type but also by the line thickness, the line color, the line brightness, and the like so as to be distinguishable.
  • the main control unit 50 determines whether or not the start operation has been performed by the operator using the input device 22 or the like (step S10).
  • step S10 determines that the start operation has been performed
  • step S11 the main control unit 50 generates an ultrasonic image U by operating the transmission / reception circuit 14 of the ultrasonic probe 10 and the image generation unit 51.
  • Step S11 The generated ultrasonic image U is displayed on the display device 21 by the display control unit 52.
  • the ultrasonic beam UB is transmitted from the vibrator array 13 into the living body 30 according to the drive signal input from the transmission circuit 16.
  • the ultrasonic echo from the living body 30 is received by the vibrator array 13, and the received signal is output to the receiving circuit 17.
  • the received signal received by the receiving circuit 17 becomes a sound line signal via the amplification unit 41, the A / D conversion unit 42, and the beam former 43. This sound line signal is output to the device main body 20 via the communication unit 15.
  • the device main body 20 receives the sound line signal output from the ultrasonic probe 10 via the communication unit 23.
  • the sound line signal received by the apparatus main body 20 is input to the image generation unit 51.
  • the sound line signal becomes a B-mode image signal by being subjected to envelope detection processing in the signal processing unit 61 in the image generation unit 51, and after passing through the DSC 62 and the image processing unit 63, is displayed as an ultrasonic image U in the display control unit. It is output to 52. Further, the ultrasonic image U is output to the image analysis unit 53.
  • the blood vessel unit detection process (see FIG. 7) described above is performed by the blood vessel unit detection unit 71 (step S12).
  • the blood vessel unit detection information D1 generated by this blood vessel unit detection process is output to the correction unit 74.
  • steps S13 and S14 are performed in parallel with step S12.
  • the blood vessel aggregate detection unit 72 performs the above-mentioned blood vessel aggregate detection process (see FIG. 9).
  • the blood vessel aggregate detection information D2 generated by this blood vessel aggregate detection process is output to the arteriovenous determination unit 73.
  • the arteriovenous determination unit 73 performs the above-mentioned arteriovenous determination process (see FIGS. 11 and 12).
  • the arteriovenous determination information D3 generated by this arteriovenous determination process is output to the correction unit 74.
  • the correction unit 74 performs the above-mentioned correction process (see FIG. 13) (step S15).
  • this correction process the label for the blood vessel single region Rs included in the blood vessel single detection information D1 is corrected based on the arteriovenous determination information D3.
  • the blood vessel detection information DB is output to the highlighting unit 54.
  • the highlighting unit 54 performs the above-mentioned highlighting process (see FIG. 14) (step S16).
  • the blood vessel single region Rs and the blood vessel aggregate region Ra are highlighted in the ultrasonic image U displayed on the display device 21. Further, the single blood vessel region Rs is displayed so as to be distinguishable whether the blood vessel contained therein is an artery or a vein.
  • the surgeon can accurately grasp the blood vessel aggregate existing in the ultrasonic image U, and can determine whether the blood vessel alone is an artery or a vein. It can be grasped accurately.
  • the main control unit 50 determines whether or not the termination operation has been performed by the operator using the input device 22 or the like (step S17). If the main control unit 50 determines that the end operation has not been performed (step S17: NO), the process returns to step S11. As a result, a new ultrasonic image U is generated. On the other hand, when it is determined that the termination operation has been performed (step S17: YES), the main control unit 50 terminates the operation of the ultrasonic diagnostic apparatus 2.
  • a blood vessel is detected by a single blood vessel detection process, and the arteriovenous determination is individually performed for the detected blood vessel.
  • an error often occurs in the arteriovenous determination of the blood vessels constituting the blood vessel aggregate, and the arteriovenous determination may change for each frame.
  • the operator tried to puncture based on the result of such arteriovenous determination the blood vessel to be punctured may be mistaken.
  • the blood vessel aggregate region Ra is detected from the ultrasonic image U, and the detected blood vessel aggregate region Ra is highlighted in the ultrasonic image U, so that the blood vessel by the operator Can support the arteriovenous determination of. Further, according to the technique of the present disclosure, since the arteriovenous determination is performed based on the feature amount of the blood vessel in the blood vessel aggregate region Ra, the arteriovenous determination can be performed accurately even for the blood vessels constituting the blood vessel aggregate. Can be done. This allows the operator to accurately grasp the blood vessel (for example, a vein) to be punctured.
  • the arteriovenous determination unit 73 obtains a score for each of "artery" and "vein” as labels for blood vessel B in the arteriovenous determination process (see FIGS. 11 and 12), and the score is obtained. The larger label is selected.
  • a threshold value for the score may be set, and a label having a score equal to or higher than the threshold value may be selected.
  • the arteriovenous determination unit 73 may stop the arteriovenous determination because it is difficult to determine the label (that is, the arteriovenous determination).
  • the highlighting unit 54 displays the single blood vessel region Rs in the ultrasonic image U without distinguishing between "artery” and "vein”. It may be displayed. In this case, the highlighting unit 54 may simply display the single blood vessel region Rs as a “blood vessel”, as shown in FIG. 18, for example.
  • the highlighting unit 54 displays the score for the label selected by the correction unit 74 (that is, the certainty of the determination result selected by the correction unit 74) in association with the blood vessel single region Rs. You may. This allows the operator to grasp the certainty of the arteriovenous determination for each blood vessel.
  • the highlighting unit 54 operates when the score for the label selected by the correction unit 74 (that is, the certainty of the determination result selected by the correction unit 74) is lower than a certain value.
  • a message may be displayed to call attention to the person.
  • the arteriovenous determination unit 73 may change the criteria for arteriovenous determination for each blood vessel aggregate region Ra. This is because, for example, when the pattern of the blood vessel aggregate in the blood vessel aggregate region Ra is an anatomically typical pattern, the judgment result is likely to be correct even if the arteriovenous judgment score is low. Is.
  • the pattern of the blood vessel aggregate is information represented by the relative positions of a plurality of blood vessels in the blood vessel aggregate, the number of blood vessels, the size of each blood vessel, and the like.
  • the arteriovenous determination unit 73 performs, for example, the threshold value setting process shown in FIG. 21 before performing the arteriovenous determination for the blood vessel aggregate region Ra.
  • the arteriovenous determination unit 73 analyzes the pattern of the blood vessel aggregate in the blood vessel aggregate region Ra (step S20), and determines whether or not the blood vessel aggregate is a typical pattern (step S21).
  • the arteriovenous determination unit 73 sets the threshold value for the arteriovenous determination to the “first threshold value” (step S22).
  • the arteriovenous determination unit 73 determines that the blood vessel aggregate is not a typical pattern (step S21: NO)
  • the arteriovenous determination unit 73 sets the threshold value for the arteriovenous determination to the “second threshold value” (step S23).
  • the first threshold value is a value smaller than the second threshold value.
  • the threshold value which is the standard of the arteriovenous determination is set low.
  • the threshold value which is the standard for determining the arteries and veins is set high.
  • the criterion for the arteriovenous determination is set high, so that a more reliable determination can be made.
  • the criteria for the arteriovenous determination may be changed by changing the algorithm for the arteriovenous determination, not limited to the threshold value for the score.
  • the highlighting unit 54 may hide the blood vessel aggregate region Ra after the arteriovenous determination unit 73 makes an arteriovenous determination.
  • the blood vessel unit detection unit 71 and the blood vessel aggregate detection unit 72 are each configured by an individual object detection model, but the blood vessel unit detection unit 71 and the blood vessel aggregate detection unit 72 are 1 It can also be configured with one object detection model.
  • the object detection model may be trained using the teacher data including the teacher image of the blood vessel alone and the teacher image of the blood vessel aggregate. It is also possible to configure the blood vessel single detection unit 71, the blood vessel aggregate detection unit 72, and the arteriovenous determination unit 73 with one object detection model. Further, it is also possible to configure the blood vessel single detection unit 71, the blood vessel aggregate detection unit 72, the arteriovenous determination unit 73, and the correction unit 74 by one object detection model.
  • the blood vessel single detection unit 71 and the blood vessel aggregate detection unit 72 are configured by an object detection model composed of CNN, but the object detection model is not limited to CNN, and is segmentation or other. It may be a general detection model of.
  • the object detection model constituting the blood vessel single detection unit 71 and the blood vessel aggregate detection unit 72 may be composed of a classifier that identifies an object based on an image feature amount such as AdaBoost or SVM.
  • AdaBoost image feature amount
  • SVM image feature amount
  • the discriminator may be trained based on the feature quantity vector.
  • the feature amount of the blood vessel aggregate the distance between the blood vessels (distance between the centers of the blood vessels, the distance between the outer peripheral portions of the blood vessels, etc.) can be used. The discriminator recognizes that the blood vessels are aggregates when the distance between the blood vessels is a certain value or less and the number of blood vessels is 3 or more.
  • the blood vessel unit detection unit 71 and the blood vessel aggregate detection unit 72 are not limited to the object detection model by machine learning, and may perform object detection by template matching.
  • the blood vessel unit detection unit 71 stores typical pattern data of the blood vessel unit as a template in advance, and calculates the similarity to the pattern data while searching the ultrasonic image U with the template. Then, the blood vessel unit detection unit 71 identifies a place where the similarity is above a certain level and is maximum as the blood vessel unit region Rs.
  • the blood vessel aggregate detection unit 72 stores typical pattern data of the blood vessel aggregate as a template in advance, and calculates the similarity with respect to the pattern data while searching the ultrasonic image U with the template.
  • the blood vessel aggregate detection unit 72 specifies a place where the similarity is above a certain level and is maximum as the blood vessel aggregate region Ra.
  • the template may be a part of an actual ultrasonic image, or may be an image drawn by modeling a blood vessel or a blood vessel aggregate.
  • the ultrasonic probe 10 and the device main body 20 are connected by wireless communication, but instead, the ultrasonic probe 10 and the device main body 20 may be connected by wire.
  • the device main body 20 is provided with an image generation unit 51 that generates an ultrasonic image U based on a sound line signal, but instead of this, the image generation unit 51 uses an ultrasonic probe. It may be provided in 10.
  • the ultrasonic probe 10 generates an ultrasonic image U and outputs it to the apparatus main body 20.
  • the processor 25 of the apparatus main body 20 performs image analysis and the like based on the ultrasonic image U input from the ultrasonic probe 10.
  • the display device 21, the input device 22, and the ultrasonic probe 10 are directly connected to the processor 25, but the display device 21, the input device 22, the ultrasonic probe 10, and the processor 25 are connected. However, they may be indirectly connected via a network.
  • a display device 21, an input device 22, and an ultrasonic probe 10A are connected to the apparatus main body 20A via a network NW.
  • the device main body 20A is obtained by removing the display device 21 and the input device 22 from the device main body 20 according to the first embodiment and adding a transmission / reception circuit 14, and is composed of a transmission / reception circuit 14, a storage device 24, and a processor 25. ing.
  • the ultrasonic probe 10A is obtained by removing the transmission / reception circuit 14 from the ultrasonic probe 10 according to the first embodiment.
  • the apparatus main body 20A is used as a so-called remote server. be able to.
  • the operator can prepare the display device 21, the input device 22, and the ultrasonic probe 10A at the operator's hand, and the convenience is improved.
  • the display device 21 and the input device 22 with a mobile terminal such as a smartphone or a tablet terminal, the convenience is further improved.
  • the display device 21 and the input device 22 are mounted on the apparatus main body 20B, and the ultrasonic probe 10A is connected to the apparatus main body 20B via the network NW. ..
  • the device main body 20B may be configured by a remote server.
  • the device main body 20B can be configured by a mobile terminal such as a smartphone or a tablet terminal.
  • a hardware-like processing unit that executes various processes such as a main control unit 50, an image generation unit 51, a display control unit 52, an image analysis unit 53, and a highlighting unit 54.
  • various processors processors shown below can be used.
  • various processors include a CPU, which is a general-purpose processor that executes software (program 26) and functions as various processing units, and a processor whose circuit configuration can be changed after manufacturing an FPGA or the like.
  • Programmable Logic Device PLD
  • a dedicated electric circuit which is a processor having a circuit configuration specially designed for executing a specific process such as an ASIC, and the like are included.
  • One processing unit may be composed of one of these various processors, or may be a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs and / or a CPU). It may be configured in combination with FPGA). Further, a plurality of processing units may be configured by one processor.
  • one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a client and a server.
  • the processor functions as a plurality of processing units.
  • SoC System On Chip
  • the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.
  • an electric circuit in which circuit elements such as semiconductor elements are combined can be used.
  • Appendix 3 The processor The determination is made based on the characteristic amount of at least one of the blood vessel diameter, the displacement amount of the blood vessel from the center of the blood vessel aggregate region, and the circularity of the blood vessel.
  • the information processing apparatus according to Appendix 2.
  • Appendix 4 The processor The item 2 or 3 is described in Appendix 2 or 3, wherein a single blood vessel region including a single blood vessel is detected in the ultrasonic image, and whether the detected blood vessel contained in the single blood vessel region is an artery or a vein. Information processing device.
  • [Appendix 5] The processor The information processing apparatus according to Appendix 4, wherein the result of the arteriovenous determination for a blood vessel in the single blood vessel region is modified based on the result of the arteriovenous determination for each blood vessel in the blood vessel aggregate region.
  • [Appendix 7] The processor The information processing apparatus according to Appendix 6, which displays each of the blood vessels contained in the blood vessel aggregate region so as to be distinguishable between an artery and a vein based on the modification result.
  • a and / or B is synonymous with “at least one of A and B”. That is, “A and / or B” means that it may be only A, it may be only B, or it may be a combination of A and B.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Vascular Medicine (AREA)
  • Physiology (AREA)
  • Quality & Reliability (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

血管の動静脈判定を支援することを可能とする情報処理装置、情報処理方法、及びプログラムを提供する。情報処理装置は、振動子アレイ(13)から生体(30)内に向けて超音波ビーム(UB)の送信を行わせ、生体(30)内で生じた超音波エコーを受信することにより生成された超音波画像(U)を表示装置(21)に表示させる処理を行う情報処理装置であって、超音波画像(U)内から3以上の血管(B)が集合した血管集合体を含む血管集合体領域(Ra)を検出する血管集合体検出部(72)と、血管集合体領域(Ra)を超音波画像(U)内に強調表示する強調表示部(54)と、を備える。

Description

情報処理装置、情報処理方法、及びプログラム
 本開示の技術は、情報処理装置、情報処理方法、及びプログラムに関する。
 従来から、被検体の内部の画像を得るものとして、超音波診断装置が知られている。超音波診断装置は、一般的に、複数の超音波振動子が配列された振動子アレイが設けられた超音波プローブを有する。この超音波プローブは、被検体の体表面に接触させた状態において、振動子アレイから被検体内に向けて超音波ビームを送信し、被検体からの超音波エコーを振動子アレイで受信する。これにより、超音波エコーに対応する電気信号が取得される。さらに、超音波診断装置は、取得された電気信号を処理することにより、被検体の当該部位に対する超音波画像を生成する。
 ところで、超音波診断装置を用いて被検体内を観察しながら、いわゆる穿刺針を被検体の血管に挿入する手技(いわゆるエコーガイド下穿刺法)が知られている。エコーガイド下穿刺法では、通常、術者は、超音波画像を確認することにより、超音波画像中に含まれる血管の位置及び形状等を把握する必要があるが、これらを正確に把握するためには、一定以上の熟練度を要する。そのため、超音波画像に含まれる血管を自動的に検出し、検出された血管を術者に提示することが提案されている(例えば、特許文献1参照)。
特表2017-524455号公報
 穿刺時には、術者は、超音波画像に基づいて血管が動脈と静脈とのいずれであるかを正確に判定する必要がある。以下、この判定を動静脈判定という。
 超音波画像に基づき、画像解析等の情報処理により血管の動静脈判定を行うことも考えられる。しかし、血管を個別に動静脈判定すると、動脈と静脈との形状等が類似している場合には、判定を誤りやすい。
 本開示の技術は、血管の動静脈判定を支援することを可能とする情報処理装置、情報処理方法、及びプログラムを提供することを目的とする。
 本開示の情報処理装置は、振動子アレイから生体内に向けて超音波ビームの送信を行わせ、生体内で生じた超音波エコーを受信することにより生成された超音波画像を表示装置に表示させる処理を行う情報処理装置であって、超音波画像内から3以上の血管が集合した血管集合体を含む血管集合体領域を検出する血管集合体検出部と、血管集合体領域を超音波画像内に強調表示する強調表示部と、を備える。
 血管集合体領域に含まれる血管の各々について、動脈と静脈とのいずれであるかを、血管集合体領域内における各血管の特徴量に基づいて判定する動静脈判定部をさらに備えることが好ましい。
 動静脈判定部は、血管径、血管集合体領域の中心からの血管の変位量、及び血管の円形度のうち、少なくとも1以上の特徴量に基づいて判定を行うことが好ましい。
 超音波画像内から血管単体を含む血管単体領域を検出し、検出した血管単体領域に含まれる血管が動脈と静脈とのいずれであるかを判定する血管単体検出部をさらに備えることが好ましい。
 血管単体検出部が判定した動静脈判定の結果を、動静脈判定部による動静脈判定の結果に基づいて修正する修正部をさらに備えることが好ましい。
 修正部は、血管単体検出部による動静脈判定の確信度と、動静脈判定部による動静脈判定の確信度とを比較し、確信度が高い方の判定結果を選択することが好ましい。
 強調表示部は、修正部による修正結果に基づき、血管集合体領域に含まれる血管の各々を、動脈と静脈とを識別可能に表示することが好ましい。
 強調表示部は、修正部が選択した判定結果に対する確信度を、表示装置に表示することが好ましい。
 強調表示部は、修正部が選択した判定結果に対する確信度が一定値より低い場合に、注意を促すメッセージを表示装置に表示することが好ましい。
 本開示の情報処理方法は、振動子アレイから生体内に向けて超音波ビームの送信を行わせ、生体内で生じた超音波エコーを受信することにより生成された超音波画像を表示装置に表示させる処理を行う情報処理方法であって、超音波画像内から3以上の血管が集合した血管集合体を含む血管集合体領域を検出し、検出した血管集合体領域を超音波画像内に強調表示する。
 本開示のプログラムは、振動子アレイから生体内に向けて超音波ビームの送信を行わせ、生体内で生じた超音波エコーを受信することにより生成された超音波画像を表示装置に表示させる処理をコンピュータに実行させるプログラムであって、超音波画像内から3以上の血管が集合した血管集合体を含む血管集合体領域を検出し、検出した血管集合体領域を超音波画像内に強調表示する処理をコンピュータに実行させる。
 本開示の技術によれば、血管の動静脈判定を支援することを可能とする情報処理装置、情報処理方法、及びプログラムを提供することができる。
第1実施形態に係る超音波診断装置の構成の一例を示す外観図である。 エコーガイド下穿刺法の一例について説明する図である。 超音波診断装置の構成の一例を示すブロック図である。 受信回路の構成の一例を示すブロック図である。 画像生成部の構成の一例を示すブロック図である。 画像解析部の構成の一例を示すブロック図である。 血管単体検出処理の一例を説明する図である。 血管単体検出モデルを学習させる学習フェーズの一例を説明する図である。 血管集合体検出処理の一例を説明する図である。 血管集合体検出モデルを学習させる学習フェーズの一例を説明する図である。 動静脈判定処理の一例を説明する図である。 動静脈判定処理の一例をより詳細に説明する図である。 修正処理の一例を説明する図である。 強調表示処理の一例を示す図である。 超音波診断装置の動作の一例を示すフローチャートである。 動静脈判定処理の変形例を示す図である。 動静脈判定処理の変形例を示す図である。 強調表示の変形例を示す図である。 スコアを表示する例を示す図である。 術者に注意を促すメッセージを表示する例を示す図である。 閾値設定処理の一例を示すフローチャートである。 閾値設定処理により設定される閾値の例を示す図である。 血管集合体領域を非表示とする例を示す図である。 超音波診断装置の第1変形例を示す図である。 超音波診断装置の第2変形例を示す図である。
以下、本開示の技術に係る実施の形態を添付図面に基づいて説明する。以下に記載する構成要件の説明は、本発明の代表的な実施態様に基づいてなされるが、本開示の技術はそのような実施態様に限定されるものではない。
 [第1実施形態]
 図1は、本開示の技術に係る超音波診断装置2の構成の一例を示す。本実施形態に係る超音波診断装置2は、超音波プローブ10と、装置本体20とにより構成されている。超音波プローブ10は、術者が保持し、測定対象である生体の表面に接触される。超音波プローブ10は、生体の内部に対して超音波ビームを送受信する。
 装置本体20は、例えば、スマートフォン、又はタブレット端末等である。装置本体20は、アプリケーションソフト等のプログラムがインストールされることにより、超音波プローブ10から出力される信号の画像化等を行う。超音波プローブ10と装置本体20は、例えば、WiFi又はBluetooth(登録商標)等により相互に無線通信(すなわちワイヤレス通信)を行う。装置本体20は、スマートフォン、又はタブレット端末等の携帯端末に限られず、PC(Personal Computer)等であってもよい。装置本体20は、本開示の技術に係る「情報処理装置」の一例である。
 超音波プローブ10は、ハウジング11を有する。ハウジング11は、アレイ収容部11Aと、グリップ部11Bとで構成されている。アレイ収容部11Aは、振動子アレイ13(図3参照)を収容する。グリップ部11Bは、アレイ収容部11Aに連結されており、術者により把持される。ここで、説明のため、グリップ部11Bからアレイ収容部11Aに向かう方向を+Y方向とし、Y方向に直交する超音波プローブ10の幅方向をX方向とし、X方向及びY方向に直交する方向(すなわち超音波プローブ10の厚さ方向)をZ方向とする。
 アレイ収容部11Aの+Y方向端部に、音響レンズが配置されている。振動子アレイ13上にいわゆる音響整合層(図示せず)が配置されており、音響整合層上に音響レンズが配置されている。振動子アレイ13に含まれる複数の振動子は、X方向に沿って直線状に配列されている。すなわち、本実施形態の超音波プローブ10は、リニア型であり、直線状に超音波ビームUBを送信する。なお、超音波プローブ10は、振動子アレイ13が凸曲面状に配置されたコンベックス型であってもよい。この場合、超音波プローブ10は、放射状に超音波ビームUBを送信する。また、超音波プローブ10は、セクタ型であってもよい。
 また、アレイ収容部11Aの外周部には、Y方向に沿って延びた直線状のガイドマーカMが付されている。ガイドマーカMは、操作者が超音波プローブ10を生体に接触させる際に目安として使用される。
 装置本体20は、超音波プローブ10から送信された信号に基づく超音波画像を表示するための表示装置21を有する。表示装置21は、例えば、有機EL(Organic Electro-Luminescence)ディスプレイ又は液晶ディスプレイ等のディスプレイ装置である。表示装置21には、タッチパネルが組み込まれている。術者は、タッチパネルにより、装置本体20に対して各種の操作を行うことができる。
 図2は、エコーガイド下穿刺法の一例について説明する図である。図2に示すように、超音波プローブ10は、術者が装置本体20に表示される超音波画像を確認しながら、生体30内の血管Bへ穿刺針31を穿刺する際に用いられる。生体30は、例えば、人の腕である。超音波プローブ10では、例えば、超音波プローブ10の幅方向(すなわちX方向)が血管Bの走行方向を横切るように、超音波プローブ10が生体30の表面に当てられる。この手技は、短軸法(又は交差法)と呼ばれる。超音波画像には、血管Bの断面が表示される。術者は、超音波画像に表示される1以上の血管Bのうち、例えば、静脈に対して穿刺を行う。
 装置本体20は、超音波画像から血管を検出した後、血管の動静脈判定を行い、動静脈判定の結果を、表示装置21に表示される超音波画像内に表示することにより、術者による穿刺を支援する。
 図3は、超音波診断装置2の構成の一例を示す。超音波プローブ10は、振動子アレイ13、送受信回路14、及び通信部15を有する。送受信回路14は、送信回路16及び受信回路17を含む。送信回路16及び受信回路17は、それぞれ振動子アレイ13に接続されている。また、送受信回路14は、それぞれ通信部15を介して装置本体20のプロセッサ25との間で信号の入出力を行う。
 振動子アレイ13は、1次元又は2次元に配列された複数の振動子(図示せず)を有している。これらの振動子は、それぞれ送信回路16から供給される駆動信号に従って超音波ビームUBを送信し、かつ、生体30からの超音波エコーを受信する。振動子は、受信した超音波エコーに基づく信号を出力する。振動子は、例えば、圧電体の両端に電極を形成することにより構成される。圧電体は、PZT(Lead Zirconate Titanate)に代表される圧電セラミック、PVDF(Poly Vinylidene Di Fluoride)に代表される高分子圧電素子、及びPMN-PT(Lead Magnesium Niobate-Lead Titanate)に代表される圧電単結晶等からなる。
 送信回路16は、例えば、複数のパルス発生器を含んでいる。送信回路16は、装置本体20のプロセッサ25から送信される制御信号に応じて選択された送信遅延パターンに基づいて、駆動信号の遅延量を調整して振動子アレイ13に含まれる複数の振動子に供給する。駆動信号は、送信回路16により、複数の振動子から送信される超音波が超音波ビームUBを形成するように遅延量が調整される。駆動信号は、パルス状又は連続波状の電圧信号である。振動子は、駆動信号が印加されると、伸縮することによりパルス状又は連続波状の超音波を送信する。複数の振動子から送信された超音波が合成されることにより、合成波としての超音波ビームUBが形成される。
 生体30内に送信された超音波ビームUBは、生体30内の血管B等の部位で反射されることにより、超音波エコーとなって振動子アレイ13に向かって伝搬する。このように振動子アレイ13に向かって伝搬する超音波エコーは、振動子アレイ13を構成する複数の振動子により受信される。振動子は、超音波エコーを受信することにより伸縮して電気信号を発生する。振動子が発生した電気信号は、受信回路17に出力される。
 受信回路17は、装置本体20のプロセッサ25から送信される制御信号に従い、振動子アレイ13から出力される電気信号を処理することにより、音線信号を生成する。一例として図4に示すように、受信回路17は、増幅部41、A/D(Analog to Digital)変換部42、及びビームフォーマ43を直列に接続することにより構成されている。
 増幅部41は、振動子アレイ13を構成する複数の振動子から入力された信号を増幅し、増幅した信号をA/D変換部42に送信する。A/D変換部42は、増幅部41から送信された信号をデジタルの受信データに変換し、変換した受信データをビームフォーマ43に送信する。ビームフォーマ43は、装置本体20のプロセッサ25から送信される制御信号に応じて選択された受信遅延パターンに基づいて設定される音速又は音速の分布に従い、A/D変換部42により変換された各受信データに対してそれぞれの遅延を与えて加算する。この加算処理は、受信フォーカス処理と称される。この受信フォーカス処理により、A/D変換部42で変換された各受信データが整相加算され、かつ超音波エコーの焦点が絞り込まれた音線信号が取得される。
 装置本体20は、表示装置21、入力装置22、通信部23、記憶装置24、及びプロセッサ25を有する。入力装置22は、例えば、表示装置21に組み込まれたタッチパネル等である。装置本体20がPC等である場合には、入力装置22は、キーボード、マウス、トラックボール、タッチパッド等であってもよい。通信部23は、超音波プローブ10の通信部15との間で無線通信を行う。
 プロセッサ25には、入力装置22と記憶装置24が接続されている。なお、プロセッサ25と記憶装置24とは、互いに双方向の情報の受け渡しが可能に接続されている。
 記憶装置24は、超音波診断装置2を作動させるプログラム26等を格納する装置であり、例えば、フラッシュメモリ、HDD(Hard Disc Drive)、又はSSD(Solid State Drive)である。装置本体20がPC等である場合には、記憶装置24として、FD(Flexible Disc)、MO(Magneto-Optical)ディスク、磁気テープ、CD(Compact Disc)、DVD(Digital Versatile Disc)、SD(Secure Digital)カード、USB(Universal Serial Bus)メモリ等の記録メディア、又はサーバ等を用いることができる。
 プロセッサ25は、例えば、CPU(Central Processing Unit)である。プロセッサ25は、プログラム26に基づき、RAM(Random Access Memory)メモリ(図示省略)等と協働して処理を行うことにより、主制御部50、画像生成部51、表示制御部52、画像解析部53、及び強調表示部54として機能する。
 なお、プロセッサ25は、CPUに限られず、FPGA(Field Programmable Gate Array)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、GPU(Graphics Processing Unit)、その他のIC(Integrated Circuit)を用いて構成されてもよく、もしくはそれらを組み合わせて構成されてもよい。
 主制御部50は、入力装置22を介した術者による入力操作に基づいて、超音波診断装置2の各部の制御を行う。主制御部50は、上述の制御信号を、通信部23を介して超音波プローブ10に送信する。プロセッサ25には、通信部23を介して、超音波プローブ10から受信回路17により生成された音線信号が入力される。
 画像生成部51は、主制御部50の制御の下で、超音波プローブ10から入力される音線信号を取得し、取得した音線信号に基づき、超音波画像Uを生成する。一例として図5に示すように、画像生成部51は、信号処理部61、DSC(Digital Scan Converter)62、及び画像処理部63を直列に接続することにより構成されている。
 信号処理部61は、受信回路17により生成された音線信号に対し、超音波の反射位置の深度に応じて距離による減衰の補正を施した後、包絡線検波処理を施すことにより、被検体内の組織に関する断層画像情報であるBモード画像信号を生成する。
 DSC62は、信号処理部61で生成されたBモード画像信号を通常のテレビジョン信号の走査方式に従う画像信号に変換(いわゆるラスター変換)する。画像処理部63は、DSC62から入力されるBモード画像信号に階調処理等の各種の画像処理を施した後、Bモード画像信号を表示制御部52及び画像解析部53に出力する。以下では、画像処理部63により画像処理が施されたBモード画像信号を、単に、超音波画像Uと呼ぶ。
 なお、超音波プローブ10の送受信回路14と画像生成部51とは、超音波画像Uが一定のフレームレートで周期的に生成されるように、主制御部50によって制御される。送受信回路14及び画像生成部51は、超音波画像Uを取得する画像取得部として機能する。
 表示制御部52は、主制御部50の制御の下で、画像生成部51により生成された超音波画像Uに所定の処理を施し、処理を施した超音波画像Uを表示装置21に表示させる。
 画像解析部53は、主制御部50の制御の下で、画像生成部51から入力された超音波画像Uを画像解析することにより血管検出情報DBを生成し、生成した血管検出情報DBを強調表示部54に出力する。血管検出情報DBには、例えば、超音波画像Uに含まれる血管領域の検出結果と、検出した血管の動静脈判定結果とが含まれる。また、血管領域には、血管単体の領域を表す「血管単体領域」と、3以上の血管が集合した血管集合体の領域を表す「血管集合体領域」とが含まれる。血管集合体は、例えば、動脈と伴行静脈との複合体である。血管集合体は、主として、解剖学的に安定した部分に存在する。
 強調表示部54は、主制御部50の制御の下で、画像解析部53から入力された血管検出情報DBに基づき、表示制御部52を制御することにより、表示装置21に表示された超音波画像U内に、血管単体領域及び血管集合体領域を強調表示させる。また、強調表示部54は、動静脈判定結果に基づき、血管単体領域を、血管単体領域内に含まれる血管が動脈であるか静脈であるかを識別可能に表示させる。
 一例として図6に示すように、画像解析部53は、血管単体検出部71、血管集合体検出部72、動静脈判定部73、及び修正部74により構成されている。血管単体検出部71及び血管集合体検出部72には、画像生成部51により生成された超音波画像Uが入力される。
 血管単体検出部71は、超音波画像Uに含まれる血管を各々個別に検出することにより血管単体領域を特定し、かつ、血管単体領域に含まれる血管の動静脈判定を行う。血管単体検出部71は、血管単体領域の検出結果と、血管単体領域とごとの動静脈判定結果とを含む情報を、血管単体検出情報D1として修正部74に出力する。
 血管集合体検出部72は、超音波画像Uに基づき、3以上の血管が集合した血管集合体領域を検出し、検出した血管集合体領域を表す情報を、血管集合体検出情報D2として動静脈判定部73に出力する。
 動静脈判定部73は、血管集合体検出情報D2に含まれる血管集合体領域内の血管の各々について動静脈判定を行い、動静脈判定の結果を表す情報を、動静脈判定情報D3として修正部74に出力する。
 修正部74は、血管単体検出情報D1に含まれる動静脈判定結果を、動静脈判定情報D3に基づいて修正する。修正部74は、修正後の血管単体検出情報D1と、血管集合体検出情報D2と、動静脈判定情報D3とを含む情報を、上述の血管検出情報DBとして強調表示部54に出力する。
 図7は、血管単体検出部71による血管単体検出処理の一例を示す。血管単体検出部71は、公知のアルゴリズムを用いて超音波画像U内から血管単体を含む血管単体領域Rsを検出する処理と、動静脈判定とを行う。図7において、符号B1~B5は、血管を表している。以下、血管を区別して説明する必要がない場合は、単に血管Bと表記する。破線で示す血管単体領域Rsは、動脈と判定された血管Bを含む領域を表している。実線で示す血管単体領域Rsは、静脈と判定された血管Bを含む領域を表している。
 血管単体領域Rsには、動静脈判定結果を表す「ラベル」と、動静脈判定結果の確信度(すなわち確からしさ)を表す「スコア」が付される。ラベルは、血管単体領域Rsに含まれる血管Bが「動脈」と「静脈」とのいずれであるかを表す。スコアは0以上1以下の範囲内の値であり、1に近いほど確信度が高いことを表す。ラベル及びスコアが付された血管単体領域Rsが、上述の血管単体検出情報D1に対応する。
 本実施形態では、血管単体検出部71は、機械学習により生成された学習済みモデルである血管単体検出モデル71A(図8参照)を用いて血管単体検出処理を行う。血管単体検出モデル71Aは、例えば、ディープラーニングを用いた物体検出のアルゴリズムである。血管単体検出モデル71Aとして、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)の一種であるR-CNN(Regional CNN)により構成される物体検出モデルを用いることができる。
 血管単体検出モデル71Aは、超音波画像U内から物体としての血管単体が含まれる領域を検出し、検出した領域に対するラベルを決定する。そして、血管単体検出モデル71Aは、検出した血管単体領域Rsを表す情報をラベル及びスコアとともに出力する。
 図8は、血管単体検出モデル71Aを機械学習により学習させる学習フェーズの一例を説明する図である。血管単体検出モデル71Aは、教師データTD1を用いて学習を行う。教師データTD1は、正解ラベルLが付された複数の教師画像Pを含む。教師データTD1に含まれる教師画像Pは、血管単体(動脈及び静脈)のサンプル画像である。教師データTD1には、血管の形状、サイズ等が異なる各種の教師画像Pが含まれる。
 学習フェーズにおいて、血管単体検出モデル71Aには、教師画像Pが入力される。血管単体検出モデル71Aは、教師画像Pに対する判定結果Aを出力する。この判定結果Aと正解ラベルLとに基づいて、損失関数を用いた損失演算がなされる。そして、損失演算の結果に応じて血管単体検出モデル71Aの各種係数の更新設定がなされ、更新設定にしたがって血管単体検出モデル71Aが更新される。
 学習フェーズにおいては、教師画像Pの血管単体検出モデル71Aへの入力、血管単体検出モデル71Aからの判定結果Aの出力、損失演算、更新設定、及び血管単体検出モデル71Aの更新の一連の処理が繰り返し行われる。この一連の処理の繰り返しは、検出精度が、予め定められた設定レベルまで達した場合に終了される。こうして検出精度が設定レベルまで達した血管単体検出モデル71Aは、記憶装置24に記憶された後、運用フェーズである血管単体検出処理において血管単体検出部71により用いられる。
 図9は、血管集合体検出部72による血管集合体検出処理の一例を示す。血管集合体検出部72は、公知のアルゴリズムを用いて超音波画像U内から血管集合体を含む血管集合体領域Raを検出する処理を行う。
 本実施形態では、血管集合体検出部72は、機械学習により生成された学習済みモデルである血管集合体検出モデル72A(図10参照)を用いて血管集合体検出処理を行う。血管集合体検出モデル72Aは、例えば、ディープラーニングを用いた物体検出のアルゴリズムである。血管集合体検出モデル72Aとして、例えば、CNNの一種であるR-CNNにより構成される物体検出モデルを用いることができる。
 血管集合体検出部72は、超音波画像U内から物体としての血管集合体が含まれる血管集合体領域Raを検出する。血管集合体領域Raを表す情報が、上述の血管集合体検出情報D2に対応する。
 図10は、血管集合体検出モデル72Aを機械学習により学習させる学習フェーズの一例を説明する図である。血管集合体検出モデル72Aは、教師データTD2を用いて学習を行う。教師データTD2は、正解ラベルLが付された複数の教師画像Pを含む。教師データTD2に含まれる教師画像Pは、血管集合体のサンプル画像である。教師データTD2には、血管集合体を構成する血管の数、血管の形状、血管のサイズ、複数の血管の配置(位置関係)等が異なる各種の教師画像Pが含まれる。
 学習フェーズにおいて、血管集合体検出モデル72Aには、教師画像Pが入力される。血管集合体検出モデル72Aは、教師画像Pに対する判定結果Aを出力する。この判定結果Aと正解ラベルLとに基づいて、損失関数を用いた損失演算がなされる。そして、損失演算の結果に応じて血管集合体検出モデル72Aの各種係数の更新設定がなされ、更新設定にしたがって血管集合体検出モデル72Aが更新される。
 学習フェーズにおいては、教師画像Pの血管集合体検出モデル72Aへの入力、血管集合体検出モデル72Aからの判定結果Aの出力、損失演算、更新設定、及び血管集合体検出モデル72Aの更新の一連の処理が繰り返し行われる。この一連の処理の繰り返しは、検出精度が、予め定められた設定レベルまで達した場合に終了される。こうして検出精度が設定レベルまで達した血管集合体検出モデル72Aは、記憶装置24に記憶された後、運用フェーズである血管集合体検出処理において血管集合体検出部72により用いられる。
 図11は、動静脈判定部73による動静脈判定処理の一例を示す。動静脈判定部73は、血管集合体検出情報D2に基づき、血管集合体領域Ra内に含まれる血管Bの各々について動静脈判定を行い、血管Bごとにラベル及びスコアを求めることにより動静脈判定情報D3を生成する。動静脈判定部73は、動静脈判定において、血管集合体領域Ra内における解剖学的な血管の特徴量を用いる。動静脈判定部73は、血管Bに対するラベルとしての「動脈」と「静脈」とのそれぞれについてスコアを求め、スコアが大きい方のラベルを選択する。
 図12は、動静脈判定処理の一例をより詳細に説明する図である。まず、動静脈判定部73は、血管集合体領域Ra内に含まれる血管Bの各々について特徴量を算出する。特徴量は、血管集合体領域Ra内における各血管Bの直径(以下、血管径という。)D、血管集合体領域Raの中心Cからの血管Bの変位量K、各血管Bの円形度などである。変位量Kは、例えば、血管集合体領域Raの中心Cから各血管Bの中心までの距離である。動静脈判定部73は、血管径D、変位量K、及び円形度のうち、少なくとも1以上の特徴量を用いて、血管Bの各々が動脈と静脈とのいずれであるかを判定する。動静脈判定部73は、例えば、AdaBoost、SVM(Support Vector Machine)などの機械学習によるアルゴリズムを用いて動静脈判定を行う。
 動脈は、血管集合体の中央に位置することが多いので、変位量Kが小さい。また、動脈は、内圧が高いことから血管径が大きく、かつ円形度が高い。逆に、静脈は、動脈に伴行することから変位量Kが大きい。また、静脈は、内圧が低いことから血管径が小さく、かつ円形度が低い。動静脈判定部73は、これらの特徴量に基づいて、血管Bの各々に動静脈判定を行い、スコアの算出及びラベルの決定を行う。例えば、動静脈判定部73は、血管Bの各々について、動脈としてのスコアと、静脈としてのスコアとを算出し、スコアが大きい方のラベルを選択する。このように、血管集合体としての解剖学的な特徴量を用いて判定を行うことにより、精度よく動静脈判定を行うことができる。
 図13は、修正部74による修正処理の一例を示す。修正部74は、対応する血管Bについて、動静脈判定情報D3に含まれるスコアと、血管単体検出情報D1に含まれるスコアとを比較し、スコアが高い方のラベルを選択する。例えば、図13に示す例では、血管B3については、動静脈判定情報D3に含まれるスコア(0.90)の方が、血管単体検出情報D1に含まれるスコア(0.75)よりも高い。このため、修正部74は、血管B3のラベルとして、血管単体検出情報D1に含まれるラベル(静脈)に代えて、動静脈判定情報D3に含まれるラベル(動脈)を選択する。同様に、修正部74は、血管B4及びB5についても、スコアが大きい方のラベルを選択する。すなわち、図13に示す例では、血管単体検出情報D1に含まれる血管B1~B5のラベルのうち、血管B3のラベルのみが修正される。このようにして、血管単体検出情報D1に含まれるラベルが修正される。
 修正部74は、ラベルを修正した修正後の血管単体検出情報D1と、血管集合体検出情報D2と、動静脈判定情報D3とを含む情報を、上述の血管検出情報DBとして強調表示部54に出力する。血管検出情報DBには、超音波画像U内における血管単体領域Rs及び血管集合体領域Raの位置情報と、血管単体領域Rsに対するラベル及びスコアが含まれる。
 図14は、強調表示部54による強調表示処理の一例を示す。強調表示部54は、装置本体20の表示装置21に表示された超音波画像U内に、血管検出情報DBに基づいて血管単体領域Rs及び血管集合体領域Raを、矩形状の枠を用いて表示する。また、強調表示部54は、動静脈判定結果に基づき、血管単体領域Rsを、血管単体領域Rs内に含まれる血管が動脈であるか静脈であるかを識別可能に表示する。図14に示す例では、静脈が含まれる血管単体領域Rsを実線で示し、動脈が含まれる血管単体領域Rsを破線で示す。また、血管集合体領域Raを二点鎖線で示している。なお、強調表示部54は、血管単体領域Rs及び血管集合体領域Raを、線種に限られず、線の太さ、線の色、線の明度などによって、識別可能に表示してもよい。
 次に、図15に示すフローチャートを用いて、超音波診断装置2の動作の一例を説明する。まず、主制御部50は、入力装置22等を用いて術者により、開始操作がなされたか否かを判定する(ステップS10)。主制御部50は、開始操作がなされたと判定した場合には(ステップS10:YES)、超音波プローブ10の送受信回路14と画像生成部51とを作動させることにより、超音波画像Uを生成する(ステップS11)。生成された超音波画像Uは、表示制御部52により表示装置21に表示される。
 この際、術者は、図2に示すように、生体30の表面上に超音波プローブ10を接触させる。送信回路16から入力される駆動信号に従って振動子アレイ13から生体30内に超音波ビームUBが送信される。生体30内からの超音波エコーは、振動子アレイ13により受信され、受信信号が受信回路17に出力される。受信回路17により受信された受信信号は、増幅部41、A/D変換部42、及びビームフォーマ43を介して音線信号となる。この音線信号は、通信部15を介して、装置本体20に出力される。
 装置本体20は、超音波プローブ10から出力された音線信号を、通信部23を介して受信する。装置本体20が受信した音線信号は、画像生成部51に入力される。音線信号は、画像生成部51において、信号処理部61で包絡線検波処理が施されることでBモード画像信号となり、DSC62及び画像処理部63を経た後、超音波画像Uとして表示制御部52に出力される。また、超音波画像Uは、画像解析部53に出力される。
 画像解析部53では、血管単体検出部71により、上述した血管単体検出処理(図7参照)が行われる(ステップS12)。この血管単体検出処理により生成された血管単体検出情報D1は、修正部74に出力される。
 また、ステップS12と並行してステップS13及びステップS14が行われる。ステップS13では、血管集合体検出部72により、上述した血管集合体検出処理(図9参照)が行われる。この血管集合体検出処理により生成された血管集合体検出情報D2は、動静脈判定部73に出力される。ステップS14では、動静脈判定部73により、上述した動静脈判定処理(図11及び図12参照)が行われる。この動静脈判定処理により生成された動静脈判定情報D3は、修正部74に出力される。
 さらに、画像解析部53では、修正部74により、上述した修正処理(図13参照)が行われる(ステップS15)。この修正処理では、動静脈判定情報D3に基づいて、血管単体検出情報D1に含まれる血管単体領域Rsに対するラベルが修正される。この修正処理の結果、血管検出情報DBが強調表示部54に出力される。
 そして、強調表示部54により、上述した強調表示処理(図14参照)が行われる(ステップS16)。この強調表示処理により、表示装置21に表示された超音波画像U内に、血管単体領域Rs及び血管集合体領域Raが強調表示される。また、血管単体領域Rsは、内部に含まれる血管が動脈であるか静脈であるかが識別可能に表示される。このように、強調表示が行われることにより、術者は、超音波画像U内に存在する血管集合体を正確に把握することができ、かつ、血管単体が動脈であるか静脈であるかを正確に把握することができる。
 次に、主制御部50は、入力装置22等を用いて術者により、終了操作がなされたか否かを判定する(ステップS17)。主制御部50は、終了操作がなされていないと判定した場合には(ステップS17:NO)、処理をステップS11に戻す。これにより、新たな超音波画像Uが生成される。一方、主制御部50は、終了操作がなされたと判定した場合には(ステップS17:YES)、超音波診断装置2の動作を終了させる。
 従来は、血管単体検出処理によって血管が検出され、検出された血管に対して個別に動静脈判定が行われていた。このような手法では、血管集合体を構成する血管の動静脈判定に誤りが生じることが多く、フレームごとに動静脈判定が変化することがあった。このような動静脈判定の結果に基づいて、術者が穿刺を行おうとすると、穿刺対象の血管を誤ってしまうことがあった。
 これに対して、本開示の技術によれば、超音波画像Uから血管集合体領域Raを検出し、検出した血管集合体領域Raを超音波画像U内に強調表示するので、術者による血管の動静脈判定を支援することができる。また、本開示の技術によれば、血管集合体領域Ra内における血管の特徴量に基づいて動静脈判定を行うので、血管集合体を構成する血管であっても精度よく動静脈判定を行うことができる。これにより、術者は、穿刺対象の血管(例えば静脈)を正確に把握することができる。
 [変形例]
 以下に、上記第1実施形態に係る超音波診断装置2の各種変形例について説明する。
 第1実施形態では、動静脈判定部73は、動静脈判定処理(図11及び図12参照)において、血管Bに対するラベルとしての「動脈」と「静脈」とのそれぞれについてスコアを求め、スコアが大きい方のラベルを選択している。これに代えて、例えば図16に示すように、スコアに対する閾値を設定し、スコアが閾値以上のラベルを選択してもよい。
 また、例えば図17に示すように、血管Bに対するラベルとしての「動脈」と「静脈」とのそれぞれについてスコアを求め、いずれのスコアも閾値未満である場合もある。この場合、動静脈判定部73は、ラベルの決定(すなわち動静脈判定)は困難であるとして、動静脈判定を停止してもよい。このように動静脈判定が困難である場合には、強調表示部54は、血管単体領域Rsを、「動脈」と「静脈」とのいずれであるかを区別せずに超音波画像U内に表示してもよい。この場合、強調表示部54は、例えば図18に示すように、血管単体領域Rsを単に「血管」として表示してもよい。
 また、強調表示部54は、例えば図19に示すように、修正部74が選択したラベルに対するスコア(すなわち、修正部74が選択した判定結果に対する確信度)を血管単体領域Rsに対応付けて表示してもよい。これにより、術者は、血管ごとの動静脈判定の確信度を把握することができる。
 また、強調表示部54は、例えば図20に示すように、修正部74が選択したラベルに対するスコア(すなわち、修正部74が選択した判定結果に対する確信度)が一定値よりも低い場合に、術者に注意を促すメッセージを表示してもよい。これにより、術者は、動静脈判定の確信度が低く、穿刺に際して注意が必要であることを確実に把握することができる。
 また、動静脈判定部73は、血管集合体領域Raごとに動静脈判定の基準を変更してもよい。これは、例えば、血管集合体領域Ra内の血管集合体のパターンが、解剖学上典型的なパターンである場合には、動静脈判定のスコアが低くても判定結果が正しい可能性が高いためである。なお、血管集合体のパターンとは、血管集合体の複数の血管の相対位置、血管の数、各血管の大きさなどで表される情報である。
 動静脈判定部73は、血管集合体領域Raについて動静脈判定を行う前に、例えば図21に示す閾値設定処理を行う。まず、動静脈判定部73は、血管集合体領域Ra内の血管集合体のパターンを解析し(ステップS20)、血管集合体が典型的なパターンであるか否かを判定する(ステップS21)。動静脈判定部73は、血管集合体が典型的なパターンであると判定した場合には(ステップS21:YES)、動静脈判定の閾値を「第1閾値」に設定する(ステップS22)。一方、動静脈判定部73は、血管集合体が典型的なパターンでないと判定した場合には(ステップS21:NO)、動静脈判定の閾値を「第2閾値」に設定する(ステップS23)。ここで、第1閾値は、第2閾値よりも小さい値である。
 図22に示すように、血管集合体領域Ra内の血管集合体のパターンが典型的である場合には、動静脈判定の基準である閾値が低く設定される。一方、血管集合体のパターンが非典型的である場合には、動静脈判定の基準である閾値が高く設定される。このように、血管集合体のパターンが非典型的である場合には、動静脈判定の基準が高く設定されることにより、より確実な判定が行われる。なお、スコアに対する閾値に限られず、動静脈判定のアルゴリズムを変更することにより、動静脈判定の基準を変更してもよい。
 また、強調表示部54は、図23に示すように、動静脈判定部73が動静脈判定をした後、血管集合体領域Raを非表示としてもよい。
 また、第1実施形態では、血管単体検出部71と血管集合体検出部72とをそれぞれ個別の物体検出モデルにより構成しているが、血管単体検出部71と血管集合体検出部72とを1つの物体検出モデルにより構成することも可能である。この場合、血管単体の教師画像と、血管集合体の教師画像とを含む教師データを用いて物体検出モデルを学習させればよい。また、血管単体検出部71、血管集合体検出部72、及び動静脈判定部73を1つの物体検出モデルにより構成することも可能である。さらに、血管単体検出部71、血管集合体検出部72、動静脈判定部73、及び修正部74を1つの物体検出モデルにより構成することも可能である。
 また、第1実施形態では、血管単体検出部71と血管集合体検出部72とを、CNNからなる物体検出モデルにより構成しているが、物体検出モデルは、CNNに限られず、セグメンテーション、又はその他の一般的な検出モデルであってもよい。
 また、血管単体検出部71と血管集合体検出部72とを構成する物体検出モデルは、AdaBoost、又はSVMなどの画像特徴量に基づいて物体の識別を行う識別器で構成されていてもよい。この場合、教師画像を特徴量ベクトルに変換した後、特徴量ベクトルに基づいて識別器を学習させればよい。血管集合体の特徴量として、血管同士の距離(血管の中心間距離、血管の外周部間の距離など)を用いることができる。識別器は、血管同士の距離が一定値以下であり、かつ血管の数が3以上である場合に、血管集合体であると認識する。
 また、血管単体検出部71及び血管集合体検出部72は、機械学習による物体検出モデルに限られず、テンプレートマッチングにより物体検出を行うものであってもよい。この場合、血管単体検出部71は、血管単体の典型的なパターンデータをテンプレートとして予め記憶しておき、超音波画像U内をテンプレートでサーチしながらパターンデータに対する類似度を算出する。そして、血管単体検出部71は、類似度が一定以上でかつ最大となった場所を、血管単体領域Rsとして特定する。また、血管集合体検出部72は、血管集合体の典型的なパターンデータをテンプレートとして予め記憶しておき、超音波画像U内をテンプレートでサーチしながらパターンデータに対する類似度を算出する。そして、血管集合体検出部72は、類似度が一定以上でかつ最大となった場所を、血管集合体領域Raとして特定する。なお、テンプレートは、実際の超音波画像の一部であってもよいし、血管又は血管集合体を模式化して描いた画像であってもよい。
 また、類似度の算出には、単純なテンプレートマッチングの他に、例えば、Csurka et al.: Visual Categorization with Bags of Keypoints, Proc. of ECCV Workshop on Statistical Learning in Computer Vision, pp.59-74 (2004)に記載されている機械学習手法、あるいは、Krizhevsk et al.: ImageNet Classification with Deep Convolutional Neural Networks, Advances in Neural Information Processing Systems 25, pp.1106-1114 (2012)に記載されているディープラーニングを用いた一般画像認識手法等を用いることができる。
 第1実施形態では、超音波プローブ10と装置本体20とが無線通信により接続されているが、これに代えて、超音波プローブ10と装置本体20とが有線接続されていてもよい。
 また、第1実施形態では、音線信号に基づいて超音波画像Uを生成する画像生成部51が装置本体20に設けられているが、これに代えて、画像生成部51は、超音波プローブ10内に設けられていてもよい。この場合、超音波プローブ10は、超音波画像Uを生成して装置本体20に出力する。装置本体20のプロセッサ25は、超音波プローブ10から入力された超音波画像Uに基づいて画像解析等を行う。
 また、第1実施形態では、表示装置21、入力装置22、及び超音波プローブ10がプロセッサ25に直接的に接続されているが、表示装置21、入力装置22、超音波プローブ10、及びプロセッサ25が、ネットワークを介して間接的に接続されていてもよい。
 一例として図24に示す超音波診断装置2Aは、表示装置21、入力装置22、超音波プローブ10Aが、ネットワークNWを介して装置本体20Aに接続されたものである。装置本体20Aは、第1実施形態に係る装置本体20から表示装置21及び入力装置22を除き、かつ送受信回路14を付加したものであり、送受信回路14、記憶装置24、及びプロセッサ25により構成されている。超音波プローブ10Aは、第1実施形態に係る超音波プローブ10から送受信回路14を除いたものである。
 このように、超音波診断装置2Aでは、表示装置21、入力装置22、超音波プローブ10AがネットワークNWを介して装置本体20Aと接続されているため、装置本体20Aを、いわゆる遠隔サーバとして使用することができる。これにより、例えば、術者は、表示装置21、入力装置22、及び超音波プローブ10Aを、術者の手元に用意することができ、利便性が向上する。また、表示装置21及び入力装置22を、スマートフォン又はタブレット端末等の携帯端末により構成することにより、利便性がさらに向上する。
 他の一例として図25に示す超音波診断装置2Bでは、表示装置21及び入力装置22が装置本体20Bに搭載されており、超音波プローブ10AがネットワークNWを介して装置本体20Bに接続されている。この場合、装置本体20Bを遠隔サーバによって構成してもよい。また、装置本体20Bを、スマートフォン又はタブレット端末等の携帯端末により構成することも可能である。
 第1実施形態において、例えば、主制御部50、画像生成部51、表示制御部52、画像解析部53、及び強調表示部54といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。各種のプロセッサには、上述したように、ソフトウェア(プログラム26)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device: PLD)、ASIC等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、及び/又は、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
 複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip: SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。
 以上の記載から、以下の付記項1~9に記載の技術を把握することができる。
 [付記項1]
 振動子アレイから生体内に向けて超音波ビームの送信を行わせ、生体内で生じた超音波エコーを受信することにより生成された超音波画像を表示装置に表示させる処理を行う情報処理装置であって、
 プロセッサを備え、
 前記プロセッサは、
 前記超音波画像内から3以上の血管が集合した血管集合体を含む血管集合体領域を検出し、検出した前記血管集合体領域を前記超音波画像内に強調表示する
 情報処理装置。
 [付記項2]
 前記プロセッサは、
 前記血管集合体領域に含まれる血管の各々について、動脈と静脈とのいずれであるかを、前記血管集合体領域内における各血管の特徴量に基づいて判定する
 付記項1に記載の情報処理装置。
 [付記項3]
 前記プロセッサは、
 血管径、前記血管集合体領域の中心からの血管の変位量、及び血管の円形度のうち、少なくとも1以上の特徴量に基づいて判定を行う、
 付記項2に記載の情報処理装置。
 [付記項4]
 前記プロセッサは、
 前記超音波画像内から血管単体を含む血管単体領域を検出し、検出した前記血管単体領域に含まれる血管が動脈と静脈とのいずれであるかを判定する
 付記項2又は付記項3に記載の情報処理装置。
 [付記項5]
 前記プロセッサは、
 前記血管単体領域内における血管に対する動静脈判定の結果を、前記血管集合体領域内における各血管に対する動静脈判定の結果に基づいて修正する
 付記項4に記載の情報処理装置。
 [付記項6]
 前記プロセッサは、
 前記血管単体領域内における血管に対する動静脈判定の確信度と、前記血管集合体領域内における各血管に対する動静脈判定の確信度とを比較し、確信度が高い方の判定結果を選択する
 付記項5に記載の情報処理装置。
 [付記項7]
 前記プロセッサは、
 修正結果に基づき、前記血管集合体領域に含まれる血管の各々を、動脈と静脈とを識別可能に表示する
 付記項6に記載の情報処理装置。
 [付記項8]
 前記プロセッサは、
 前記選択した判定結果に対する確信度を、前記表示装置に表示する
 付記項7に記載の情報処理装置。
 [付記項9]
 前記プロセッサは、
 前記選択した判定結果に対する確信度が一定値より低い場合に、注意を促すメッセージを前記表示装置に表示する
 付記項8に記載の情報処理装置。
 本開示の技術は、上述の種々の実施形態及び/又は種々の変形例を適宜組み合わせることも可能である。また、上記実施形態に限らず、要旨を逸脱しない限り種々の構成を採用し得ることはもちろんである。
 以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことはいうまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
2,2A,2B 超音波診断装置
4 受信回路
10,10A 超音波プローブ
11 ハウジング
11A アレイ収容部
11B グリップ部
13 振動子アレイ
14 送受信回路
15 通信部
16 送信回路
17 受信回路
20,20A,20B 装置本体
21 表示装置
22 入力装置
23 通信部
24 記憶装置
25 プロセッサ
26 プログラム
30 生体
31 穿刺針
41 増幅部
42 A/D変換部
43 ビームフォーマ
50 主制御部
51 画像生成部
52 表示制御部
53 画像解析部
54 強調表示部
61 信号処理部
62 DSC
63 画像処理部
71 血管単体検出部
71A 血管単体検出モデル
72 血管集合体検出部
72A 血管集合体検出モデル
73 動静脈判定部
74 修正部
A 判定結果
B,B1~B5 血管
C 中心
D 血管径
K 変位量
D1 血管単体検出情報
D2 血管集合体検出情報
D3 動静脈判定情報
DB 血管検出情報
L 正解ラベル
M ガイドマーカ
NW ネットワーク
P 教師画像
Ra 血管集合体領域
Rs 血管単体領域
TD1,TD2 教師データ
U 超音波画像
UB 超音波ビーム

Claims (11)

  1.  振動子アレイから生体内に向けて超音波ビームの送信を行わせ、生体内で生じた超音波エコーを受信することにより生成された超音波画像を表示装置に表示させる処理を行う情報処理装置であって、
     前記超音波画像内から3以上の血管が集合した血管集合体を含む血管集合体領域を検出する血管集合体検出部と、
     前記血管集合体領域を前記超音波画像内に強調表示する強調表示部と、
     を備える情報処理装置。
  2.  前記血管集合体領域に含まれる血管の各々について、動脈と静脈とのいずれであるかを、前記血管集合体領域内における各血管の特徴量に基づいて判定する動静脈判定部
     をさらに備える請求項1に記載の情報処理装置。
  3.  前記動静脈判定部は、血管径、前記血管集合体領域の中心からの血管の変位量、及び血管の円形度のうち、少なくとも1以上の特徴量に基づいて判定を行う、
     請求項2に記載の情報処理装置。
  4.  前記超音波画像内から血管単体を含む血管単体領域を検出し、検出した前記血管単体領域に含まれる血管が動脈と静脈とのいずれであるかを判定する血管単体検出部
     をさらに備える請求項2又は請求項3に記載の情報処理装置。
  5.  前記血管単体検出部が判定した動静脈判定の結果を、前記動静脈判定部による動静脈判定の結果に基づいて修正する修正部
     をさらに備える請求項4に記載の情報処理装置。
  6.  前記修正部は、前記血管単体検出部による動静脈判定の確信度と、前記動静脈判定部による動静脈判定の確信度とを比較し、確信度が高い方の判定結果を選択する
     請求項5に記載の情報処理装置。
  7.  前記強調表示部は、前記修正部による修正結果に基づき、前記血管集合体領域に含まれる血管の各々を、動脈と静脈とを識別可能に表示する
     請求項6に記載の情報処理装置。
  8.  前記強調表示部は、前記修正部が選択した前記判定結果に対する確信度を、前記表示装置に表示する
     請求項7に記載の情報処理装置。
  9.  前記強調表示部は、前記修正部が選択した前記判定結果に対する確信度が一定値より低い場合に、注意を促すメッセージを前記表示装置に表示する
     請求項8に記載の情報処理装置。
  10.  振動子アレイから生体内に向けて超音波ビームの送信を行わせ、生体内で生じた超音波エコーを受信することにより生成された超音波画像を表示装置に表示させる処理を行う情報処理方法であって、
     前記超音波画像内から3以上の血管が集合した血管集合体を含む血管集合体領域を検出し、検出した前記血管集合体領域を前記超音波画像内に強調表示する
     情報処理方法。
  11.  振動子アレイから生体内に向けて超音波ビームの送信を行わせ、生体内で生じた超音波エコーを受信することにより生成された超音波画像を表示装置に表示させる処理をコンピュータに実行させるプログラムであって、
     前記超音波画像内から3以上の血管が集合した血管集合体を含む血管集合体領域を検出し、検出した前記血管集合体領域を前記超音波画像内に強調表示する処理
     をコンピュータに実行させるプログラム。
PCT/JP2021/034782 2020-11-19 2021-09-22 情報処理装置、情報処理方法、及びプログラム WO2022107440A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022563598A JPWO2022107440A1 (ja) 2020-11-19 2021-09-22
EP21894315.7A EP4248878A4 (en) 2020-11-19 2021-09-22 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD AND PROGRAM
CN202180076543.XA CN116507288A (zh) 2020-11-19 2021-09-22 信息处理装置、信息处理方法及程序
US18/310,032 US20230263505A1 (en) 2020-11-19 2023-05-01 Information processing apparatus, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020192752 2020-11-19
JP2020-192752 2020-11-19

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/310,032 Continuation US20230263505A1 (en) 2020-11-19 2023-05-01 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
WO2022107440A1 true WO2022107440A1 (ja) 2022-05-27

Family

ID=81708809

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/034782 WO2022107440A1 (ja) 2020-11-19 2021-09-22 情報処理装置、情報処理方法、及びプログラム

Country Status (5)

Country Link
US (1) US20230263505A1 (ja)
EP (1) EP4248878A4 (ja)
JP (1) JPWO2022107440A1 (ja)
CN (1) CN116507288A (ja)
WO (1) WO2022107440A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001187052A (ja) * 2000-01-04 2001-07-10 Ge Yokogawa Medical Systems Ltd 対照標準領域設定方法および超音波診断装置
JP2005111258A (ja) * 2003-09-19 2005-04-28 Fuji Photo Film Co Ltd 超音波診断装置
JP2017524455A (ja) 2015-04-03 2017-08-31 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 血管を識別する超音波システム及び方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3845134B1 (en) * 2018-08-27 2022-07-27 FUJIFILM Corporation Ultrasound diagnosis device and ultrasound diagnosis device control method
WO2020087732A1 (zh) * 2018-11-02 2020-05-07 无锡祥生医疗科技股份有限公司 基于神经网络的静脉与动脉识别方法与系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001187052A (ja) * 2000-01-04 2001-07-10 Ge Yokogawa Medical Systems Ltd 対照標準領域設定方法および超音波診断装置
JP2005111258A (ja) * 2003-09-19 2005-04-28 Fuji Photo Film Co Ltd 超音波診断装置
JP2017524455A (ja) 2015-04-03 2017-08-31 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 血管を識別する超音波システム及び方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CSURKA ET AL.: "Visual Categorization with Bags of Keypoints", PROC. OF ECCV WORKSHOP ON STATISTICAL LEARNING IN COMPUTER VISION, 2004, pages 59 - 74
KRIZHEVSK ET AL.: "ImageNet Classification with Deep Convolutional Neural Networks", ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS, vol. 25, 2012, pages 1106 - 1114
See also references of EP4248878A4

Also Published As

Publication number Publication date
JPWO2022107440A1 (ja) 2022-05-27
EP4248878A4 (en) 2023-11-22
CN116507288A (zh) 2023-07-28
US20230263505A1 (en) 2023-08-24
EP4248878A1 (en) 2023-09-27

Similar Documents

Publication Publication Date Title
CN114364325B (zh) 超声波诊断装置及超声波诊断装置的控制方法
US20220142608A1 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
US11116475B2 (en) Ultrasound diagnostic apparatus and method for controlling ultrasound diagnostic apparatus
US20210077066A1 (en) Acoustic wave diagnostic apparatus and method of controlling acoustic wave diagnostic apparatus
US11596381B2 (en) Multiple frequency scanning using an ultrasound probe
US20220104791A1 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
US20220160335A1 (en) Ultrasound diagnostic apparatus and method of controlling ultrasound diagnostic apparatus
US20210113196A1 (en) Acoustic wave diagnostic apparatus and method of controlling acoustic wave diagnostic apparatus
US11759173B2 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
CN107809956B (zh) 超声设备及其操作方法
US20230293144A1 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
WO2022107440A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2022107441A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20230190238A1 (en) Ultrasound system and control method of ultrasound system
US20240065671A1 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
US20230363740A1 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
US20240130712A1 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
EP4360565A1 (en) Ultrasonic diagnostic device and method for controlling ultrasonic diagnostic device
JP2023175251A (ja) 超音波診断装置および超音波診断装置の制御方法
JP2021126429A (ja) 超音波診断装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21894315

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022563598

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202180076543.X

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021894315

Country of ref document: EP

Effective date: 20230619