WO2022113858A1 - 情報処理装置、超音波診断装置、情報処理方法、及び情報処理プログラム - Google Patents

情報処理装置、超音波診断装置、情報処理方法、及び情報処理プログラム Download PDF

Info

Publication number
WO2022113858A1
WO2022113858A1 PCT/JP2021/042312 JP2021042312W WO2022113858A1 WO 2022113858 A1 WO2022113858 A1 WO 2022113858A1 JP 2021042312 W JP2021042312 W JP 2021042312W WO 2022113858 A1 WO2022113858 A1 WO 2022113858A1
Authority
WO
WIPO (PCT)
Prior art keywords
ultrasonic
vein
unit
image
puncture
Prior art date
Application number
PCT/JP2021/042312
Other languages
English (en)
French (fr)
Inventor
理都 村瀬
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2022565273A priority Critical patent/JPWO2022113858A1/ja
Publication of WO2022113858A1 publication Critical patent/WO2022113858A1/ja
Priority to US18/320,075 priority patent/US20230293146A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0891Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • A61B2017/00119Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3413Needle locating or guiding means guided by ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M25/00Catheters; Hollow probes
    • A61M25/01Introducing, guiding, advancing, emplacing or holding catheters
    • A61M25/06Body-piercing guide needles or the like

Definitions

  • This disclosure relates to an information processing device, an ultrasonic diagnostic device, an information processing method, and an information processing program.
  • An ultrasonic diagnostic device that takes an ultrasonic image of a subject using an ultrasonic probe that receives an ultrasonic echo by ultrasonic waves transmitted to the subject and outputs a received signal based on the received ultrasonic echo is known. Has been done.
  • JP-A-2009-195585 and JP-A-2018-000346 are known.
  • stenosis in a blood vessel is based on the area of the lumen of the blood vessel derived using volume data obtained by scanning the body surface of the subject with an ultrasonic probe.
  • Techniques for identifying candidate locations are described.
  • Japanese Patent Application Laid-Open No. 2018-000346 describes a technique for determining an abnormal site based on blood flow in a blood vessel detected based on an ultrasonic image of a subject.
  • the blood vessel of the subject is punctured by inserting an insert such as a so-called puncture needle and a catheter.
  • an insert such as a so-called puncture needle and a catheter.
  • a puncture method such as an echo-guided puncture method
  • a method is known in which an ultrasonic image of a blood vessel of a subject is taken and puncture is performed with reference to the blood vessel reflected in the taken ultrasonic image.
  • This disclosure has been made in consideration of the above circumstances, and is an information processing device, an ultrasonic diagnostic device, and information capable of assisting a user who punctures a blood vessel in a puncture position in consideration of an abnormality in the blood vessel.
  • a processing method and an information processing program are provided.
  • an acquisition unit that acquires an ultrasonic image of a vein in a predetermined region from the center to the periphery of a subject, and an abnormality occurs in the vein from the acquired ultrasonic image. It is provided with a detection unit that detects an abnormal location and a determination unit that determines the appropriateness of puncture in a vein according to the detected abnormal location and outputs a determination result.
  • the information processing apparatus of the second aspect of the present disclosure is the information processing apparatus of the first aspect, and the determination unit determines that it is unsuitable for puncturing at a position peripheral to the abnormal portion.
  • the information processing apparatus is the information processing apparatus according to the first aspect or the second aspect, in which the determination unit is located on the most central side when the detection unit detects a plurality of abnormal points. Judged as unsuitable for puncture at a position peripheral to the abnormal site.
  • the information processing apparatus is the information processing apparatus according to any one of the first to third aspects, wherein the acquisition unit is an ultrasonic probe when the acquired ultrasonic image is taken. Further, the determination unit determines the suitability of puncture based on the detection result of the detection unit and the position of the ultrasonic probe.
  • the information processing apparatus is the information processing apparatus according to any one of the first to fourth aspects, and the determination unit outputs information indicating a warning as a determination result.
  • the information processing device of the sixth aspect of the present disclosure is the information processing device of any one of the first to fifth aspects, and the detection unit detects the vein from the ultrasonic image.
  • an acquisition unit that acquires an ultrasonic image of a blood vessel in a predetermined region from the center to the end of a subject, and an abnormality occurs in the blood vessel from the acquired ultrasonic image. It is determined that the detection unit for detecting the abnormal part and the puncture of the blood vessel at the position where the blood flow is upstream from the detected abnormal part is inappropriate, and the determination result is output.
  • the ultrasonic diagnostic apparatus of the eighth aspect of the present disclosure is input from an ultrasonic probe that receives an ultrasonic echo by a transmitted ultrasonic wave and outputs a received signal based on the received ultrasonic echo, and an ultrasonic probe. It includes an image generation unit that generates an ultrasonic image based on a received signal, and an information processing apparatus of the present disclosure.
  • an ultrasonic image of a vein in a predetermined region from the center to the periphery of a subject is acquired, and an abnormal portion where an abnormality occurs in the vein is obtained from the acquired ultrasonic image.
  • This is a method for a computer to perform a process of detecting, determining the appropriateness of puncture in a vein according to the detected abnormal location, and outputting the determination result.
  • the information processing program acquires an ultrasonic image of a vein in a predetermined region from the center to the periphery of a subject, and obtains an abnormal portion in the vein from the acquired ultrasonic image.
  • the purpose is to have a computer execute a process of detecting, determining the appropriateness of puncture in a vein according to the detected abnormal location, and outputting the determination result.
  • FIG. 1 shows a block diagram showing an example of the overall configuration of the ultrasonic diagnostic apparatus 1 of the present embodiment.
  • the ultrasonic diagnostic apparatus 1 of the present embodiment includes an ultrasonic probe 10 and a main body 12.
  • the ultrasonic probe 10 includes an oscillator array 20 and a transmission / reception circuit 22 including a transmission circuit 24 and a reception circuit 26.
  • the oscillator array 20 includes a plurality of oscillators (not shown) arranged in a one-dimensional shape or a two-dimensional shape.
  • a mode in which the ultrasonic probe 10 is a linear type ultrasonic probe in which a plurality of oscillators are linearly arranged will be described.
  • the ultrasonic probe 10 is not limited to this embodiment, and may be a convex type or sector type ultrasonic probe in which oscillators are arranged in a curved shape.
  • Each of the plurality of oscillators transmits ultrasonic waves based on the drive signal applied from the transmission circuit 24, receives the ultrasonic echo generated in the subject, and receives electricity in response to the received ultrasonic echo. Output a signal.
  • Each of the plurality of oscillators is, for example, a piezoelectric ceramic represented by PZT (Lead Zirconate Titanate), a polymer piezoelectric element represented by PVDF (Poly Vinylidene Di Fluoride), and PMN-PT (Lead Magnetsium Niobate-Lead). It is configured by forming electrodes at both ends of a piezoelectric material such as a piezoelectric single crystal represented by Titanate), which is a material having piezoelectricity.
  • PZT Lead Zirconate Titanate
  • PVDF Poly Vinylidene Di Fluoride
  • PMN-PT Lead Magnetsium Niobate-Lead
  • the transmission circuit 24 transmits an ultrasonic beam from the vibrator array 20 toward the subject.
  • the transmission circuit 24 includes, for example, a plurality of pulse generators (not shown), and is based on a transmission delay pattern selected according to a control signal from the imaging control unit 30 of the main body unit 12.
  • a drive signal is supplied to each of the plurality of oscillators of the oscillator array 20 by adjusting the delay amount thereof, and a voltage is applied.
  • Each drive signal is a pulse-shaped or continuous wave-shaped voltage signal, and when a voltage is applied to the electrodes of the vibrator of the vibrator array 20, the piezoelectric body expands and contracts.
  • pulsed or continuous wave ultrasonic waves are generated from each oscillator, and an ultrasonic beam is formed from the combined waves of those ultrasonic waves.
  • the transmitted ultrasonic beam is reflected by each part in the subject (for example, blood vessels and other tissues) and an instrument placed in the subject to generate an ultrasonic echo.
  • the generated ultrasonic echo propagates in the subject and is received by a plurality of oscillators included in the oscillator array 20. Each oscillator generates an electric signal corresponding to the received ultrasonic echo.
  • the electric signal generated in each oscillator is output to the receiving circuit 26.
  • the receiving circuit 26 processes the signal output from the vibrator array 20 (strictly speaking, an analog electric signal) according to the control signal from the photographing control unit 30 of the main body unit 12 to generate a sound line signal. ..
  • FIG. 2 shows a block diagram showing an example of the configuration of the receiving circuit 26 of the present embodiment. As shown in FIG. 2, the receiving circuit 26 includes, for example, an amplification unit 60, an AD (Analog Digital) conversion unit 62, and a beam former 64.
  • AD Analog Digital
  • the amplification unit 60 amplifies the electric signal output from each of the plurality of vibrators of the vibrator array 20, and outputs the amplified electric signal to the AD conversion unit 62.
  • the AD conversion unit 62 converts the amplified electric signal into digital reception data, and outputs each converted reception data to the beam former 64.
  • the beam former 64 has received sound data converted by the AD conversion unit 62 according to the sound velocity or the distribution of the sound velocity set based on the reception delay pattern selected according to the control signal from the imaging control unit 30 of the main body unit 12. Each delay is given to each of them and added to each other to perform reception focus processing.
  • each received data converted by the AD conversion unit 62 is phase-adjusted and added, and a sound line signal in which the focus of the ultrasonic echo is narrowed down is generated.
  • the generated sound line signal is output to the image generation unit 32 of the main body unit 12.
  • the main body unit 12 includes a shooting control unit 30, an image generation unit 32, an acquisition unit 34, a detection unit 36, a determination unit 38, and a display unit 40.
  • the main body 12 of the present embodiment is a portable terminal device such as a smartphone or a tablet terminal.
  • the main body 12 is a B-mode image (tomographic image) relating to the tissue in the subject from the sound line signal obtained by scanning the subject with the ultrasonic probe 10 by installing a program such as application software. It has a function to take a certain ultrasonic image.
  • the main body 12 of the present embodiment is an example of the information processing apparatus of the present disclosure.
  • the imaging control unit 30 has a function of outputting a control signal to the transmission / reception circuit 22 of the ultrasonic probe 10 as described above when photographing an ultrasonic image.
  • the control signal output from the photographing control unit 30 is input to the transmission circuit 24 and the reception circuit 26, the sound line signal is output from the reception circuit 26 of the ultrasonic probe 10 to the image generation unit 32 as described above. ..
  • the image generation unit 32 has a function of generating an ultrasonic image based on a sound line signal input from the reception circuit 26 of the ultrasonic probe 10.
  • FIG. 3 shows a block diagram showing an example of the configuration of the image generation unit 32 of the present embodiment.
  • the image generation unit 32 includes, for example, a signal processing unit 70, a DSC (Digital Scan Converter) 72, and an image processing unit 74.
  • the signal processing unit 70 corrects the attenuation of the sound line signal generated by the receiving circuit 26 due to the distance according to the depth of the reflection position of the ultrasonic wave, and then performs the envelope detection process to obtain the ultrasonic wave. Generates a B-mode image signal indicating image U.
  • the DSC 72 converts the B-mode image signal generated by the signal processing unit 70 into an image signal according to a normal television signal scanning method by raster conversion or the like.
  • the image processing unit 74 performs various necessary image processing such as gradation processing on the B mode image signal input from the DSC 72, and then outputs the B mode image signal.
  • the B-mode image signal output from the image generation unit 32 corresponds to the ultrasonic image U.
  • the transmission / reception circuit 22 of the ultrasonic probe 10 and the image generation unit 32 of the main body 12 continuously generate ultrasonic images at a constant frame rate a plurality of times during the acquisition period of the ultrasonic image. get.
  • the site where the tomography is observed is changed by the ultrasonic image, and the direction in which the ultrasonic probe 10 is brought into contact with the subject is changed. Therefore, the observation direction of blood vessels and the like in the subject can be switched.
  • the ultrasonic probe 10 contacts the subject in a direction in which the oscillator array 20 intersects the direction in which the plurality of oscillators are arranged (that is, the scanning direction) with the extension direction of the blood vessel and the insert, that is, short.
  • the axial method crossing method
  • FIG. 4A shows an example of the ultrasonic image U taken by the short axis method.
  • the ultrasound image U shown in FIG. 4A shows a cross section of the blood vessel B and a cross section of the puncture needle N, which is an example of an insert.
  • the cross section of each of the blood vessel B and the puncture needle N means a cut surface orthogonal to the extension direction of each of the blood vessel B and the puncture needle N.
  • FIG. 4B shows an example of the ultrasonic image U taken by the long axis method.
  • the ultrasonic image U shown in FIG. 4B shows a vertical cross section of the blood vessel B and a vertical cross section of the puncture needle N, which is an example of an insert.
  • the vertical cross section of each of the blood vessel B and the puncture needle N means a cut surface along the extension direction of each of the blood vessel B and the puncture needle N.
  • the direction connecting the body surface S and the inside of the subject in the ultrasonic image U is referred to as the depth direction D.
  • the depth direction D corresponds to the direction in which the plurality of scanning lines in the ultrasonic image U extend.
  • Each part of the ultrasonic image U, such as the blood vessel B and the puncture needle N, is displayed in the depth direction D at a distance from the body surface of the subject to which the ultrasonic probe 10 comes into contact, that is, at a position corresponding to the depth.
  • the ultrasonic image U generated by the image generation unit 32 is output to the acquisition unit 34.
  • the acquisition unit 34 has a function of acquiring the ultrasonic image U generated and output by the image generation unit 32. Specifically, it has a function of photographing a predetermined region from the center to the end of the subject with the ultrasonic probe 10 and acquiring the ultrasonic image U generated and output by the image generation unit 32.
  • the acquisition unit 34 of the present embodiment has a function of acquiring information indicating the position of the ultrasonic probe 10.
  • the present embodiment includes a transmitter 14 and a magnetic sensor 16 as a three-dimensional position detection sensor.
  • Each of the transmitter 14 and the magnetic sensor 16 includes a three-way orthogonal coil corresponding to each of the x-axis, y-axis, and z-axis.
  • the three-dimensional position of the ultrasonic probe 10 can be measured by sequentially exciting each coil of the transmitter 14 and measuring the electromotive force of each coil included in the magnetic sensor 16.
  • the transmitter 14 of the present embodiment is fixed at a predetermined position on the head side of the bed on which the subject lies when puncturing is performed.
  • the magnetic sensor 16 is attached to the ultrasonic probe 10.
  • the acquisition unit 34 outputs a detection instruction signal to the transmitter 14.
  • the transmitter 14 sequentially excites the orthogonal coils in the three directions as described above.
  • Information indicating the position of the ultrasonic probe 10 is output from the magnetic sensor 16 to the acquisition unit 34 as a detection result.
  • the acquisition unit 34 acquires the position of the ultrasonic probe 10 when the ultrasonic image U is taken.
  • the acquisition unit 34 associates the ultrasonic image U acquired from the image generation unit 32 with the information representing the position of the ultrasonic probe 10 when the ultrasonic image U acquired from the magnetic sensor 16 is captured, and the detection unit 36. Output to.
  • the image generation unit 32 functions as the information processing device of the present disclosure as in the present embodiment, the functions of the image generation unit 32 and the acquisition unit 34 may be integrated.
  • the image generation unit 32 may further function as an acquisition unit 34.
  • the detection unit 36 has a function of detecting an abnormal portion in the blood vessel B to be punctured from the ultrasonic image U input from the acquisition unit 34.
  • the detection unit 36 of the present embodiment first detects the vein BV from the ultrasonic image U.
  • the method by which the detection unit 36 detects the vein BV from the ultrasonic image U is not particularly limited. For example, all the blood vessels B including the arteries and the vein BV included in the ultrasonic image U may be detected, and the vein BV may be further detected from the detected blood vessels B. Further, for example, only the vein BV of the blood vessel B may be detected from the ultrasonic image U.
  • the detection unit 36 of the present embodiment analyzes the ultrasonic image U acquired by the acquisition unit 34, in other words, the ultrasonic image U generated by the image generation unit 32, according to a known algorithm. Vein BV in image U is detected.
  • the detection unit 36 stores in advance typical pattern data of the blood vessel region in which the vein BV exists as a template, derives the similarity to the pattern data while searching the ultrasonic image U with the template, and is similar. It can be considered that the vein BV exists at the place where the degree is above the reference value and becomes the maximum.
  • the derivation of similarity includes a method using a learned learning model based on the features of an image representing a vein BV.
  • SVM Small Vector Machine
  • AdaBoost Adapt
  • Machine learning methods such as, or general image recognition using deep learning described in Krizhevsk et al .: ImageNet Classification with Deep Convolutional Neural Networks, Advances in Neural Information Processing Systems 25, pp.1106-1114 (2012). A method or the like can be used.
  • the detection unit 36 detects the vein BV in the ultrasonic image U by using the vein detection model which is a trained model machine-learned by a plurality of ultrasonic images U labeled with respect to the vein BV.
  • the vein detection model is, for example, an algorithm for detecting an object using deep learning.
  • an object detection model composed of R-CNN (Regional CNN), which is a kind of convolutional neural network (CNN), can be used.
  • the vein detection model detects the vein BV as an object from the input ultrasonic image U, and outputs information representing the vein BV in the ultrasonic image U.
  • the detection unit 36 of the present embodiment detects all vein BVs contained in the ultrasonic image U.
  • the detection may be performed by applying, for example, template matching, a general image recognition method, or a vein detection model for each of the plurality of vein BVs.
  • one or more vein BVs may be collectively detected by applying template matching, a general image recognition method, or a vein detection model.
  • the detection unit 36 detects an abnormal location where an abnormality has occurred in the detected vein BV.
  • Abnormalities in the venous BV include, for example, a thrombus, a portion connected to an artery for a shunt, and the like.
  • a case where the abnormality is a thrombus and the abnormal portion is a location where a thrombus is generated in the vein BV will be described.
  • the method by which the detection unit 36 detects the abnormal portion where the thrombus is generated in the vein BV is not particularly limited.
  • the blood vessel diameter of the vein BV is detected in each of a plurality of ultrasonic images U taken along the vein BV, and the blood vessel diameter is narrower than that of the other ultrasonic images U. It may be in the form of detecting as an abnormal part where the above occurs.
  • typical pattern data of thrombus in vein BV is stored in advance as a template, and the similarity with respect to the pattern data is derived while searching the region of vein BV of the ultrasonic image U with the template, and the similarity is used as a reference. It can be considered that a thrombus is present in the place where the value is exceeded and the maximum is reached.
  • the derivation of similarity includes a method using a learned learning model based on the features of an image representing a thrombus.
  • a machine learning method such as SVM or AdaBoost described above, or a general image recognition method using deep learning described above can be used.
  • the detection unit 36 detects a thrombus in a vein BV in the ultrasonic image U by using a thrombus detection model which is a trained model machine-learned by a plurality of ultrasonic images U labeled for the thrombus.
  • the thrombus detection model is, for example, an algorithm for object detection using deep learning.
  • an object detection model composed of R-CNN (Regional CNN), which is a kind of convolutional neural network (CNN), can be used.
  • the thrombus detection model detects a thrombus as an object in the input ultrasonic image U, and outputs information representing the thrombus in the ultrasonic image U.
  • the detection unit 36 may be in a form of directly detecting an abnormal portion where a thrombus is generated in the vein BV directly from the ultrasonic image U.
  • the detection result of the detection unit 36 is output to the determination unit 38. Specifically, the information representing the vein BV in the ultrasonic image U detected by the detection unit 36 and the information of the abnormal portion where the thrombus is generated in the vein BV are output to the determination unit 38. In this embodiment, the position of the ultrasonic probe 10 associated with the ultrasonic image U is adopted as an abnormal portion.
  • the determination unit 38 has a function of determining the suitability of puncture in the vein BV according to the abnormal portion detected by the detection unit 36 and outputting the determination result. It may not be preferable to perform puncture on the peripheral side of the abnormal site where the vein BV is abnormal. In particular, when blood, infusion, or the like is allowed to flow into the vein BV by puncture, it may not be preferable to perform the procedure on the peripheral side of the abnormal site, and thus this will be described with reference to FIG.
  • the "central side” means the side close to the heart of the subject
  • the "peripheral side” means the terminal side such as the fingertip of the subject. As shown in FIG. 5, in the venous BV, blood flows from the peripheral side to the central side.
  • the blood flow in the venous BV is in the direction from the peripheral side to the central side.
  • thrombus BC When thrombus BC is formed in the vein BV, when thrombus BC is punctured on the peripheral side of the thrombus BC and blood or infusion is inflowed, the inflowed blood or infusion causes the thrombus BC to be exfoliated and the exfoliated thrombus BC is circulated.
  • the present embodiment as shown in FIG. 5, it is considered unsuitable for puncturing the peripheral side of the abnormal portion where thrombus BC is occurring in the vein BV. In other words, it is suitable for puncturing the central side of the vein BV where thrombus BC is occurring.
  • the detection unit 36 of the present embodiment determines that the peripheral side of the abnormal portion where the thrombus BC is generated in the vein BV is unsuitable for puncturing in the vein BV, and the detection unit 36 is more than the abnormal portion.
  • the central side is said to be suitable for puncturing in the vein BV.
  • the determination unit 38 determines that it is unsuitable for puncturing, it outputs information indicating a warning.
  • the ultrasonic image U input from the acquisition unit 34 is added with information indicating warning that it is unsuitable for puncturing and output to the display unit 40.
  • the determination unit 38 determines that it is appropriate for puncturing, only the ultrasonic image U input from the acquisition unit 34 is output to the display unit 40.
  • the display unit 40 has a function of displaying various information such as an ultrasonic image U or an ultrasonic image U to which information indicating a warning output from the display unit 40 is added.
  • Examples of the display unit 40 include an LCD (Liquid Crystal Display), an organic EL (ElectroLuminescence) display, a head-mounted display, and the like.
  • the above-mentioned main body 12 can be configured by, for example, the hardware shown in FIG. FIG. 6 shows a configuration diagram showing an example of the hardware configuration of the main body 12 of the present embodiment.
  • the main body unit 12 includes a display unit 40, a control unit 50, a storage unit 52, an I / F (Interface) unit 54, and an input I / F unit 56.
  • the display unit 40, the control unit 50, the storage unit 52, the communication I / F unit 54, and the input I / F unit 56 are connected to each other via a bus 59 such as a system bus or a control bus so that various information can be exchanged. ing.
  • the control unit 50 controls the overall operation of the main body unit 12.
  • the control unit 50 includes a CPU (Central Processing Unit) 50A, a ROM (Read Only Memory) 50B, and a RAM (Random Access Memory) 50C.
  • the ROM 50B stores in advance various programs including the puncture assist processing program 51 and the photographing program (not shown) executed by the CPU 50A.
  • the RAM 50C temporarily stores various data.
  • the puncture assist processing program 51 of the present embodiment is an example of the information processing program of the present disclosure.
  • the CPU 50A functions as the shooting control unit 30 by executing the shooting program stored in the ROM 50B. Further, the CPU 50A functions as the acquisition unit 34, the detection unit 36, and the determination unit 38 by executing the puncture assist processing program 51 stored in the ROM 50B.
  • the storage unit 52 stores image data of the ultrasonic image U generated by the image generation unit 32, information indicating the position of the ultrasonic probe 10, and various other information.
  • Specific examples of the storage unit 52 include HDD (Hard Disk Drive), SSD (Solid State Drive), SD (Secure Digital) card and the like.
  • the input I / F unit 56 is used for the user to input instructions and various information regarding the shooting of the ultrasonic image U and the like.
  • the input I / F unit 56 is not particularly limited, and examples thereof include various switches, a touch panel, a stylus, a camera, and a mouse.
  • the display unit 40 and the input I / F unit 56 may be integrated into a touch panel display.
  • the communication I / F unit 54 is external to the ultrasonic probe 10, the transmitter 14, the magnetic sensor 16, and the ultrasonic diagnostic apparatus 1 by wireless communication such as WiFi (registered trademark) or Bluetooth (registered trademark) or wired communication. Communicate various information with the device.
  • the main body 12 outputs a control signal for capturing the ultrasonic image U to the ultrasonic probe 10 via the communication I / F section 54.
  • a sound line signal is input from the ultrasonic probe 10 to the main body 12 via the communication I / F section 54.
  • a detection instruction signal for detecting the position of the ultrasonic probe 10 is output from the main body unit 12 to the transmitter 14 via the I / F unit 54.
  • information indicating the position of the ultrasonic probe 10 is input from the magnetic sensor 16 to the main body 12 via the I / F section 54.
  • FIG. 7 shows a flowchart showing an example of the flow of the puncture assisting process executed in the main body 12 of the present embodiment.
  • the puncture assist process shown in FIG. 7 is executed, for example, when the power is turned on to the main body unit 12 or when the user instructs the input I / F unit 56 to execute the puncture assist process.
  • the user uses an ultrasonic probe from the central side to the peripheral side or from the peripheral side to the central side with respect to the site of the subject to be punctured, such as the upper limb or the lower limb.
  • the body surface of the subject is scanned by 10.
  • the region where the body surface of the subject is scanned by the ultrasonic probe 10 in the present embodiment is an example of the predetermined region of the present disclosure. In the following, as an example, a mode in which scanning from the central side to the peripheral side of the subject is predetermined will be described.
  • the acquisition unit 34 determines whether or not scanning of the subject by the ultrasonic probe 10 has started.
  • the method by which the acquisition unit 34 determines whether or not the scanning of the subject has been started is not particularly limited.
  • the acquisition unit 34 may determine that the scan has started by acquiring the scan start information input by the user through the input I / F unit 56.
  • the acquisition unit 34 may determine that the scan is started when the ultrasonic probe 10 changes from the aerial radiation state to the contact state with the subject by using image recognition or a temperature sensor.
  • the aerial radiation state means a state in which the ultrasonic probe 10 is separated from the body surface of the subject and emits ultrasonic waves in the air.
  • the technique described in International Publication No. 2017/033502 can be applied.
  • the technique described in International Publication No. 2017/033502 is that when the ultrasonic probe 10 comes into contact with the body surface of the subject and emits ultrasonic waves into the body of the subject, some structure or structure in the ultrasonic image U, that is, The tissue inside the subject is visualized, but when the ultrasonic probe 10 radiates ultrasonic waves into the air away from the body surface of the subject, it is caused by the fact that the structure is not visualized in the ultrasonic image U. It is a technology.
  • the ultrasonic probe 10 is attached to the subject. It is determined that the contact state is reached. On the other hand, when it is detected that there is no structure in the ultrasonic image U, it is determined that the ultrasonic probe 10 is in an aerial radiation state.
  • step S100 is a negative determination until the scanning of the subject by the ultrasonic probe 10 is started. On the other hand, when the scanning of the subject by the ultrasonic probe 10 is started, the determination in step S100 becomes an affirmative determination, and the process proceeds to step S102.
  • step S102 the acquisition unit 34 starts acquiring the positions of the ultrasonic image U and the ultrasonic probe 10.
  • the acquisition unit 34 of the present embodiment acquires the ultrasonic image U from the image generation unit 32, and magnetically obtains information indicating the position of the ultrasonic probe 10 when the acquired ultrasonic image U is photographed. Obtained from sensor 16.
  • the acquisition unit 34 outputs the ultrasonic image U and the information representing the position of the ultrasonic probe 10 when the ultrasonic image U is taken in association with each other to the detection unit 36.
  • the detection unit 36 stores the acquired ultrasonic image U in the storage unit 52 in a state where the ultrasonic probe 10 is associated with the acquired ultrasonic image U.
  • the acquisition unit 34 determines whether or not the scanning of the subject by the ultrasonic probe 10 has been completed.
  • the method by which the acquisition unit 34 determines whether or not the scanning of the subject has been completed is not particularly limited.
  • the acquisition unit 34 may determine that the scan has been completed by acquiring the scan end information input by the user through the input I / F unit 56. Further, for example, the acquisition unit 34 may determine that the scan is completed when the ultrasonic probe 10 changes from the contact state with the subject to the aerial radiation state.
  • the technique described in step S100 can be applied.
  • step S106 If the scanning of the subject by the ultrasonic probe 10 has not been completed, the determination in step S106 becomes a negative determination, the process returns to step S102, the processing of steps S102 and S104 is repeated, and the positions of the ultrasonic image U and the ultrasonic probe 10 The acquisition and memory of are repeated. On the other hand, when the scanning of the subject by the ultrasonic probe 10 is completed, the determination in step S106 becomes an affirmative determination, and the process proceeds to step S108.
  • step S108 the acquisition unit 34 finishes acquiring the positions of the ultrasonic image U and the ultrasonic probe 10.
  • the detection unit 36 detects the vein BV from the ultrasonic image U as described above.
  • the detection unit 36 detects an abnormal portion where thrombus BC is generated from the vein BV in the ultrasonic image U as described above. Specifically, the position of the ultrasonic probe 10 when the ultrasonic image U in which the thrombus BC is generated in the vein BV is taken is detected. When a plurality of vein BVs are detected in step S110, thrombus BC in each vein BV is detected. Further, when a plurality of thrombus BCs are detected for one vein BV, the abnormal location where each thrombus BC is generated is detected for all thrombus BCs. The detection unit 36 outputs information indicating an abnormal location where the detected thrombus BC is occurring to the determination unit 38.
  • step S114 the determination unit 38 determines whether or not there is an abnormal portion.
  • an abnormal part is detected in step S112, specifically, when information indicating that there is no abnormal part is input from the detection unit 36 to the determination unit 38, thrombus BC for all vein BVs in the scan range. Is not generated, so that the determination in step S114 is a negative determination, and the process proceeds to step S116.
  • step S116 the determination unit 38 outputs to the display unit 40 information indicating that there is no abnormal location where thrombus BC has occurred in all the vein BVs in the scan range.
  • the information 80 indicating that there is no abnormal portion is displayed on the display unit 40, as in the example shown in FIG.
  • the user performs puncture at a desired portion in the scan range.
  • the subject is scanned again by the ultrasonic probe 10 to take an ultrasonic image U, and the ultrasonic image U acquired by the image generation unit 32 and displayed on the display unit 40 is referred to, so-called echo. Guided puncture may be performed. Further, the subject may not be scanned, in other words, the puncture may be performed without taking the ultrasonic image U.
  • the puncture assist process shown in FIG. 7 is completed.
  • step S114 when an abnormal part is detected in step S112, the determination in step S114 becomes an affirmative determination, and the process proceeds to step S118.
  • step S118 the determination unit 38 derives a position unsuitable for puncturing. As shown in FIG. 5, the determination unit 38 derives each detected vein BV as an unsuitable position for puncturing the peripheral side of the abnormal site where thrombus BC is occurring. In other words, the determination unit 38 derives each detected vein BV as an appropriate position for puncturing the central side of the abnormal site where thrombus BC is occurring.
  • the peripheral side of the most central side thrombus BC is generated. Is derived as an unsuitable position for puncturing.
  • the determination unit 38 is a position suitable for puncturing the position on the central side of the abnormal part where the thrombus BC on the most central side is generated.
  • the determination unit 38 is unsuitable for puncturing the blood vessel B at that part.
  • the site on the opposite side may be derived as an appropriate position for puncturing.
  • the information 80 indicating that there is no abnormal portion is not displayed on the display unit 40.
  • the user can recognize that the abnormal portion exists in the vein BV within the scan range. In this case, the user scans the scan range again to find the location where the puncture is to be performed.
  • step S120 the acquisition unit 34 determines whether or not the scanning of the subject by the ultrasonic probe 10 has been started in the same manner as in the above step S100.
  • the determination in step S120 is a negative determination until the scanning of the subject is started.
  • the determination in step S120 becomes an affirmative determination, and the process proceeds to step S122.
  • step S122 the acquisition unit 34 acquires the positions of the ultrasonic image U and the ultrasonic probe 10.
  • the acquisition unit 34 outputs the ultrasonic image U and the information representing the position of the ultrasonic probe 10 when the ultrasonic image U is taken in association with each other to the determination unit 38.
  • the determination unit 38 determines whether or not the position of the ultrasonic probe 10 acquired in the step S122 is on the peripheral side of the abnormal portion where the thrombus BC detected in the step S112 is occurring. ..
  • the determination unit 38 of the present embodiment determines whether or not the position of the ultrasonic probe 10 is included in the position where the puncture derived in step S118 is inappropriate, and whether or not it is on the peripheral side of the abnormal part. Is determined. If the position of the ultrasonic probe 10 is not on the peripheral side of the abnormal location where thrombus BC is occurring, in other words, if it is on the central side of the abnormal location where thrombus BC is occurring, the determination in step S124 is a negative determination. , The process proceeds to step S126.
  • step S126 the determination unit 38 outputs the ultrasonic image U acquired in step S122 to the display unit 40, and then proceeds to step S130.
  • FIG. 9A shows an example of the ultrasonic image U displayed on the display unit 40 in this case.
  • FIG. 9A an example of a state in which an ultrasonic image U including two veins BV of vein BV1 and vein BV2 is displayed on the display unit 40 is shown.
  • FIG. 9A an example of a form in which information 821 and 822 indicating the respective positions are added to each of the vein BV1 and the vein BV2 is shown. In the example shown in FIG .
  • FIG. 9A an example of a form in which a relatively thick solid line surrounding the outer shapes of the veins BV1 and BV2 is applied as information 821 and 822 is shown.
  • the determination unit 38 of the present embodiment adds information indicating the position of the vein BV to the ultrasonic image U and outputs the information to the display unit 40.
  • the information indicating the position of the vein BV is not limited to the forms shown as information 821 and 822 .
  • the outer shape of the vein BV may be surrounded by a relatively conspicuous solid line.
  • the user can use the current position of the ultrasonic probe 10 to puncture the vein BV displayed on the display unit 40. It is possible to recognize that the position is correct.
  • the determination unit 38 can guide the user to the position of the vein BV by emphasizing the vein BV detected in step S110 of the ultrasonic image U output to the display unit 40.
  • step S124 determines whether the position of the ultrasonic probe 10 is on the peripheral side of the abnormal location where the thrombus BC is generated in step S124. If the position of the ultrasonic probe 10 is on the peripheral side of the abnormal location where the thrombus BC is generated in step S124, the determination becomes affirmative and the process proceeds to step S128.
  • FIG. 9B shows an example of the ultrasonic image U displayed on the display unit 40 in this case and the information 84 representing the warning. In the example shown in FIG.
  • FIG. 9B an example of a state in which an ultrasonic image U including two veins BV of vein BV1 and vein BV2 and information 84 indicating a warning for vein BV1 is displayed on the display unit 40 is shown.
  • an ultrasonic image U including two veins BV of vein BV1 and vein BV2 and information 84 indicating a warning for vein BV1 is displayed on the display unit 40.
  • information indicating a warning recognizable as to which vein BV among the plurality of vein BVs has a thrombus on the central side. 84 is displayed.
  • FIG. 9B an example of a form in which information 823 and 822 indicating the respective positions are added to each of the vein BV1 and the vein BV2 is shown.
  • the vein BV1 for which puncture is inappropriate and the vein BV2 for which puncture is appropriate have display forms of information 823 and 822 indicating their respective positions. By making them different, the suitability of puncture can be displayed more clearly.
  • the method of different display forms is not particularly limited, and for example, as shown in FIG. 9B, a form of different line types such as a solid line or a dotted line may be used. Further, for example, the line color may be different.
  • the user can recognize that the position is unsuitable for puncturing the vein BV1. In this case, the user performs the puncture at a position on the central side of the current position of the ultrasonic probe 10.
  • step S130 the determination unit 38 determines whether or not the puncture has been completed.
  • the ultrasonic probe 10 changes from the contact state with the subject to the aerial radiation state. If a predetermined termination condition is satisfied, such as when the puncture is completed, it is determined that the puncture has been completed. If the end condition is not satisfied, the determination in step S130 becomes a negative determination, the process returns to step S120, and the processes of steps S120 to S130 are repeated. On the other hand, if the end condition is satisfied in step S130, a positive determination is made and the puncture assist process shown in FIG. 7 is terminated.
  • the transmitter 14 is fixed at a predetermined position on the head side of the bed on which the subject lies, but the position where the transmitter 14 is provided is limited to this embodiment. Not done.
  • the transmitter 14 may be directly fixed to a predetermined portion such as the wrist or ankle of the subject.
  • the detection of the position of the ultrasonic probe 10 does not have to derive the three-dimensional position as described above, and it is more specific which position in the scan region from the central side to the peripheral side of the subject.
  • the detection method and the like are not particularly limited as long as it is possible to determine whether the position is on the central side or the peripheral side with respect to the abnormal location. For example, when the transmitter 14 is fixed at a predetermined position on the head side of the bed on which the subject lies, as in the above embodiment, the distance between the transmitter 14 and the magnetic sensor 16 becomes long. , It can be detected that the ultrasonic probe 10 is located on the peripheral side. Further, when the distance between the transmitter 14 and the magnetic sensor 16 becomes short, it can be detected that the ultrasonic probe 10 is located on the central side.
  • Modification 1 a modification of the method of acquiring the position of the ultrasonic probe 10 will be described as a modification of a form using an imaging device for capturing a distance image.
  • the ultrasonic diagnostic apparatus 1 of the present embodiment includes a TOF camera 90 in place of the transmitter 14 and the magnetic sensor 16 of the ultrasonic diagnostic apparatus 1 (see FIG. 1) of the above embodiment. Since other configurations are the same as those of the ultrasonic diagnostic apparatus 1 (see FIG. 1) of the above-described embodiment, the description in FIG. 10 is omitted.
  • the TOF (Time of Flight) camera 90 is a camera that uses the TOF method to capture a distance image representing the distance to the subject to be captured. Specifically, the TOF camera 90 takes a picture with the TOF camera 90 based on the time until the object to be photographed is irradiated with light such as infrared rays and the reflected light is received, or the phase change between the emitted light and the received light. Measure the distance to the subject.
  • the distance image taken by the TOF camera 90 has distance information representing the distance between the TOF camera 90 and the shooting target for each pixel.
  • the distance image is an image capable of deriving the distance from the image to the object to be photographed.
  • the distance image taken by the TOF camera 90 has information representing the distance between the TOF camera 90 and the shooting target as a pixel value of each pixel.
  • a landmark is provided on the wrist or ankle of the subject, or on the head or ankle side of the bed on which the subject lies when puncturing, as a mark for measuring the distance.
  • the TOF camera 90 is installed on the ultrasonic probe 10, and the TOF camera 90 captures a distance image showing the distance between the landmark and the TOF camera 90.
  • the acquisition unit 34 acquires a distance image from the TOF camera 90 via the I / F unit 54.
  • the acquisition unit 34 acquires the position of the ultrasonic probe 10 by deriving the distance between the ultrasonic probe 10 and the landmark from the pixel value of the acquired distance image.
  • the ultrasonic probe 10 when the landmark is provided on the peripheral side such as the ankle of the subject, it can be derived that the ultrasonic probe 10 is located on the peripheral side as the distance derived from the distance image becomes smaller. .. Further, for example, when the landmark is provided on the central side such as the head of the subject, it can be derived that the ultrasonic probe 10 is located on the peripheral side as the distance derived from the distance image increases. can. As described above, since the pixel value of the distance image corresponds to the distance between the TOF camera 90 and the shooting target, the pixel value may be used instead of the distance without deriving the distance itself.
  • a TOF camera 90 is provided on the wrist or ankle of the subject, or on the head side or ankle side of the subject on the bed on which the subject lies when puncturing, and the landmark is an ultrasonic probe. It may be provided on the 10 or the ultrasonic probe 10 itself may be used as a landmark.
  • a form of taking a distance image using the TOF camera 90 has been described, but a form of taking a distance image using another photographing device may be used.
  • a form of shooting a distance image by applying the Structured Light method using a distance image shooting device that irradiates the shooting target with infrared light with a pattern and shoots a distance image according to the reflected light from the shooting target. May be.
  • a DFD (Depth from Defocus) method for restoring the distance based on the degree of blurring of the edge region reflected in the distance image may be applied.
  • a form using a distance image taken by a monocular camera using a color aperture filter is known.
  • the ultrasonic diagnostic apparatus 1 of the present embodiment includes an optical position sensor 92 in place of the transmitter 14 and the magnetic sensor 16 of the ultrasonic diagnostic apparatus 1 (see FIG. 1) of the above embodiment. .. Since other configurations are the same as those of the ultrasonic diagnostic apparatus 1 (see FIG. 1) of the above-described embodiment, the description in FIG. 11 is omitted.
  • the optical position sensor 92 is an optical sensor that applies the principle of triangulation, and is the angle of the reflected light reflected by the object to be measured when the distance to the object to be measured changes, in other words, it is collected on the light receiving element. It has a function to measure the distance to the object to be measured by utilizing the change of the position.
  • the light position sensor 92 includes a light emitting LED (Light Emitting Diode) 93A and a light receiving element 93B.
  • the light projecting LED 93A has a function of projecting the measurement light onto the object to be measured, and examples thereof include a laser diode.
  • the light receiving element 93B has a function of receiving the reflected light generated by the measurement light projected from the light projecting LED 93A being reflected by the measurement object, and examples thereof include a photocoupler and the like.
  • the optical position sensor 92 derives the distance from the light collecting position on the light receiving element 93B to the object to be measured.
  • the measurement light projected from the optical position sensor 92 is reflected on the wrist or ankle of the subject, or on the head side or ankle side of the subject on which the subject lies when puncturing.
  • a reflector is provided.
  • an ultrasonic probe 10 optical position sensor 92 is installed, and the distance between the reflector and the optical position sensor 92 is measured by the optical position sensor 92.
  • the acquisition unit 34 acquires the distance between the reflector and the optical position sensor 92 from the optical position sensor 92 via the I / F unit 54.
  • the acquisition unit 34 acquires the position of the ultrasonic probe 10 by acquiring the distance between the acquired reflector and the optical position sensor 92.
  • the ultrasonic probe 10 is located on the peripheral side as the distance between the reflector and the optical position sensor 92 becomes smaller. be able to.
  • the ultrasonic probe 10 is located on the peripheral side as the distance between the reflector and the optical position sensor 92 increases. can do.
  • the optical position sensor 92 is provided on the wrist or ankle of the subject, or on the head side or ankle side of the subject on the bed on which the subject lies when puncturing, and the reflector is ultrasonically oriented. It may be provided on the probe 10 or the ultrasonic probe 10 itself may be used as a reflector.
  • the method for acquiring the position of the ultrasonic probe 10 is not limited to the above modifications 1 and 2, and various other methods can also be applied.
  • the position of the ultrasonic probe 10 may be acquired by using GPS (Global Positioning System).
  • GPS Global Positioning System
  • the acquisition unit 34 from the GPS via the I / F unit 54.
  • the ultrasonic probe 10 is located on the peripheral side as the distance derived from each position of the base point and the ultrasonic probe 10 becomes smaller. be able to.
  • the main body portion 12 of the above-described embodiment includes an acquisition unit 34 for acquiring an ultrasonic image U of a vein BV in a predetermined region from the center to the periphery of a subject, and a vein BV from the acquired ultrasonic image U. It is provided with a detection unit 36 for detecting an abnormal portion in which an abnormality has occurred, and a determination unit 38 for determining the appropriateness of puncture in the vein BV according to the detected abnormal portion and outputting the determination result.
  • the main body portion 12 of the present embodiment it is possible to assist the user who punctures the blood vessel as described above in the puncture position in consideration of the abnormality of the blood vessel. Further, according to the main body portion 12 of each of the above forms, the user who performs the puncture can easily recognize the position suitable for the puncture, so that it becomes easy to specify the position of the blood vessel B or the blood vessel suitable for the puncture.
  • the present invention is not limited to this embodiment, and the detection of an abnormal portion in the vein BV and the puncture of the vein BV may be performed at different timings. That is, the processing from steps S100 to S118 of the puncture assist processing shown in FIG. 7 is performed in advance, and the position unsuitable for puncturing or the position suitable for puncturing is used as the puncture suitability position information for the subject and the subject. It may be in a form of being stored in the storage unit 52 or the like in association with the puncture site. When actually performing puncture, the puncture suitability position information stored in the storage unit 52 may be read out, and the process of shifting to step S120 of the puncture assist process shown in FIG. 7 may be performed.
  • the present invention is not limited to this form, and for example, a form in which an abnormal portion is detected and punctured by one scan may be used.
  • the main body 12 sequentially acquires the ultrasonic image U and detects the abnormal portion, and the abnormal portion is detected.
  • Information indicating a warning at a time point may be displayed on the display unit 40. The user who performs the puncture can recognize the area scanned before the time when the information indicating the warning is displayed on the display unit 40 as a position suitable for puncturing.
  • the display unit 40 may have a form in which the display unit 40 displays other information for assisting the puncture in addition to the ultrasonic image U and the information indicating the suitability of the puncture.
  • FIG. 12 shows a morphological example in which the ultrasonic image U1 and the puncture area map M are displayed in a sub-window.
  • the ultrasonic image U1 is an image obtained by extracting a thrombus BC portion from the ultrasonic image U.
  • the determination unit 38 generates an ultrasonic image U1 by cutting out an abnormal portion from the detected ultrasonic image U and displays it on the display unit 40 as a sub-ind. By displaying the ultrasonic image U1 in this way, the user can confirm the condition of the thrombus BC, which can be useful for the treatment of the thrombus BC.
  • the puncture area map M is a map that clearly shows the scan area and the abnormal part.
  • the puncture area map M includes scan area information 96 representing a scan area and abnormality location information 98 representing an abnormal location.
  • the determination unit 38 acquires the puncture site schematic diagram 94 by specifying the puncture site such as the right lower limb or the upper left arm input by the photographing menu or the input I / F unit 56 by the user.
  • the determination unit 38 provides scan area information 96 based on the position of the detected ultrasonic probe 10 on the acquired schematic diagram of the puncture site 94, and provides abnormality location information 98 based on the position of the detected abnormal location. ..
  • the display unit 40 for displaying the puncture area map M is a head-mounted display worn by the user, and instead of the puncture site schematic diagram 94, the scan area information 96 and the abnormality location information 98 are displayed on the body surface of the actual subject. May be displayed.
  • a field image including the ultrasonic probe 10 is acquired by an image pickup device provided on a head-mounted display, the operation position by the ultrasonic probe 10 is detected by analyzing the field image, and the scanned area is scanned area information 96. It may be displayed on the body surface of the subject.
  • the form of puncturing the vein BV has been described, but the form of puncturing the artery may be used.
  • the central side of the abnormal part where thrombus BC is generated is regarded as an unsuitable position for puncture, and the peripheral side of the abnormal part. Should be in an unsuitable position for puncture.
  • the main body 12 is an example of the information processing device of the present disclosure
  • devices other than the main body 12 may have the functions of the information processing device of the present disclosure.
  • a part or all of the functions of the acquisition unit 34, the detection unit 36, and the determination unit 38 may be provided by, for example, an ultrasonic probe 10 or an external device other than the main body unit 12.
  • the image generation unit 32 that generates the ultrasonic image U based on the sound line signal is provided in the main body unit 12, but instead of this, the image generation unit 32 is the ultrasonic probe 10. It may be provided inside. In this case, the ultrasonic probe 10 generates an ultrasonic image U and outputs it to the main body 12.
  • the CPU 50A of the control unit 50 of the main body unit 12 performs puncture assist processing or the like based on the ultrasonic image U input from the ultrasonic probe 10.
  • the display unit 40, the input I / F unit 56, and the ultrasonic probe 10 are provided in the main body unit 12
  • the display unit 40, the input I / F unit 56, and the supersonic probe 10 have been described.
  • the sound wave probe 10 and the control unit 50 may be indirectly connected via a network.
  • the display unit 40, the input I / F unit 56, and the ultrasonic probe 10 are connected to the main body unit 12 via the network NW.
  • the main body 12 is obtained by removing the display unit 40 and the input I / F unit 56 from the main body 12 of the above-described embodiment shown in FIG. 1 and adding a transmission / reception circuit 22, a transmission / reception circuit 22, a control unit 50, and a transmission / reception circuit 22.
  • a storage unit 52 is provided.
  • the ultrasonic probe 10 is the ultrasonic probe 10 of the above-described embodiment shown in FIG. 1 excluding the transmission / reception circuit 22.
  • the display unit 40, the input I / F unit 56, and the ultrasonic probe 10 are connected to the main body unit 12 via the network NW, so that the main body unit 12 can be used as a so-called remote server.
  • the user can prepare the display unit 40, the input I / F unit 56, and the ultrasonic probe 10 at the user's hand, which improves convenience.
  • the display unit 40 and the input I / F unit 56 with a mobile terminal such as a smartphone or a tablet terminal, the convenience is further improved.
  • the display unit 40 and the input I / F unit 56 are provided in the main body unit 12, and the ultrasonic probe 10 is connected to the main body unit 12 via the network NW.
  • the main body 12 may be configured by a remote server. It is also possible to configure the main body 12 with a mobile terminal such as a smartphone or a tablet terminal.
  • various processors shown below are used.
  • the various processors include CPUs, which are general-purpose processors that execute software (programs) and function as various processing units, as well as circuits after manufacturing FPGAs (Field Programmable Gate Arrays) and the like.
  • Dedicated electricity which is a processor with a circuit configuration specially designed to execute specific processing such as programmable logic device (PLD), ASIC (Application Specific Integrated Circuit), which is a processor whose configuration can be changed. Circuits etc. are included.
  • One processing unit may be composed of one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). It may be composed of a combination). Further, a plurality of processing units may be configured by one processor.
  • one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a client and a server.
  • the processor functions as a plurality of processing units.
  • SoC System On Chip
  • the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.
  • an electric circuit in which circuit elements such as semiconductor elements are combined can be used.
  • each of the puncture assist processing programs 51 is recorded on a recording medium such as a CD-ROM (Compact Disc Read Only Memory), a DVD-ROM (Digital Versatile Disc Read Only Memory), and a USB (Universal Serial Bus) memory. May be provided. Further, each of the puncture assist processing programs 51 may be downloaded from an external device via a network.
  • a recording medium such as a CD-ROM (Compact Disc Read Only Memory), a DVD-ROM (Digital Versatile Disc Read Only Memory), and a USB (Universal Serial Bus) memory. May be provided.
  • each of the puncture assist processing programs 51 may be downloaded from an external device via a network.
  • [Appendix 1] Equipped with at least one processor
  • the processor Obtain an ultrasound image of a vein in a predetermined area from the center to the periphery of the subject. From the acquired ultrasonic image, the abnormal part where the abnormality has occurred in the vein was detected, and The suitability of puncture in the vein is determined according to the detected abnormal location, and the determination result is output. Information processing equipment.
  • Appendix 2 The information processing device according to Appendix 1, wherein the processor is determined to be unsuitable for puncturing at a position peripheral to the abnormal location.
  • Appendix 3 The processor The information processing apparatus according to Appendix 1 or Appendix 2, which determines that puncture at a position on the peripheral side of the abnormal location located on the most central side is unsuitable when a plurality of the abnormal locations are detected.
  • [Appendix 7] Equipped with at least one processor
  • the processor Obtain an ultrasound image of a blood vessel in a predetermined area from the center to the end of the subject, Detect the abnormal part where the blood vessel is abnormal from the acquired ultrasonic image, An information processing device that determines that puncture of the blood vessel at a position upstream of the detected abnormal location is inappropriate and outputs the determination result.
  • Ultrasonic diagnostic device 10 Ultrasonic probe 12 Main body 14 Transmitter 16 Magnetic sensor 20 Oscillator array 22 Transmission / reception circuit 24 Transmission circuit 26 Reception circuit 30 Imaging control unit 32 Image generation unit 34 Acquisition unit 36 Detection unit 38 Judgment unit 40 Display unit 50 control unit, 50A CPU, 50B ROM, 50C RAM 51 Puncture assist processing program 52 Storage unit 54 Communication I / F unit 56 Input I / F unit 59 Bus 60 Amplification unit 62 A / D conversion unit 64 Beamformer 70 Signal processing unit 72 DSC 74 Image processing unit 80, 82 1 to 823 , 84 Information 90 TOF camera 92 Optical position sensor 93A Light emitting LED, 93B Light receiving element 94 Sampling site schematic diagram 96 Scan area information 98 Abnormal location information B Blood vessel BC Blood clot BV, BV1, BV2 Vein D Depth direction M Puncture area map N Sampling needle NW Network S Body surface U, U1 Ultrasonic image

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Vascular Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

被検体の中枢から末梢に至る所定の領域の静脈の超音波画像を取得する取得部と、取得した超音波画像から前記静脈に異常が生じている異常箇所を検出する検出部と、検出した異常箇所に応じて前記静脈における穿刺の適否を判定し、判定結果を出力する判定部と、を備えた情報処理装置。

Description

情報処理装置、超音波診断装置、情報処理方法、及び情報処理プログラム
 本開示は、情報処理装置、超音波診断装置、情報処理方法、及び情報処理プログラムに関する。
 被検体に向けて送信した超音波による超音波エコーを受信し、受信した超音波エコーに基づく受信信号を出力する超音波プローブを用いて被検体の超音波画像を撮影する超音波診断装置が知られている。
 超音波画像を用いて血管の異常を検出する技術として、例えば特開2009-195585号公報、及び特開2018-000346号公報に記載の技術が知られている。特開2009-195585号公報に記載の技術では、超音波プローブで被検体の体表上を走査して得られたボリュームデータを用いて導出された血管の内腔の面積に基づいて血管における狭窄候補の位置を特定する技術が記載されている。また特開2018-000346号公報には、被検体の超音波画像に基づいて検出した血管における血流に基づいて異常部位を判定する技術が記載されている。
 ところで、いわゆる穿刺針及びカテーテル等の挿入物を挿入することで被検体の血管を穿刺することが行われている。エコーガイド下穿刺法等のように穿刺方法として、被検体の血管の超音波画像を撮影し、撮影された超音波画像に写る血管を参考にして穿刺を行う手法が知られている。
 穿刺を行う場合、血管に異常が生じている場合、生じている異常について考慮する必要があった。特開2009-195585号公報、及び特開2018-000346号公報に記載の技術によれば血管に異常が生じている異常箇所を、穿刺を行うユーザに提示することができるものの穿刺を行う場合については十分には考慮されていなかった。
 本開示は上記事情を考慮して成されたものであり、血管の穿刺を行うユーザに対して血管の異常を考慮した穿刺位置の補助を行うことができる情報処理装置、超音波診断装置、情報処理方法、及び情報処理プログラムを提供する。
 本開示の第1の態様の情報処理装置は、被検体の中枢から末梢に至る所定の領域の静脈の超音波画像を取得する取得部と、取得した超音波画像から静脈に異常が生じている異常箇所を検出する検出部と、検出した異常箇所に応じて静脈における穿刺の適否を判定し、判定結果を出力する判定部と、を備える。
 本開示の第2の態様の情報処理装置は、第1の態様の情報処理装置において、判定部は、異常箇所よりも末梢側の位置における穿刺について不適であると判定する。
 本開示の第3の態様の情報処理装置は、第1の態様または第2の態様の情報処理装置において、判定部は、検出部が複数の異常箇所を検出した場合、最も中枢側に位置する異常箇所よりも末梢側の位置における穿刺について不適であると判定する。
 本開示の第4の態様の情報処理装置は、第1の態様から第3の態様のいずれか1態様の情報処理装置において、取得部は、取得した超音波画像を撮影した際の超音波プローブの位置をさらに取得し、判定部は、検出部の検出結果と、超音波プローブの位置とに基づいて穿刺の適否を判定する。
 本開示の第5の態様の情報処理装置は、第1の態様から第4の態様のいずれか1態様の情報処理装置において、判定部は、判定結果として警告を表す情報を出力する。
 本開示の第6の態様の情報処理装置は、第1の態様から第5の態様のいずれか1態様の情報処理装置において、検出部は、超音波画像から静脈を検出する。
 本開示の第7の態様の情報処理装置は、被検体の中枢から末端に至る所定の領域の血管の超音波画像を取得する取得部と、取得した超音波画像から血管に異常が生じている異常箇所を検出する検出部と、検出した異常箇所よりも血流が上流側の位置における血管の穿刺が不適切であると判定し、判定結果を出力する。
 本開示の第8の態様の超音波診断装置は、送信した超音波による超音波エコーを受信して受信した超音波エコーに基づく受信信号を出力する超音波プローブと、超音波プローブから入力された受信信号に基づいて超音波画像を生成する画像生成部と、本開示の情報処理装置と、を備える。
 本開示の第9の態様の情報処理方法は、被検体の中枢から末梢に至る所定の領域の静脈の超音波画像を取得し、取得した超音波画像から静脈に異常が生じている異常箇所を検出し、検出した異常箇所に応じて静脈における穿刺の適否を判定し、判定結果を出力する、処理をコンピュータが実行するための方法である。
 本開示の第10の態様の情報処理プログラムは、被検体の中枢から末梢に至る所定の領域の静脈の超音波画像を取得し、取得した超音波画像から静脈に異常が生じている異常箇所を検出し、検出した異常箇所に応じて静脈における穿刺の適否を判定し、判定結果を出力する、処理をコンピュータに実行させるためのものである。
 本開示によれば、血管の穿刺を行うユーザに対して血管の異常を考慮した穿刺位置の補助を行うことができる。
実施形態の超音波診断装置における全体の構成の一例を示すブロック図である。 受信回路の構成の一例を示すブロック図である。 画像生成部の構成の一例を示すブロック図である。 短軸法により撮影された超音波画像の一例を示す図である。 長軸法により撮影された超音波画像の一例を示す図である。 異常箇所に対する穿刺の適否を説明するための図である。 実施形態の本体部のハードウェア構成の一例を表す構成図である。 実施形の本体部による穿刺補助処理の流れの一例を表したフローチャートである。 異常箇所が無いことを表す情報が表示部に表示された状態の一例を示す図である。 穿刺が適切な位置で撮影された超音波画像が表示部に表示された状態の一例を示す図である。 穿刺が不適な位置で撮影された超音波画像及び警告を表す情報が表示部に表示された状態の一例を示す図である。 変形例1の超音波診断装置における一部の構成の一例を示すブロック図である。 変形例2の超音波診断装置における一部の構成の一例を示すブロック図である。 穿刺が不適な位置で撮影された超音波画像及び警告を表す情報が表示部に表示された状態の他の例を示す図である。 超音波診断装置の変形例の全体の構成の一例を示す図である。 超音波診断装置の他の変形例の全体の構成の一例を示す図である。
 以下、図面を参照して本開示の実施形態を詳細に説明する。なお、本実施形態は本開示を限定するものではない。
 まず、本実施形態の超音波診断装置における、全体の構成の一例について説明する。図1には、本実施形態の超音波診断装置1における全体の構成の一例を表したブロック図が示されている。図1に示すように本実施形態の超音波診断装置1は、超音波プローブ10及び本体部12を備える。
 超音波プローブ10は、振動子アレイ20と、送信回路24及び受信回路26を含む送受信回路22とを備える。振動子アレイ20は、1次元状、又は2次元状に配列された複数の振動子(図示省略)を備える。一例として本実施形態では、超音波プローブ10が、複数の振動子が直線状に配列されたリニア型の超音波プローブである形態について説明する。なお、超音波プローブ10は、本形態に限定されず、振動子が湾曲して配列されたコンベックス型又はセクタ型の超音波プローブであってもよい。複数の振動子の各々は、送信回路24から印可される駆動信号に基づいて超音波を送信するとともに、被検体内で生じた超音波エコーを受信して、受信した超音波エコーに応じた電気信号を出力する。
 複数の振動子の各々は、例えば、PZT(Lead Zirconate Titanate)に代表される圧電セラミック、PVDF(Poly Vinylidene Di Fluoride)に代表される高分子圧電素子、及び、PMN-PT(Lead Magnesium Niobate-Lead Titanate)に代表される圧電単結晶等の圧電性を有する材料である圧電体の両端に電極を形成することにより構成される。
 送信回路24は、振動子アレイ20から被検体に向けて超音波ビームの送信を行わせる。具体的には、送信回路24は、例えば、複数のパルス発生器(図示省略)を含んでおり、本体部12の撮影制御部30からの制御信号に応じて選択された送信遅延パターンに基づき、振動子アレイ20が有する複数の振動子の各々に対して、それぞれの遅延量を調整して駆動信号を供給して電圧を印加する。それぞれの駆動信号は、パルス状又は連続波状の電圧信号であり、振動子アレイ20の振動子の電極に電圧が印加されると、圧電体が伸縮する。以上の結果、それぞれの振動子からパルス状又は連続波状の超音波が発生し、それらの超音波の合成波から超音波ビームが形成される。
 送信された超音波ビームは、被検体内の各部位(例えば、血管及び他の組織等)及び被検体内に配置された器具等にて反射されることで超音波エコーが発生する。発生した超音波エコーは、被検体内を伝搬して振動子アレイ20が有する複数の振動子によって受信される。各振動子は、受信した超音波エコーに応じた電気信号を発生させる。各振動子において発生した電気信号は受信回路26に出力される。
 受信回路26は、本体部12の撮影制御部30からの制御信号に従い、振動子アレイ20から出力される信号(厳密には、アナログの電気信号)に対する処理を行って、音線信号を生成する。図2には、本実施形態の受信回路26の構成の一例を表すブロック図が示されている。図2に示すように受信回路26は、例えば、増幅部60、AD(Analog Digital)変換部62、及びビームフォーマ64を有する。
 増幅部60は、振動子アレイ20が有する複数の振動子の各々から出力された電気信号を増幅し、増幅後の電気信号をAD変換部62に出力する。AD変換部62は、増幅後の電気信号をデジタルの受信データに変換し、変換された各受信データをビームフォーマ64に出力する。ビームフォーマ64は、本体部12の撮影制御部30からの制御信号に応じて選択された受信遅延パターンに基づいて設定される音速又は音速の分布に従い、AD変換部62によって変換された各受信データに対してそれぞれの遅延を与えて加算して、受信フォーカス処理を行う。この受信フォーカス処理により、AD変換部62で変換された各受信データが整相加算され、且つ、超音波エコーの焦点が絞り込まれた音線信号が生成される。生成された音線信号は、本体部12の画像生成部32に出力される。
 一方、本体部12は、撮影制御部30、画像生成部32、取得部34、検出部36、判定部38、及び表示部40を備える。一例として本実施形態の本体部12は、スマートフォン、またはタブレット端末等の携帯型端末装置である。本体部12は、アプリケーションソフト等のプログラムがインストールされることにより、超音波プローブ10により被検体を走査することにより得られた音線信号から被検体内の組織に関するBモード画像(断層画像)である超音波画像を撮影する機能を有する。本実施形態の本体部12は、本開示の情報処理装置の一例である。
 撮影制御部30は、超音波画像の撮影を行う場合、上述したように超音波プローブ10の送受信回路22に制御信号を出力する機能を有する。撮影制御部30から出力された制御信号が送信回路24及び受信回路26に入力されることにより、上述したように超音波プローブ10の受信回路26から音線信号が画像生成部32に出力される。
 画像生成部32は、超音波プローブ10の受信回路26から入力された音線信号に基づいて超音波画像を生成する機能を有する。図3には、本実施形態の画像生成部32の構成の一例を表すブロック図が示されている。図3に示すように画像生成部32は、例えば、信号処理部70、DSC(Digital Scan Converter)72、及び画像処理部74を有する。信号処理部70は、受信回路26によって生成された音線信号に対し、超音波の反射位置の深度に応じて距離による減衰の補正を施した後、包絡線検波処理を施すことにより、超音波画像Uを示すBモード画像信号を生成する。DSC72は、信号処理部70で生成されたBモード画像信号を、ラスター変換等により、通常のテレビジョン信号の走査方式に従う画像信号に変換する。画像処理部74は、DSC72から入力されるBモード画像信号に階調処理等の各種の必要な画像処理を施した後、Bモード画像信号を出力する。画像生成部32から出力されたBモード画像信号が、超音波画像Uに相当する。
 超音波プローブ10の送受信回路22及び本体部12の画像生成部32は、撮影制御部30の制御によって、超音波画像の撮影期間中、超音波画像を一定のフレームレートにて連続して複数回取得する。
 なお、超音波プローブ10を被検体に接触させた状態で移動させることで、超音波画像によって断層が観察される部位が変化し、また、超音波プローブ10を被検体に接触させる向きを変えることで、被検体内の血管等の観察方向を切り替えることができる。例えば、振動子アレイ20において複数の振動子が配列された方向(すなわち、走査方向)を血管及び挿入物の延出方向と交差する向きで超音波プローブ10が被検体に接触する場合、すなわち短軸法(交差法)を採用する場合には、超音波画像において血管及び挿入物の横断面が観察される。図4Aには、短軸法により撮影された超音波画像Uの一例を示す。図4Aに示した超音波画像Uには、血管Bの横断面と、挿入物の一例である穿刺針Nの横断面とが示されている。ここで、血管B及び穿刺針N各々の横断面とは、血管B及び穿刺針N各々の延出方向と直交する切断面を意味する。
 他方、振動子アレイ20における振動子の配列方向(走査方向)が血管及び挿入物の延出方向と沿う向きで超音波プローブ10が被検体に接触する場合、すなわち長軸法(平行法)を採用する場合には、超音波画像において血管及び挿入物の縦断面が観察される。図4Bには、長軸法により撮影された超音波画像Uの一例を示す。図4Bに示した超音波画像Uには、血管Bの縦断面と、挿入物の一例である穿刺針Nの縦断面とが示されている。ここで、血管B及び穿刺針N各々の縦断面とは、血管B及び穿刺針N各々の延出方向に沿った切断面を意味する。
 なお、本実施形態では、図4A及び図4Bに示すように、超音波画像Uにおいて、体表面Sと被検体の内部とを結ぶ方向を深度方向Dという。深度方向Dは、超音波画像Uにおける複数の走査線が延びる方向に対応する。超音波画像U中の血管Bや穿刺針N等の各部分は、深度方向Dにおいて、超音波プローブ10が接触した被検体の体表面からの距離、すなわち深度に応じた位置に表示される。
 画像生成部32により生成された超音波画像Uは、取得部34に出力される。
 取得部34は、画像生成部32により生成されて出力された超音波画像Uを取得する機能を有する。具体的には、被検体の中枢から末端に至る所定の領域を超音波プローブ10により撮影し、画像生成部32により生成されて出力された超音波画像Uを取得する機能を有する。
 また、本実施形態の取得部34は、超音波プローブ10の位置を表す情報を取得する機能を有する。超音波プローブ10の位置を検出するための一例として、本実施形態では、三次元位置検出センサとしてのトランスミッタ14及び磁気センサ16を備える。トランスミッタ14及び磁気センサ16の各々は、x軸、y軸、及びz軸の各々に対応する3方向の直交コイルを含む。トランスミッタ14の各コイルを順次、励磁させ、磁気センサ16に含まれる各コイルの起電力を計測することで、超音波プローブ10の3次元位置を計測することができる。一例として本実施形態のトランスミッタ14は、穿刺を行う場合に被検体が横たわるベッドの被検体の頭部側の予め定められた位置に固定されている。一方、磁気センサ16は、超音波プローブ10に取り付けられている。
 取得部34は、トランスミッタ14に検出指示信号を出力する。トランスミッタ14は、取得部34から検出指示信号が入力されると、上述したように3方向の直交コイルを順次、励磁させる。磁気センサ16からは、超音波プローブ10の位置を表す情報が検出結果として取得部34に出力される。このようにして取得部34は、超音波画像Uを撮影した際の超音波プローブ10の位置を取得する。取得部34は、画像生成部32から取得した超音波画像Uと、磁気センサ16から取得した超音波画像Uが撮影された際の超音波プローブ10の位置を表す情報を対応付けて検出部36に出力する。
 なお、本実施形態のように画像生成部32が本開示の情報処理装置として機能する場合、画像生成部32と取得部34との機能を一体化してもよい。換言すると、本開示の情報処理装置が画像生成部32を備える場合、画像生成部32が取得部34としてさらに機能してもよい。
 検出部36は、取得部34から入力された超音波画像Uから穿刺の対象となる血管Bに異常が生じている異常箇所を検出する機能を有する。なお、本実施形態では、静脈BVを穿刺の対象としているため、静脈BVにおける異常が生じている異常箇所を検出する。そのため一例として、本実施形態の検出部36は、超音波画像Uからまず、静脈BVを検出する。なお、検出部36が超音波画像Uから静脈BVを検出する方法は特に限定されない。例えば、超音波画像Uに含まれる動脈及び静脈BVを含む全ての血管Bを検出し、検出した血管Bのうちから静脈BVをさらに検出する形態としてもよい。また例えば、超音波画像Uから血管Bのうちの静脈BVのみを検出する形態としてもよい。
 一例として本実施形態の検出部36は、取得部34により取得された超音波画像U、換言すると画像生成部32によって生成された超音波画像Uを、公知のアルゴリズムに従って解析することで、超音波画像U内の静脈BVを検出する。例えば、検出部36は、静脈BVが存在する血管領域の典型的なパターンデータをテンプレートとして予め記憶しておき、超音波画像U内をテンプレートでサーチしながらパターンデータに対する類似度を導出し、類似度が基準値以上かつ最大となった場所に静脈BVが存在するとみなすことができる。
 また、類似度の導出には、単純なテンプレートマッチングの他に、静脈BVを表す画像の特徴量に基づいて学習済みの学習モデルを用いた手法が挙げられる。例えば、Csurka etal.: Visual Categorization with Bags of Keypoints, Proc. of ECCV Workshop on Statistical Learning in Computer Vision, pp.59-74 (2004)に記載されているSVM(Support Vector Machine)やAdaBoost(Adaptive Boostling)等の機械学習手法、あるいは、Krizhevsk et al.: ImageNet Classification with Deep Convolutional Neural Networks, Advances in Neural Information Processing Systems 25, pp.1106-1114 (2012)に記載されているディープラーニングを用いた一般画像認識手法等を用いることができる。
 また例えば、検出部36は、静脈BVに対してラベルを施した複数の超音波画像Uによって機械学習された学習済みモデルである静脈検出モデルを用いて超音波画像U内の静脈BVを検出してもよい。静脈検出モデルは、例えば、ディープラーニングを用いた物体検出のアルゴリズムである。静脈検出モデルとして、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)の一種であるR-CNN(Regional CNN)により構成される物体検出モデルを用いることができる。静脈検出モデルは、入力された超音波画像U内から物体としての静脈BVを検出し、超音波画像U内における静脈BVを表す情報を出力する。
 なお、本実施形態の検出部36は、超音波画像U内に含まれる全ての静脈BVを検出する。超音波画像Uに複数の静脈BVが含まれる場合、複数の静脈BVの各々毎に、例えば、テンプレートマッチング、一般画像認識手法、または静脈検出モデルを適用して検出を行う形態としてもよい。また例えば、1以上の静脈BVをまとめて、テンプレートマッチング、一般画像認識手法、または静脈検出モデルを適用して検出を行う形態としてもよい。
 さらに、検出部36は、検出した静脈BVにおける異常が生じている異常箇所を検出する。静脈BVにおける異常としては、例えば、血栓や、シャントのために動脈と接続した部分等が挙げられる。具体例として本実施形態では、異常が血栓であり、異常箇所が静脈BV内に血栓が生じている箇所である場合について説明する。
 なお、検出部36が静脈BVにおいて血栓が生じている異常箇所を検出する方法は特に限定されない。例えば、静脈BVに沿って撮影された複数の超音波画像U各々における静脈BVの血管径を検出し、血管径が他の超音波画像Uよりも狭くなっている狭窄を起こしている箇所を血栓が生じている異常箇所として検出する形態としてもよい。
 また例えば、静脈BVにおける血栓の典型的なパターンデータをテンプレートとして予め記憶しておき、超音波画像Uの静脈BVの領域をテンプレートでサーチしながらパターンデータに対する類似度を導出し、類似度が基準値以上かつ最大となった場所に血栓が存在するとみなすことができる。
 また、類似度の導出には、単純なテンプレートマッチングの他に、血栓を表す画像の特徴量に基づいて学習済みの学習モデルを用いた手法が挙げられる。例えば、上述したSVMやAdaBoost等の機械学習手法、あるいは、上述したディープラーニングを用いた一般画像認識手法等を用いることができる。
 また例えば、検出部36は、血栓に対してラベルを施した複数の超音波画像Uによって機械学習された学習済みモデルである血栓検出モデルを用いて超音波画像U内の静脈BVにおける血栓を検出してもよい。血栓検出モデルは、例えば、ディープラーニングを用いた物体検出のアルゴリズムである。血栓検出モデルとして、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)の一種であるR-CNN(Regional CNN)により構成される物体検出モデルを用いることができる。血栓検出モデルは、入力された超音波画像U内から物体としての血栓を検出し、超音波画像U内における血栓を表す情報を出力する。
 なお、本実施形態に限定されず、検出部36は、超音波画像Uから直接、静脈BVにおける血栓が生じている異常箇所を検出する形態としてもよい。
 検出部36の検出結果は、判定部38に出力される。具体的には、検出部36により検出された超音波画像U内の静脈BVを表す情報と、静脈BVにおける血栓が生じている異常箇所の情報は、判定部38に出力される。なお、本実施形態では、異常箇所として、超音波画像Uに対応付けられている超音波プローブ10の位置を採用している。
 判定部38は、検出部36が検出した異常箇所に応じて、静脈BVにおける穿刺の適否を判定し、判定結果を出力する機能を有する。穿刺については、静脈BVに異常が生じている異常箇所よりも末梢側で行うことが好ましくない場合がある。特に、穿刺により血液や輸液等を静脈BV内に流入させる場合、異常箇所よりも末梢側で行うことが好ましくない場合があるため、図5を参照して説明する。なお、本実施形態において「中枢側」とは被検体の心臓に近い側のことをいい、「末梢側」とは被検体の指先等の末端側のことをいう。図5に示すように静脈BVでは、血液は末梢側から中枢側に流れる。換言すると、静脈BVにおける血流は、末梢側から中枢側に向けた方向である。静脈BV内に血栓BCが生じている場合、血栓BCよりも末梢側で穿刺を行い、血液または輸液を流入させると、流入された血液または輸液によって血栓BCが剥離し、剥離した血栓BCが循環器に至る懸念がある。そのため、本実施形態では図5に示すように、静脈BVにおける血栓BCが生じている異常箇所よりも末梢側については穿刺を行うのに不適であるとしている。換言すると、静脈BVにおける血栓BCが生じているいい状箇所よりも中枢側については穿刺を行うのに適切であるとしている。
 そこで本実施形態の検出部36は、静脈BVに血栓BCが生じている異常箇所よりも末梢側については、その静脈BVにおける穿刺を行うのに不適であると判定し、また、異常箇所よりも中枢側については、その静脈BVにおける穿刺を行うのに適切であるとしている。
 判定部38は、穿刺を行うのに不適であると判定した場合、警告を表す情報を出力する。一例として本実施形態では、取得部34から入力された超音波画像Uに、穿刺を行うのに不適である旨を警告を表す情報として付加して表示部40に出力する。一方、判定部38は、穿刺を行うのに適切であると判定した場合、取得部34から入力された超音波画像Uのみを表示部40に出力する。
 表示部40は、表示部40から出力された警告を表す情報が付加された超音波画像U、または超音波画像U等の各種情報を表示する機能を有する。表示部40としては、例えば、LCD(Liquid Crystal Display)、有機EL(ElectroLuminescence)ディスプレイ、及びヘッドマウントディスプレイ等が挙げられる。
 上述した本体部12は、例えば、図6に示したハードウェアにより構成することができる。図6には、本実施形態の本体部12のハードウェア構成の一例を表す構成図が示されている。図6に示すように本体部12は、表示部40、制御部50、記憶部52、I/F(Interface)部54、及び入力I/F部56を備える。表示部40、制御部50、記憶部52、通信I/F部54、及び入力I/F部56はシステムバスやコントロールバス等のバス59を介して相互に各種情報の授受が可能に接続されている。
 制御部50は、本体部12の全体の動作を制御する。制御部50は、CPU(Central Processing Unit)50A、ROM(Read Only Memory)50B、及びRAM(Random Access Memory)50Cを備える。ROM50Bには、CPU50Aで実行される、穿刺補助処理プログラム51及び図示を省略した撮影プログラムを含む各種のプログラム等が予め記憶されている。RAM50Cは、各種データを一時的に記憶する。本実施形態の穿刺補助処理プログラム51が、本開示の情報処理プログラムの一例である。
 CPU50AがROM50Bに記憶されている撮影プログラムを実行することにより、CPU50Aが撮影制御部30として機能する。また、CPU50AがROM50Bに記憶されている穿刺補助処理プログラム51を実行することにより、CPU50Aが取得部34、検出部36、及び判定部38として機能する。
 記憶部52には、画像生成部32により生成された超音波画像Uの画像データ、超音波プローブ10の位置を表す情報及びその他の各種情報等が記憶される。記憶部52の具体例としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及びSD(Secure Digital)カード等が挙げられる。
 入力I/F部56は、超音波画像Uの撮影等に関する指示や各種情報等をユーザが入力するために用いられる。入力I/F部56は特に限定されるものではなく、例えば、各種スイッチ、タッチパネル、タッチペン、カメラ、及びマウス等が挙げられる。なお、表示部40と入力I/F部56とを一体化してタッチパネルディスプレイとしてもよい。
 通信I/F部54は、WiFi(登録商標)又はBluetooth(登録商標)等の無線通信、若しくは有線通信により、超音波プローブ10、トランスミッタ14、磁気センサ16、及び超音波診断装置1の外部の装置との間で各種情報の通信を行う。上述したように、本体部12からは通信I/F部54を介して超音波プローブ10に超音波画像Uを撮影するための制御信号が出力される。また、超音波プローブ10から通信I/F部54を介して本体部12に音線信号が入力される。また、本体部12からはI/F部54を介してトランスミッタ14に超音波プローブ10の位置を検出するための検出指示信号が出力される。また、磁気センサ16からI/F部54を介して本体部12に超音波プローブ10の位置を表す情報が入力される。
 次に、本実施形態の本体部12の作用について図面を参照して説明する。
 本実施形態の本体部12は、一例として、制御部50のCPU50Aが、ROM50Bに記憶されている穿刺補助処理プログラム51を実行することにより、図7に一例を示した穿刺補助処理を実行する。図7には、本実施形態の本体部12において実行される穿刺補助処理の流れの一例を表したフローチャートが示されている。図7に示した穿刺補助処理は、例えば、本体部12に電源が投入された場合やユーザにより入力I/F部56により実行を指示された場合等に実行される。
 穿刺を行う場合、穿刺を行う箇所を探索するために、ユーザは、上肢または下肢等の穿刺を行う被検体の部位に対して中枢側から末梢側へ、若しくは末梢側から中枢側へ超音波プローブ10により被検体の体表をスキャンする。なお、本実施形態における超音波プローブ10により被検体の体表をスキャンする領域が、本開示の所定の領域の一例である。なお、以下では、一例として、被検体の中枢側から末梢側へスキャンを行うことが予め定められている形態について説明する。
 図7のステップS100で取得部34は、超音波プローブ10による被検体のスキャンが開始されたか否かを判定する。取得部34が、被検体のスキャンが開始されたか否かを判定する方法は特に限定されない。例えば、ユーザが入力I/F部56により入力したスキャン開始の情報を取得することでスキャンが開始されたと取得部34が判定する形態としてもよい。また例えば、画像認識や温度センサを用いて超音波プローブ10が空中放射状態から被検体への接触状態に変化した場合にスキャンが開始されたと取得部34が判定する形態としてもよい。なお、空中放射状態とは、超音波プローブ10が被検体の体表から離れて超音波を空中に放射する状態のことをいう。超音波プローブ10が空中放射状態及び被検体への接触状態のいずれであるかを検出するための技術としては、例えば国際公開2017/033502号に記載されている技術等を適用することができる。国際公開2017/033502号に記載の技術は、超音波プローブ10が被検体の体表に接触して超音波を被検体の体内に放射する場合には、超音波画像U内に何らかの構造物すなわち被検体内の組織が描出されるが、超音波プローブ10が被検体の体表から離れて超音波を空中に放射する場合には、超音波画像U内に構造物が描出されないことに起因する技術である。すなわち、画像生成部32により生成された超音波画像U内の構造物の有無を検知し、超音波画像U内に構造物が有ることを検知した場合に、超音波プローブ10が被検体への接触状態であると判定する。一方、超音波画像U内に構造物が無いことを検知した場合に、超音波プローブ10が空中放射状態にあると判定する。
 超音波プローブ10による被検体のスキャンが開始されるまでステップS100の判定が否定判定となる。一方、超音波プローブ10による被検体のスキャンが開始されるとステップS100の判定が肯定判定となり、ステップS102へ移行する。
 ステップS102で取得部34は、超音波画像U及び超音波プローブ10の位置の取得を開始する。本実施形態の取得部34は、上述したように超音波画像Uを画像生成部32から取得し、また、取得した超音波画像Uを撮影した際の超音波プローブ10の位置を表す情報を磁気センサ16から取得する。取得部34は、超音波画像Uと、超音波画像Uが撮影された際の超音波プローブ10の位置を表す情報とを対応付けて検出部36に出力する。
 次のステップS104で検出部36は、取得した超音波画像Uに超音波プローブ10を対応付けた状態で記憶部52に記憶させる。
 次のステップS106で取得部34は、超音波プローブ10による被検体のスキャンが終了されたか否かを判定する。取得部34が、被検体のスキャンが終了されたか否かを判定する方法は特に限定されない。例えば、ユーザが入力I/F部56により入力したスキャン終了の情報を取得することでスキャンが終了されたと取得部34が判定する形態としてもよい。また例えば、超音波プローブ10が被検体への接触状態から空中放射状態に変化した場合にスキャンが終了されたと取得部34が判定する形態としてもよい。なお、この場合の超音波プローブ10が空中放射状態及び被検体への接触状態のいずれであるかを検出するための技術としては、ステップS100において説明した技術を適用することができる。
 超音波プローブ10による被検体のスキャンが終了されていない場合、ステップS106の判定が否定判定となり、ステップS102に戻り、ステップS102及びS104の処理を繰り返し、超音波画像U及び超音波プローブ10の位置の取得と記憶とを繰り返す。一方、超音波プローブ10による被検体のスキャンが終了されるとステップS106の判定が肯定判定となり、ステップS108へ移行する。
 ステップS108で取得部34は、超音波画像U及び超音波プローブ10の位置の取得を終了する。
 次のステップS110で検出部36は、上述したように超音波画像Uから静脈BVを検出する。
 次のステップS112で検出部36は、上述したように超音波画像Uにおける静脈BVから血栓BCが生じている異常箇所を検出する。具体的には、静脈BVにおける血栓BCが生じている超音波画像Uを撮影した際の超音波プローブ10の位置を検出する。なお、上記ステップS110において複数の静脈BVが検出された場合、各静脈BVにおける血栓BCを検出する。また、1つの静脈BVに対し、複数の血栓BCが検出された場合、全ての血栓BCについて、各血栓BCが生じている異常箇所を検出する。検出部36は、検出した血栓BCが生じている異常箇所を表す情報を判定部38に出力する。
 次のステップS114で判定部38は、異常箇所が有るか否かを判定する。上記ステップS112で異常箇所が検出された場合、具体的には、検出部36から判定部38に、異常箇所が無いことを表す情報が入力された場合、スキャン範囲における全ての静脈BVについて血栓BCが生じていないため、ステップS114の判定が否定判定となり、ステップS116へ移行する。
 ステップS116で判定部38は、スキャン範囲における全ての静脈BVについて血栓BCが生じた異常箇所が無いことを表す情報を表示部40に出力する。これにより表示部40には、図8に示す一例のように、異常箇所が無いことを表す情報80が表示される。ユーザは、異常箇所が無いことを表す情報80が表示部40に表示された場合、スキャン範囲における所望の箇所において穿刺を行う。なお、この場合、超音波プローブ10により再び被検体をスキャンして超音波画像Uを撮影し、画像生成部32によって取得されて表示部40に表示された超音波画像Uを参照し、いわゆるエコーガイド下の穿刺を行ってもよい。また、被検体のスキャンは行わないで、換言すると超音波画像Uの撮影を行わずに穿刺を行ってもよい。ステップS116の処理が終了すると、図7に示した穿刺補助処理が終了する。
 一方、上記ステップS112で異常箇所が検出された場合、ステップS114の判定が肯定判定となり、ステップS118へ移行する。ステップS118で判定部38は、穿刺を行うのに不適な位置を導出する。図5に示したように判定部38は、検出した静脈BV毎に、血栓BCが生じている異常箇所よりも末梢側を穿刺を行うのに不適な位置として導出する。換言すると、判定部38は、検出した静脈BV毎に、血栓BCが生じている異常箇所よりも中枢側を穿刺を行うのに適切な位置として導出する。なお、1つの静脈BVに複数の血栓BCが生じている場合、上述したように、血栓BCが剥離するのを抑制する観点から、最も中枢側の血栓BCが生じている異常箇所よりも末梢側の位置を穿刺を行うのに不適な位置として導出する。換言すると、判定部38は、1つの静脈BVに複数の血栓BCが生じている場合、最も中枢側の血栓BCが生じている異常箇所よりも中枢側の位置を穿刺を行うのに適切な位置として導出する。
 なお、異常箇所が生じている位置が被検体の中枢側に近い場合、例えば、スキャン領域における最も中枢側から数cm以内の場合、判定部38は、その血管Bについてはその部位における穿刺を不適とし、反対側の部位等を穿刺を行うのに適切な位置として導出してもよい。
 このように本実施形態では、静脈BVに異常箇所が有る場合、異常箇所が無いことを表す情報80が表示部40に表示されない。これにより、ユーザは、スキャン範囲内の静脈BVに異常箇所が存在していることを認識することができる。この場合、ユーザは、穿刺を行う位置を探索するために、スキャン範囲を再びスキャンする。
 そのため次のステップS120で取得部34は、上記ステップS100と同様に、超音波プローブ10による被検体のスキャンが開始されたか否かを判定する。被検体のスキャンが開始されるまでステップS120の判定が否定判定となる。一方、被検体のスキャンが開始された場合、ステップS120の判定が肯定判定となり、ステップS122へ移行する。
 ステップS122で取得部34は、超音波画像U及び超音波プローブ10の位置を取得する。取得部34は、超音波画像Uと、超音波画像Uが撮影された際の超音波プローブ10の位置を表す情報とを対応付けて判定部38に出力する。
 次のステップS124で判定部38は、上記ステップS122で取得した超音波プローブ10の位置が、上記ステップS112で検出した血栓BCが生じている異常箇所よりも末梢側であるか否かを判定する。本実施形態の判定部38は、上記ステップS118で導出した穿刺が不適な位置に、超音波プローブ10の位置が含まれるが否かを判定することで、異常箇所よりも末梢側であるか否かを判定する。超音波プローブ10の位置が、血栓BCが生じている異常箇所よりも末梢側ではない場合、換言すると血栓BCが生じている異常箇所よりも中枢側である場合、ステップS124の判定が否定判定となり、ステップS126へ移行する。
 ステップS126で判定部38は、上記ステップS122で取得した超音波画像Uを表示部40に出力した後、ステップS130へ移行する。図9Aに、この場合に表示部40に表示される超音波画像Uの一例を示す。図9Aに示した例では、静脈BV1及び静脈BV2の2つの静脈BVを含む超音波画像Uが表示部40に表示された状態の一例が示されている。また、図9Aに示した例では、静脈BV1及び静脈BV2の各々に、各々の位置を示す情報82及び82を付与して表示した形態の一例を示している。なお、図9Aに示した例では、静脈BV1及びBV2各々の外形を囲う比較的太い実線を情報82及び82として適用した形態の一例を示している。このように本実施形態の判定部38は、超音波画像Uに、静脈BVの位置を示す情報を付加して表示部40に出力する。このように超音波画像Uにおける静脈BVを強調することで、ユーザに静脈BVの位置をガイドすることができる。なお、静脈BVの位置を表す情報は、情報82及び82として示した形態に限定されない。例えば、静脈BVの外形を比較的目立つ色の実線で囲う形態としてもよい。
 図9Aに示したように超音波画像Uが表示されることにより、ユーザは、現在の超音波プローブ10の位置が、表示部40に表示されている静脈BVに対して穿刺を行うのに適切な位置であることを認識することができる。
 このように判定部38は、表示部40に出力する超音波画像Uを、上記ステップS110で検出した静脈BVを強調することで、ユーザに静脈BVの位置をガイドすることができる。
 一方、ステップS124において超音波プローブ10の位置が、血栓BCが生じている異常箇所よりも末梢側である場合、判定が肯定判定となり、ステップS128へ移行する。ステップS128で判定部38は、上記ステップS122で取得した超音波画像Uに警告を表す情報を付加して表示部40に出力した後、ステップS130へ移行する。図9Bに、この場合に表示部40に表示される超音波画像U及び警告を表す情報84の一例を示す。図9Bに示した例では、静脈BV1及び静脈BV2の2つの静脈BVを含む超音波画像Uと、静脈BV1に対する警告を表す情報84とが表示部40に表示された状態の一例が示されている。なお、図9Bに示すように本実施形態では、複数の静脈BVが存在する場合、複数の静脈BVのうちのいずれの静脈BVについて、中枢側に血栓があるかを認識可能に警告を表す情報84を表示させる。
 また、図9Bに示した例では、静脈BV1及び静脈BV2の各々に、各々の位置を示す情報82及び82を付与して表示した形態の一例を示している。図9Bに示したように、穿刺を行うことが不適とされた静脈BV1と、穿刺を行うことが適切とされた静脈BV2とでは、各々の位置を示す情報82及び82の表示形態を異ならせることにより、穿刺の適否をより明確に表示することができる。表示形態を異ならせる方法は特に限定されず、例えば、図9Bに示したように実線または点線等、線の種類を異ならせる形態としてもよい。また例えば、線の色を異ならせる形態としてもよい。
 図9Bに示したように警告を表す情報84が表示されることにより、ユーザは、静脈BV1に対して穿刺を行うのに不適な位置であることを認識することができる。この場合、ユーザは、現在の超音波プローブ10の位置よりも中枢側の位置で穿刺を行う。
 ステップS130で判定部38は、穿刺が終了したか否かを判定する。本実施形態では、入力I/F部56によりユーザが穿刺の終了を指示した場合、本体部12の電源が遮断された場合、超音波プローブ10が被検体への接触状態から空中放射状態に変化した場合等の予め定められた終了条件を満たす場合、穿刺が終了したと判定する。終了条件を満たさない場合、ステップS130の判定が否定判定となり、ステップS120に戻り、上記ステップS120~S130の処理を繰り返す。一方、ステップS130において終了条件を満たす場合、肯定判定となり、図7に示した穿刺補助処理を終了する。
 なお、上記形態では、トランスミッタ14を、被検体が横たわるベッドの被検体の頭部側の予め定められた位置に固定されている形態について説明したが、トランスミッタ14を設ける位置は、本形態に限定されない。例えば、トランスミッタ14を、被検体の手首や足首等の所定の部位に直接固定する形態としてもよい。
 また、超音波プローブ10の位置の検出は、上記のように3次元の位置を導出せずともよく、被検体の中枢側から末梢側に至るスキャン領域内のいずれの位置にいるか、より具体的には異常箇所に対して中枢側、及び末梢側のいずれの位置であるかが判別可能であれば検出方法等は特に限定されない。例えば、上記形態のようにトランスミッタ14が、被検体が横たわるベッドの被検体の頭部側の予め定められた位置に固定されている場合、トランスミッタ14と磁気センサ16との距離が長くなる場合は、末梢側に超音波プローブ10が位置していると検出することができる。また、トランスミッタ14と磁気センサ16との距離が短くなる場合は、中枢側に超音波プローブ10が位置していると検出することができる。
 なお、本形態に限定されない。超音波プローブ10の位置の取得方法の変形例について変形例1及び2を示す。
[変形例1]
 本変形例では、超音波プローブ10の位置の取得方法の変形例について、距離画像を撮影する撮影装置を用いた形態の変形例について説明する。
 図10に示すように、本実施形態の超音波診断装置1は、上記形態の超音波診断装置1(図1参照)のトランスミッタ14及び磁気センサ16に代えて、TOFカメラ90を備えている。なお、その他の構成は上記形態の超音波診断装置1(図1参照)と同様であるため、図10における記載を省略している。
 TOF(Time of Flight)カメラ90は、TOF方式を用いて、撮影対象との間の距離を表す距離画像を撮影するカメラである。具体的には、TOFカメラ90は、撮影対象に赤外線等の光を照射し、その反射光を受光するまでの時間、または出射光と受光光との位相変化に基づいて、TOFカメラ90と撮影対象との間の距離を測定する。TOFカメラ90によって撮影される距離画像は、画素毎に、TOFカメラ90と撮影対象との間の距離を表す距離情報を有する。なお、距離画像とは、その画像から、撮影対象までの距離を導出することが可能な画像のことをいう。TOFカメラ90により撮影された距離画像は、TOFカメラ90と撮影対象との間の距離を表す情報を、各画素の画素値として持つ。
 本変形例では、被検体の手首または足首、若しくは穿刺を行う場合に被検体が横たわるベッドの被検体の頭部側または足首側に、距離を測定するための目印となるランドマークを設ける。また、超音波プローブ10にTOFカメラ90を設置し、TOFカメラ90により、ランドマークとTOFカメラ90との間の距離を表す距離画像を撮影する。取得部34は、I/F部54を介して距離画像をTOFカメラ90から取得する。取得部34は、取得した距離画像の画素値から超音波プローブ10とランドマークとの距離を導出することで超音波プローブ10の位置を取得する。
 例えば、ランドマークが被検体の足首等の末梢側に設けられている場合、距離画像から導出される距離が小さくなるほど、超音波プローブ10が末梢側に位置していることを導出することができる。また例えば、ランドマークが被検体の頭等の中枢側に設けられている場合、距離画像から導出される距離が大きくなるほど、超音波プローブ10が末梢側に位置していることを導出することができる。なお、上述したように距離画像は画素値が、TOFカメラ90と撮影対象との距離に対応するため、距離そのものを導出せずに、画素値を距離に代えて用いる形態としてもよい。
 なお、上記例とは逆に、被検体の手首または足首、若しくは穿刺を行う場合に被検体が横たわるベッドの被検体の頭部側または足首側にTOFカメラ90を設け、ランドマークを超音波プローブ10に設ける、もしくは超音波プローブ10自身をランドマークとする形態としてもよい。
 また、本変形例ではTOFカメラ90を用いて距離画像を撮影する形態の一例について説明したが、その他の撮影装置を用いて距離画像を撮影する形態としてもよい。例えば、パターンがついた赤外光を撮影対象に照射し、撮影対象からの反射光に応じた距離画像を撮影する距離画像撮影装置を用い、Structured Light方式を適用して距離画像を撮影する形態としてもよい。また、例えば、距離画像に写り込んでいるエッジ領域のボケ具合を基に距離を復元するDFD(Depth from Defocus)方式を適用した形態としてもよい。この形態の場合、例えば、カラー開口フィルタを用いて単眼のカメラで撮影した距離画像を用いる形態が知られている。
[変形例2]
 本変形例では、超音波プローブ10の位置の取得方法の変形例について、光位置センサを用いた形態の変形例について説明する。
 図11に示すように、本実施形態の超音波診断装置1は、上記形態の超音波診断装置1(図1参照)のトランスミッタ14及び磁気センサ16に代えて、光位置センサ92を備えている。なお、その他の構成は上記形態の超音波診断装置1(図1参照)と同様であるため、図11における記載を省略している。
 光位置センサ92は、三角測量の原理を応用した光学式センサであり、測定対象物との距離が変化することにより測定対象物により反射する反射光の角度、換言すると受光素子上に集光される位置が変化することを利用して測定対象物までの距離を測定する機能を有する。
 図11に示すように、光位置センサ92は、投光LED(Light Emitting Diode)93A及び受光素子93Bを含む。投光LED93Aは、測定対象物に測定光を投光する機能を有し、例えば、レーザダイオード等が挙げられる。受光素子93Bは、投光LED93Aから投光された測定光が測定対象物により反射することにより生じた反射光を受光する機能を有し、例えば、フォトカプラ等が挙げられる。光位置センサ92は、受光素子93B上の集光位置から、測定対象物までの距離を導出する。
 本変形例では、被検体の手首または足首、若しくは穿刺を行う場合に被検体が横たわるベッドの被検体の頭部側または足首側に、光位置センサ92から投光された測定光を反射するための反射体を設ける。また、超音波プローブ10光位置センサ92を設置し、光位置センサ92により、反射体と光位置センサ92との距離を測定する。取得部34は、I/F部54を介して反射体と光位置センサ92との距離を光位置センサ92から取得する。取得部34は、取得した反射体と光位置センサ92との距離を取得することで超音波プローブ10の位置を取得する。
 例えば、反射体が被検体の足首等の末梢側に設けられている場合、反射体と光位置センサ92との距離が小さくなるほど、超音波プローブ10が末梢側に位置していることを導出することができる。また例えば、ランドマークが被検体の頭等の中枢側に設けられている場合、反射体と光位置センサ92との距離が大きくなるほど、超音波プローブ10が末梢側に位置していることを導出することができる。
 なお、上記例とは逆に、被検体の手首または足首、若しくは穿刺を行う場合に被検体が横たわるベッドの被検体の頭部側または足首側に光位置センサ92を設け、反射体を超音波プローブ10に設ける、もしくは超音波プローブ10自身を反射体とする形態としてもよい。
 なお、超音波プローブ10の位置の取得方法は、上記変形例1及び2に限定されるものではなく、その他の種々の方法も適用することができる。例えば、GPS(Global Positioning System)を用いて超音波プローブ10の位置を取得する形態としてもよい。本形態の場合、例えば、被検体の手首または足首、若しくは穿刺を行う場合に被検体が横たわるベッドの被検体の頭部側または足首側に設けられた基点の位置と、超音波プローブ10の位置とをGPSからI/F部54を介して取得部34が取得する形態としてもよい。この場合、例えば、被検体の末梢側に基点を設けた場合、基点と超音波プローブ10各々の位置から導出した距離が小さくなるほど、超音波プローブ10が末梢側に位置していることを導出することができる。
 以上説明したように、上記形態の本体部12は、被検体の中枢から末梢に至る所定の領域の静脈BVの超音波画像Uを取得する取得部34と、取得した超音波画像Uから静脈BVに異常が生じている異常箇所を検出する検出部36と、検出した異常箇所に応じて静脈BVにおける穿刺の適否を判定し、判定結果を出力する判定部38と、を備える。
 従って、本形態の本体部12によれば、上述のように血管の穿刺を行うユーザに対して血管の異常を考慮した穿刺位置の補助を行うことができる。また、上記各形態の本体部12によれば、穿刺を行うユーザは穿刺に適した位置を容易に認識することができるため、穿刺に適切な血管Bまたは血管の位置を特定し易くなる。
 なお、本開示の技術は、上記各形態に限定されず、さらに種々の変形が可能である。
 例えば、上記形態の穿刺補助処理(図7参照)では、超音波画像Uから異常箇所の検出を行った(ステップS114)後、続けてユーザが穿刺を行う形態について説明した。本形態に限定されず、静脈BVにおける異常箇所の検出と、静脈BVの穿刺とを異なるタイミングで行ってもよい。すなわち、図7に示した穿刺補助処理のステップS100~S118までの処理を事前に行い、穿刺を行うのに不適な位置または穿刺を行うのに適切な位置を穿刺適否位置情報として、被検体及び穿刺部位と対応付けて記憶部52等に記憶させておく形態としてもよい。実際に穿刺を行う場合に、記憶部52に記憶されている穿刺適否位置情報を読み出して、図7に示した穿刺補助処理のステップS120移行の処理を行えばよい。
 また、上記各形態の穿刺補助処理(図7参照)では、一旦、静脈BVの異常箇所を検出した後、再び穿刺のために超音波プローブ10により被検体をスキャンする形態、すなわち、穿刺を行うために被検体を2回スキャンする形態について説明したが、本形態に限定されず、例えば、1回のスキャンで異常箇所の検出と穿刺とを行う形態としてもよい。この場合、例えば、被検体の中枢側から末梢側へ超音波プローブ10の移動中に、本体部12は、超音波画像Uを順次取得して異常箇所の検出を行い、異常箇所が検出された時点で警告を表す情報を表示部40に表示させる形態としてもよい。穿刺を行うユーザは、警告を表す情報が表示部40に表示された時点よりも前にスキャンした領域を穿刺に適した位置として認識することができる。
 また、表示部40には超音波画像U及び穿刺の適否を表す情報に加えて、その他の穿刺を補助するための情報を表示部40に表示させる形態としてもよい。図12には、図9Bに示した例に加えて、超音波画像U1及び穿刺領域マップMをサブウインドで表示させた場合の形態例を示している。超音波画像U1は、超音波画像Uから血栓BC部分を抽出した画像である。例えば、判定部38は、異常箇所を検出した超音波画像Uから切り出すことにより超音波画像U1を生成してサブインドとして表示部40に表示させる。このように超音波画像U1を表示させることにより、ユーザは血栓BCの具合を確認することができるため、血栓BCの治療に役立てることができる。
 一方、穿刺領域マップMは、スキャン領域や異常箇所を明示したマップである。穿刺領域マップMは、スキャン領域を表すスキャン領域情報96と、異常箇所を表す異常箇所情報98とを含む。例えば、判定部38は、撮影メニューまたはユーザにより入力I/F部56を用いて入力された右下肢、または左上腕等の穿刺部位を特定することにより、穿刺部位模式図94を取得する。判定部38は、取得した穿刺部位模式図94上に、検出した超音波プローブ10の位置に基づいてスキャン領域情報96を設け、また、検出した異常箇所の位置に基づいて異常箇所情報98を設ける。これにより、ユーザは穿刺を行うのに適した領域、換言すると穿刺を行うのに不適な領域をより明瞭に、直感的に認識することができる。なお、穿刺領域マップMを表示させる表示部40を、ユーザが身につけたヘッドマウントディスプレイとし、穿刺部位模式図94に代わり、実際の被検体の体表上にスキャン領域情報96及び異常箇所情報98を表示させる形態としてもよい。例えば、ヘッドマウントディスプレイに設けた撮像装置で超音波プローブ10を含む視野画像を取得し、視野画像を解析することにより超音波プローブ10による操作位置を検出し、走査された領域をスキャン領域情報96として被検体の体表上に表示させる形態としてもよい。
 なお、上記各形態では、静脈BVを穿刺する形態について説明したが、動脈を穿刺する形態としてもよい。この場合、動脈である血管Bの血流は中枢側から末梢側に向かうため、血栓BCが発生している異常箇所よりも中枢側を穿刺に不適な位置とし、また、異常箇所よりも末梢側を穿刺に不適な位置とすればよい。
 また、上記各形態では、静脈BVに生じている異常が血栓BCである場合を用いて具体的に説明したが、上述したように異常がシャント等に起因するものであっても同様の形態とすることができる。
 また、上記各形態では、本体部12が本開示の情報処理装置の一例である形態について説明したが、本体部12以外の装置が本開示の情報処理装置の機能を備えていてもよい。換言すると、取得部34、検出部36、及び判定部38の機能の一部または全部を本体部12以外の、例えば超音波プローブ10や、外部の装置等が備えていてもよい。
 また、上記各形態では、音線信号に基づいて超音波画像Uを生成する画像生成部32が本体部12に設けられているが、これに代えて、画像生成部32は、超音波プローブ10内に設けられていてもよい。この場合、超音波プローブ10は、超音波画像Uを生成して本体部12に出力する。本体部12の制御部50のCPU50Aは、超音波プローブ10から入力された超音波画像Uに基づいて穿刺補助処理等を行う。
 また、上記形態では、表示部40、入力I/F部56、及び超音波プローブ10が本体部12内に備えられている形態について説明したが、表示部40、入力I/F部56、超音波プローブ10、及び制御部50が、ネットワークを介して間接的に接続されていてもよい。
 一例として図13に示す超音波診断装置1は、表示部40、入力I/F部56、超音波プローブ10が、ネットワークNWを介して本体部12に接続されたものである。本体部12は、図1に示した上記形態の本体部12から表示部40及び入力I/F部56を除き、かつ送受信回路22を付加したものであり、送受信回路22、制御部50、及び記憶部52を備える。超音波プローブ10は、図1に示した上記形態の超音波プローブ10から送受信回路22を除いたものである。
 このように、図13に示した超音波診断装置1では、表示部40、入力I/F部56、及び超音波プローブ10がネットワークNWを介して本体部12と接続されているため、本体部12を、いわゆる遠隔サーバとして使用することができる。これにより、例えば、ユーザは、表示部40、入力I/F部56、及び超音波プローブ10を、ユーザの手元に用意することができ、利便性が向上する。また、表示部40及び入力I/F部56を、スマートフォン又はタブレット端末等の携帯端末により構成することにより、利便性がさらに向上する。
 他の一例として図14に示す超音波診断装置1では、表示部40及び入力I/F部56が本体部12に備えられており、超音波プローブ10がネットワークNWを介して本体部12に接続されている。この場合、本体部12を遠隔サーバによって構成してもよい。また、本体部12を、スマートフォン又はタブレット端末等の携帯端末により構成することも可能である。
 また、上記形態において、例えば、取得部34、検出部36、及び判定部38といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
 複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
 更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
 また、上記各実施形態では、穿刺補助処理プログラム51がROM50Bに予め記憶(インストール)されている態様を説明したが、これに限定されない。穿刺補助処理プログラム51の各々は、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、穿刺補助処理プログラム51の各々は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
 以上の記載から、以下の付記1~7に記載に開示する技術を把握することができる。
[付記1]
 少なくとも1つのプロセッサを備え、
 前記プロセッサは、
 被検体の中枢から末梢に至る所定の領域の静脈の超音波画像を取得し、
 取得した超音波画像から前記静脈に異常が生じている異常箇所を検出し、
 検出した異常箇所に応じて前記静脈における穿刺の適否を判定し、判定結果を出力する、
 情報処理装置。
[付記2]
 前記プロセッサは
 前記異常箇所よりも末梢側の位置における穿刺について不適であると判定する
 付記1に記載の情報処理装置。
[付記3]
 前記プロセッサは、
 複数の前記異常箇所を検出した場合、最も中枢側に位置する異常箇所よりも末梢側の位置における穿刺について不適であると判定する
 付記1または付記2に記載の情報処理装置。
[付記4]
 前記プロセッサは、
 取得した前記超音波画像を撮影した際の超音波プローブの位置をさらに取得し、
 検出結果と、前記超音波プローブの位置とに基づいて穿刺の適否を判定する
 付記1から付記3のいずれか1つに記載の情報処理装置。
[付記5]
 前記プロセッサは、
 前記判定結果として警告を表す情報を出力する
 付記1から付記4のいずれか1つ記載の情報処理装置。
[付記6]
 前記プロセッサは、
 前記超音波画像から静脈を検出する
 付記1から付記5のいずれか1つに記載の情報処理装置。
[付記7]
 少なくとも1つのプロセッサを備え、
 前記プロセッサは、
 被検体の中枢から末端に至る所定の領域の血管の超音波画像を取得し、
 取得した超音波画像から血管に異常が生じている異常箇所を検出し、
 検出した異常箇所よりも血流が上流側の位置における前記血管の穿刺が不適切であると判定し、判定結果を出力する
 情報処理装置。
 2020年11月27日出願の日本国特許出願2020-197656号の開示は、その全体が参照により本明細書に取り込まれる。
 本明細書に記載された全ての文献、特許出願、及び技術規格は、個々の文献、特許出願、及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
1 超音波診断装置
10 超音波プローブ
12 本体部
14 トランスミッタ
16 磁気センサ
20 振動子アレイ
22 送受信回路
24 送信回路
26 受信回路
30 撮影制御部
32 画像生成部
34 取得部
36 検出部
38 判定部
40 表示部
50 制御部、50A CPU、50B ROM、50C RAM
51 穿刺補助処理プログラム
52 記憶部
54 通信I/F部
56 入力I/F部
59 バス
60 増幅部
62 A/D変換部
64 ビームフォーマ
70 信号処理部
72 DSC
74 画像処理部
80、82~82、84 情報
90 TOFカメラ
92 光位置センサ
93A 投光LED、93B 受光素子
94 穿刺部位模式図
96 スキャン領域情報
98 異常箇所情報
B 血管
BC 血栓
BV、BV1、BV2 静脈
D 深度方向
M 穿刺領域マップ
N 穿刺針
NW ネットワーク
S 体表面
U、U1 超音波画像

Claims (10)

  1.  被検体の中枢から末梢に至る所定の領域の静脈の超音波画像を取得する取得部と、
     取得した超音波画像から前記静脈に異常が生じている異常箇所を検出する検出部と、
     検出した異常箇所に応じて前記静脈における穿刺の適否を判定し、判定結果を出力する判定部と、
     を備えた情報処理装置。
  2.  前記判定部は、前記異常箇所よりも末梢側の位置における穿刺について不適であると判定する
     請求項1に記載の情報処理装置。
  3.  前記判定部は、前記検出部が複数の前記異常箇所を検出した場合、最も中枢側に位置する異常箇所よりも末梢側の位置における穿刺について不適であると判定する
     請求項1または請求項2に記載の情報処理装置。
  4.  前記取得部は、取得した前記超音波画像を撮影した際の超音波プローブの位置をさらに取得し、
     前記判定部は、前記検出部の検出結果と、前記超音波プローブの位置とに基づいて穿刺の適否を判定する
     請求項1から請求項3のいずれか1項に記載の情報処理装置。
  5.  前記判定部は、前記判定結果として警告を表す情報を出力する
     請求項1から請求項4のいずれか1項に記載の情報処理装置。
  6.  前記検出部は、前記超音波画像から静脈を検出する
     請求項1から請求項5のいずれか1項に記載の情報処理装置。
  7.  被検体の中枢から末端に至る所定の領域の血管の超音波画像を取得する取得部と、
     取得した超音波画像から血管に異常が生じている異常箇所を検出する検出部と、
     検出した異常箇所よりも血流が上流側の位置における前記血管の穿刺が不適切であると判定し、判定結果を出力する
     情報処理装置。
  8.  送信した超音波による超音波エコーを受信して受信した超音波エコーに基づく受信信号を出力する超音波プローブと、
     前記超音波プローブから入力された前記受信信号に基づいて超音波画像を生成する画像生成部と、
     請求項1から請求項7のいずれか1項に記載の情報処理装置と、
     を備えた超音波診断装置。
  9.  被検体の中枢から末梢に至る所定の領域の静脈の超音波画像を取得し、
     取得した超音波画像から前記静脈に異常が生じている異常箇所を検出し、
     検出した異常箇所に応じて前記静脈における穿刺の適否を判定し、判定結果を出力する、
     処理をコンピュータが実行する情報処理方法。
  10.  被検体の中枢から末梢に至る所定の領域の静脈の超音波画像を取得し、
     取得した超音波画像から前記静脈に異常が生じている異常箇所を検出し、
     検出した異常箇所に応じて前記静脈における穿刺の適否を判定し、判定結果を出力する、
     処理をコンピュータに実行させるための情報処理プログラム。
PCT/JP2021/042312 2020-11-27 2021-11-17 情報処理装置、超音波診断装置、情報処理方法、及び情報処理プログラム WO2022113858A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022565273A JPWO2022113858A1 (ja) 2020-11-27 2021-11-17
US18/320,075 US20230293146A1 (en) 2020-11-27 2023-05-18 Information processing apparatus, ultrasound diagnostic apparatus, information processing method, and information processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-197656 2020-11-27
JP2020197656 2020-11-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/320,075 Continuation US20230293146A1 (en) 2020-11-27 2023-05-18 Information processing apparatus, ultrasound diagnostic apparatus, information processing method, and information processing program

Publications (1)

Publication Number Publication Date
WO2022113858A1 true WO2022113858A1 (ja) 2022-06-02

Family

ID=81754599

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/042312 WO2022113858A1 (ja) 2020-11-27 2021-11-17 情報処理装置、超音波診断装置、情報処理方法、及び情報処理プログラム

Country Status (3)

Country Link
US (1) US20230293146A1 (ja)
JP (1) JPWO2022113858A1 (ja)
WO (1) WO2022113858A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006123282A1 (en) * 2005-05-18 2006-11-23 Koninklijke Philips Electronics N.V. Cannula inserting system
JP2008539932A (ja) * 2005-05-10 2008-11-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ カニューレ挿入システム
US20090259174A1 (en) * 2008-04-15 2009-10-15 Medtronic Vascular, Inc. Methods and devices for treating vulnerable atherosclerotic plaque

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008539932A (ja) * 2005-05-10 2008-11-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ カニューレ挿入システム
WO2006123282A1 (en) * 2005-05-18 2006-11-23 Koninklijke Philips Electronics N.V. Cannula inserting system
US20090259174A1 (en) * 2008-04-15 2009-10-15 Medtronic Vascular, Inc. Methods and devices for treating vulnerable atherosclerotic plaque

Also Published As

Publication number Publication date
JPWO2022113858A1 (ja) 2022-06-02
US20230293146A1 (en) 2023-09-21

Similar Documents

Publication Publication Date Title
JP6924905B2 (ja) 超音波診断装置および超音波診断装置の制御方法
CN114096199B (zh) 在超声探头的瞄准期间对目标的表示
US11931202B2 (en) Ultrasound automatic scanning system, ultrasound diagnostic apparatus, ultrasound scanning support apparatus
JP2019503268A (ja) 位置と関係付けられた超音波撮像
US20220175344A1 (en) Ultrasound diagnostic apparatus and method of controlling ultrasound diagnostic apparatus
US20140187955A1 (en) Systems and methods of registration using an ultrasound probe
US11925504B2 (en) Ultrasound diagnostic apparatus and method of controlling ultrasound diagnostic apparatus
JPWO2019150715A1 (ja) 超音波診断装置および超音波診断装置の制御方法
US20210361261A1 (en) Ultrasound diagnostic apparatus and method of controlling ultrasound diagnostic apparatus
JP2012170747A (ja) 超音波診断装置、及び超音波診断プログラム
WO2022113844A1 (ja) 情報処理装置、超音波診断装置、情報処理方法、及び情報処理プログラム
CN109414254A (zh) 控制设备、控制方法、控制系统及程序
US20230165563A1 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
WO2022113858A1 (ja) 情報処理装置、超音波診断装置、情報処理方法、及び情報処理プログラム
JP6718520B2 (ja) 超音波診断装置及び超音波診断装置の制御方法
US20220296219A1 (en) System and methods for adaptive guidance for medical imaging
US20240112357A1 (en) Image processing apparatus, system, image processing method, and image processing program
US20240065671A1 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
WO2022049808A1 (ja) 超音波システムおよび超音波システムの制御方法
US20230274430A1 (en) Information processing apparatus, information processing method, and program
US20240112344A1 (en) Ultrasonography apparatus, image processing apparatus, ultrasound image capturing method, and ultrasound image capturing program
US20230285003A1 (en) Image processing apparatus and control method of image processing apparatus
US20230363740A1 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
WO2022107440A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CA3230241A1 (en) System for automated real-time detection, outlining, tracking and characterization of blood vessels in ultrasound imaging

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21897832

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022565273

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21897832

Country of ref document: EP

Kind code of ref document: A1