WO2017179195A1 - 超音波プローブ制御方法及びプログラム - Google Patents

超音波プローブ制御方法及びプログラム Download PDF

Info

Publication number
WO2017179195A1
WO2017179195A1 PCT/JP2016/062130 JP2016062130W WO2017179195A1 WO 2017179195 A1 WO2017179195 A1 WO 2017179195A1 JP 2016062130 W JP2016062130 W JP 2016062130W WO 2017179195 A1 WO2017179195 A1 WO 2017179195A1
Authority
WO
WIPO (PCT)
Prior art keywords
puncture
ultrasonic probe
angle
information
ultrasonic
Prior art date
Application number
PCT/JP2016/062130
Other languages
English (en)
French (fr)
Inventor
直人 足立
雅也 玉村
あまね 井上
Original Assignee
株式会社ソシオネクスト
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソシオネクスト filed Critical 株式会社ソシオネクスト
Priority to PCT/JP2016/062130 priority Critical patent/WO2017179195A1/ja
Priority to JP2018511857A priority patent/JP6643741B2/ja
Priority to CN201680084365.4A priority patent/CN109069101B/zh
Publication of WO2017179195A1 publication Critical patent/WO2017179195A1/ja
Priority to US16/113,373 priority patent/US11234730B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/56Details of data transmission or power supply
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3413Needle locating or guiding means guided by ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest

Definitions

  • the present invention relates to an ultrasonic probe control method and program.
  • the first image information generated and transmitted by the ultrasonic probe device based on the first reflected wave at is acquired using the wireless communication circuit, and the processor uses the display device to An ultrasonic probe control method for combining and displaying a first ultrasonic image of the living body or a puncture needle based on one image information and a puncture guide indicating a puncture route based on the position information and the angle information Is provided.
  • the computer inputs from the first side of the ultrasonic probe device and the second side facing the first side, which are input from the touch panel of the display device, to the living body.
  • Position information indicating whether a puncture is performed and angle information indicating a puncture angle are acquired, and the position information and the angle information are transmitted to the ultrasonic probe device using a wireless communication circuit, and the position information Generated by the ultrasonic probe device based on the first reflected wave in the living body with respect to the first ultrasonic wave transmitted from the ultrasonic probe device at a first angle based on the angle information and the angle information.
  • FIG. 1 is a diagram illustrating an example of an ultrasonic probe control method according to the first embodiment.
  • the processor 1a executes the processes of steps S1, S2, S3, and S4 as shown in FIG. 1 based on the data and programs stored in the memory 1b.
  • the processor 1a may be a multiprocessor.
  • the processor 1a is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), or a PLD (Programmable Logic Device).
  • the processor 1a may be a combination of two or more elements among CPU, MPU, DSP, ASIC, and PLD.
  • the memory 1b stores programs executed by the processor 1a and various data.
  • various storage devices such as a flash memory and an SSD (Solid State Drive) can be used.
  • the display device 1c is, for example, a liquid crystal display or an organic EL (Electro Luminescence) display, and displays an ultrasonic image or the like on the screen under the control of the processor 1a.
  • the display device 1c has a touch panel, and accepts input from the touch panel by a user (for example, a nurse or a clinician).
  • the wireless communication circuit 1d performs wireless communication with the ultrasonic probe apparatus 2 under the control of the processor 1a.
  • the ultrasonic probe device 2 receives information indicating the puncture conditions (puncture position and puncture angle) transmitted by the general-purpose terminal device 1 wirelessly, and transmits ultrasonic waves of a plurality of channels at an angle based on the information (for example, FIG. 1). To the patient's arm 3).
  • the ultrasonic probe device 2 receives a reflected wave in the living body 3 with respect to the transmitted ultrasonic wave, and generates image information indicating the inside of the living body 3 based on the reflected wave. Furthermore, the ultrasonic probe device 2 transmits the generated image information to the general-purpose terminal device 1 wirelessly.
  • a hardware example of the ultrasonic probe apparatus 2 will be described later (see FIG. 2).
  • an example of an ultrasonic probe control method at the time of puncturing the living body 3 will be described.
  • a screen 5 as shown in FIG. 1 is displayed on the display device 1c.
  • the user inputs a measurement mode, a puncture position, and a puncture angle on the screen 5 that is a touch panel with a finger or a touch pen.
  • a puncture needle 4 As a measurement mode, focusing on a tissue such as a blood vessel in the living body 3 to obtain an ultrasonic image, focusing on a puncture needle 4 (hereinafter referred to as a puncture needle 4), There is a puncture mode for obtaining a sound image. When puncturing is performed, a puncture mode is input (selected) on the screen 5.
  • the puncture of the living body 3 is performed from the first side of the ultrasonic probe apparatus 2 or the second side facing the first side.
  • the first side is the left side
  • the second side is the right side.
  • the ultrasonic probe apparatus 2 is provided with a mark 2a so that the left and right can be seen.
  • a mark 2 a is attached on the right side of the ultrasonic probe apparatus 2.
  • a mark 8 is also displayed on the screen 5.
  • puncturing position When puncturing is performed from the left side of the ultrasound probe apparatus 2, “left” is selected as the puncturing position, and when the puncturing is performed from the right side, “right” is selected as the puncturing position.
  • a puncture position where puncture is easy to perform can be selected according to the user's dominant hand, the positional relationship between the user and the living body 3, and the like.
  • the puncture angle is input on the screen 5 by the user depending on, for example, in which tissue of the living body 3 the tip of the puncture needle 4 is positioned.
  • a numeric keypad is displayed when the user touches a column for inputting a puncture angle, and the user touches the numeric keypad to input the puncture angle.
  • the processor 1a acquires information on the puncture position (hereinafter referred to as position information) input on the touch panel as described above and angle information indicating the puncture angle from the display device 1c (step S1).
  • the processor 1a wirelessly transmits the acquired position information and angle information to the ultrasonic probe apparatus 2 using the wireless communication circuit 1d (step S2).
  • the ultrasonic probe apparatus 2 transmits an ultrasonic wave at an angle suitable for obtaining a clear ultrasonic image of the puncture needle 4 based on the position information and the angle information.
  • the ultrasonic probe device 2 generates image information based on the reflected wave from the living body 3 with respect to the ultrasonic wave, and transmits the image information to the general-purpose terminal device 1 wirelessly.
  • the processor 1a acquires the image information generated by the ultrasonic probe device 2 using the wireless communication circuit 1d (step S3).
  • the processor 1a uses the display device 1c to synthesize and display the ultrasonic image in the living body 3 based on the acquired image information and the puncture guide indicating the puncture route based on the position information and the angle information (step S4). ).
  • FIG. 1 shows an example in which the ultrasonic image 6 and the puncture guide 7 are synthesized and displayed on the screen 5.
  • the puncture guide 7 is displayed at an angle of 20 ° from the upper left corner of the ultrasound image 6 toward the lower right.
  • the puncture guide 7 is displayed with a dotted line, but the display device 1c may change the thickness, color, line type, etc. of the puncture guide 7 so that the user can easily see it. Good.
  • the user inserts the puncture needle 4 into the living body 3 along the puncture guide 7 while looking at the screen 5. Since the transmission angle of the ultrasonic wave is determined based on the puncture position and the puncture angle, if the puncture needle 4 is inserted along the puncture guide 7, the puncture needle 4 is clearly reflected in the ultrasonic image 6. Therefore, the user can easily know whether or not the puncture needle 4 is properly inserted into the living body 3.
  • the general-purpose terminal device 1 uses the ultrasonic probe device 2 based on the puncture conditions (puncture position and puncture angle) input from the display device 1c having a touch panel function. Control by radio. Furthermore, the general-purpose terminal device 1 synthesizes and displays the ultrasonic image 6 obtained by the ultrasonic probe device 2 and the puncture guide 7 based on the puncture conditions on the screen 5. Thereby, grasping of puncture conditions, setting and conversion of puncture conditions can be easily performed on the screen 5 (touch panel) of the general-purpose terminal device 1, and puncture work is facilitated.
  • the puncture conditions punctcture position and puncture angle
  • the general-purpose terminal device 1 such as a tablet terminal device or a smartphone can be relatively freely selected by the user, the burden of the puncture work can be reduced by placing the general-purpose terminal device 1 in an easy-to-see place during the puncture work.
  • the ultrasonic probe device 2 can be controlled by the general-purpose terminal device 1 instead of the dedicated device, the cost can be reduced.
  • an ultrasonic probe control method according to the second embodiment will be described. Note that the ultrasonic probe control methods of the following embodiments will be described on the assumption that the general-purpose terminal device 1 and the ultrasonic probe device 2 as shown in FIG. 1 are used.
  • the ultrasonic probe apparatus 2 is realized by the following hardware, for example.
  • FIG. 2 is a diagram illustrating a hardware example of the ultrasonic probe apparatus.
  • the ultrasonic probe device 2 includes a processor 21, a transducer 22, a pulser & switch 23, an AMP (Amplifier) & ADC (Analogue to Digital Converter) 24, a digital signal processing circuit 25, and a wireless communication circuit 26.
  • AMP Anamplifier
  • ADC Analogue to Digital Converter
  • the processor 21 controls the pulser & switch 23 and the digital signal processing circuit 25 based on the puncture position and puncture angle information received by the wireless communication circuit 26.
  • the processor 21 is, for example, a CPU, MPU, DSP, ASIC, or PLD.
  • the processor 21 may be a combination of two or more elements among CPU, MPU, DSP, ASIC, and PLD.
  • the ultrasound probe apparatus 2 includes a program executed by the processor 21 and a memory for storing various data. Various memories such as a flash memory and an SSD can be used as the memory.
  • the transducer 22 transmits an ultrasonic wave into the living body 3 based on the pulse signal generated by the pulser & switch 23.
  • the ultrasonic waves are reflected at boundaries having different acoustic impedances such as muscles, fats, and puncture needles.
  • the transducer 22 receives the reflected wave and outputs a received signal.
  • the number of transmission / reception channels between the transducer 22 and the living body 3 and the number of transmission / reception channels between the transducer 22 and the pulser & switch 23 are 64, respectively. It is not something.
  • the width and resolution of the obtained ultrasound image are determined by the channel interval and the number of channels.
  • the pulser & switch 23 outputs a pulse signal having a different delay amount for each channel under the control of the processor 21 in order to focus the ultrasonic waves simultaneously transmitted from the transducer 22 into the living body 3 through a plurality of channels.
  • the pulser & switch 23 shifts and selects 8 channels of the received signals for 64 channels output from the transducer 22 one by one, and outputs them to the AMP & ADC 24.
  • the number of channels selected by the pulser & switch 23 is not limited to eight channels.
  • the digital signal processing circuit 25 performs timing adjustment for the delay of the pulse signal on the digital signals for eight channels, performs averaging (phased addition), and then performs noise removal by a digital filter. Correct the gain. Furthermore, the digital signal processing circuit 25 performs envelope processing for extracting luminance information from the digital signal after gain correction, and thinning processing based on the image resolution of the display device 1c of the general-purpose terminal device 1 to obtain luminance information (image information). ) Is output.
  • the wireless communication circuit 26 receives information on the puncture position and puncture angle transmitted from the general-purpose terminal device 1 wirelessly. Further, the wireless communication circuit 26 wirelessly transmits the image information output from the digital signal processing circuit 25 to the general-purpose terminal device 1.
  • FIG. 3 is a flowchart illustrating a flow of an example of the ultrasonic probe control method according to the second embodiment.
  • the processor 1a of the general-purpose terminal device 1 acquires the measurement mode input by the touch panel of the display device 1c (step S10). Then, the processor 1a determines whether the acquired measurement mode is the normal transmission mode or the puncture mode (step S11).
  • the ultrasonic probe device 2 When receiving the notification that the measurement mode is the normal transmission mode, the ultrasonic probe device 2 transmits ultrasonic waves as follows, for example.
  • FIG. 4 is a diagram illustrating an example of ultrasonic transmission in the normal transmission mode.
  • FIG. 4 simply shows examples of signals (ultrasonic waves) 30, 31, and 32 transmitted from the three channels of the transducer 22.
  • the delay amount of the pulse signal is set so as to focus on the object 3a immediately below the transducer 22, and transmitted from the transducer 22 based on the pulse signal.
  • the transmission angle of the signals 30 to 32 is determined.
  • image information is generated by the processing of each part of the ultrasonic probe device 2 described above and transmitted wirelessly.
  • the processor 1a of the general-purpose terminal device 1 acquires the image information using the wireless communication circuit 1d (step S16), and displays the ultrasonic image based on the acquired image information using the display device 1c (step S17). .
  • FIG. 5 is a diagram illustrating an example of a screen displayed on the display device in the normal transmission mode.
  • FIG. 5 shows an example in which the normal transmission mode is selected on the screen 33 and the ultrasonic image 34 in the normal transmission mode is displayed.
  • the processor 1a determines whether or not the measurement mode has been changed (step S18). When it is determined that the measurement mode has been changed, the processing from step S11 is repeated. When the measurement mode has not been changed, the processor 1a determines whether or not the measurement has ended (step S19). When it is determined that the measurement has ended, the processor 1a ends the process and determines that the measurement has not ended. Sometimes, the processing from step S16 is repeated.
  • the processor 1a controls the display device 1c to display an end button on the touch panel of the display device 1c, and determines that the measurement has ended when the user touches the button.
  • the processor 1a determines that the acquired measurement mode is the puncture mode in the process of step S11, the processor 1a acquires the puncture position and the puncture angle input on the screen of the display device 1c (steps S13 and S14). Then, the processor 1a wirelessly transmits the position information indicating the puncture position and the angle information indicating the puncture angle to the ultrasonic probe apparatus 2 using the wireless communication circuit 1d (step S15).
  • the processor 1a obtains an ultrasonic transmission angle from the acquired puncture position and puncture angle so that the puncture needle 4 is focused (so that the ultrasonic wave strikes the puncture needle 4 perpendicularly), and the transmission angle is obtained. May be transmitted using the wireless communication circuit 1d.
  • the ultrasonic probe device 2 When receiving the position information indicating the puncture position and the angle information indicating the puncture angle (or information indicating the transmission angle), the ultrasonic probe device 2 transmits ultrasonic waves to the living body 3 as follows, for example.
  • FIG. 6 is a diagram illustrating an example of ultrasound transmission in the puncture mode. Similar to FIG. 4, FIG. 6 simply shows examples of signals (ultrasonic waves) 40, 41, and 42 transmitted from the three channels of the transducer 22.
  • the delay amount of the pulse signal is set so as to focus on the puncture needle 4 punctured at the designated puncture position and puncture angle, and based on the pulse signal.
  • the transmission angle of the signals 40 to 42 transmitted from the transducer 22 is determined.
  • FIG. 7 is a diagram illustrating an example of a screen displayed on the display device in the puncture mode.
  • FIG. 7 shows an example in which the puncture mode is selected as the measurement mode, the left is selected as the puncture position, and 20 ° is input as the puncture angle on the screen 43a.
  • the screen 43a includes a puncture guide 45a extending from the upper left corner of the ultrasound image 44 to the lower right according to the puncture position and puncture angle. 44 is synthesized and displayed.
  • FIG. 8 is a diagram illustrating another example of a screen displayed on the display device in the puncture mode.
  • FIG. 8 shows an example in which the puncture mode is selected as the measurement mode, the right is selected as the puncture position, and 20 ° is input as the puncture angle on the screen 43b.
  • a puncture guide 45b extending from the upper right corner to the lower left of the ultrasound image 44 corresponding to the puncture position and puncture angle is displayed on the screen 43b.
  • a puncture guide 45b extending from the upper right corner to the lower left of the ultrasound image 44 corresponding to the puncture position and puncture angle is displayed on the screen 43b.
  • the user can easily perform accurate puncturing by viewing the screens 43a and 43b and inserting the puncture needle 4 into the living body 3 along the puncture guides 45a and 45b as described above.
  • the user may be able to slide the puncture guides 45a and 45b to desired positions using a touch panel.
  • the same effect as the ultrasonic probe control method of the first embodiment can be obtained. Further, switching between the normal transmission mode and the puncture mode can be easily performed on the screen (touch panel) of the display device 1c of the general-purpose terminal device 1, and switching to an ultrasonic image suitable for the content set on the screen is facilitated.
  • each step as shown in FIG. 3 is not limited to the above order.
  • the processor 1a may first allow the display device 1c to display an ultrasonic image in the normal transmission mode and then allow the transition to the puncture mode.
  • FIG. 9 is a flowchart illustrating an exemplary flow of an ultrasonic probe control method according to the third embodiment.
  • steps S20, S21, and S22 are the same as the processes in steps S10 to S12 shown in FIG.
  • the processor 1a acquires the puncture angle (with a positive or negative sign) input on the touch panel of the display device 1c (step S23).
  • the symbol attached to the puncture angle indicates the puncture position. For example, when puncturing is performed from the left side of the ultrasonic probe apparatus 2 (when the puncturing position is “left”), a positive sign is attached. When puncturing is performed from the right side of the ultrasonic probe device 2 (when the puncturing position is “right”), a negative sign is attached.
  • the processor 1a transmits the position information indicating the puncture position represented by the above symbols and the angle information indicating the puncture angle to the ultrasonic probe apparatus 2 using the wireless communication circuit 1d (step S24). ).
  • the subsequent steps S25, S26, S27, and S28 are the same as the steps S16 to S19 shown in FIG.
  • the ultrasonic probe control method according to the third embodiment as described above can achieve the same effects as the ultrasonic probe control method according to the second embodiment. Similar to the ultrasonic probe control method of the second embodiment, the steps as shown in FIG. 9 are not limited to the above order.
  • FIG. 11 is a flowchart illustrating a flow of an example of the ultrasonic probe control method according to the fourth embodiment.
  • steps S30, S31, S32, S33, S34, S35, and S36 are the same as the processes in steps S10 to S16 shown in FIG.
  • the processor 1a displays an ultrasonic image on the display device 1c based on the acquired image information.
  • touch position information indicating the position touched by the user on the screen (touch panel) of the display device 1c is acquired (step S38).
  • the processor 1a uses the display device 1c based on the touch position information, the position information indicating the puncture position, and the angle information indicating the puncture angle, and uses the display device 1c as a start point or an end point. Are combined with the ultrasonic image and displayed (step S39).
  • FIG. 12 is a diagram illustrating a setting example of the puncture guide in the ultrasonic probe control method according to the fourth embodiment.
  • FIG. 12 shows an example in which the puncture mode is selected as the measurement mode, “right” is selected as the puncture position, and 20 ° is input as the puncture angle on the screen 60.
  • the processor 1a touches that position.
  • Position information (for example, coordinates) is acquired.
  • the processor 1a uses the position as a start point (or end point) 63a, and displays a puncture guide 63b extending to the upper right at an angle of 20 ° on the display device 1c in combination with the ultrasound image 61.
  • each step as shown in FIG. 11 is not limited to the above order.
  • (Fifth embodiment) Hereinafter, an ultrasonic probe control method according to the fifth embodiment will be described.
  • FIG. 13 is a flowchart illustrating a flow of an example of the ultrasonic probe control method according to the fifth embodiment.
  • the processes in steps S50, S51, and S52 are the same as the processes in steps S10 to S12 shown in FIG.
  • FIG. 14 is a diagram illustrating a drawing example of a puncture guide in the ultrasonic probe control method according to the fifth embodiment.
  • FIG. 14 shows an example in which the puncture mode is selected as the measurement mode. Further, an example of a puncture guide 74 drawn when the finger 73 or the like is traced from the position 72a to the position 72b of the ultrasonic image 71 displayed on the screen 70 which is a touch panel is shown.
  • the processor 1a acquires the position information (for example, coordinates) of the positions 72a and 72b as position information indicating the puncture position and angle information indicating the puncture angle. This is because the puncture position and puncture angle are known from the position information of the positions 72a and 72b. For example, when the puncture guide 74 is drawn as shown in FIG. 14, the puncture position is “right” and the puncture angle is 20 °.
  • the processor 1a wirelessly transmits the position information and the angle information to the ultrasonic probe device 2 using the wireless communication circuit 1d (step S54). Subsequent steps S55, S56, S57, and S58 are the same as steps S16 to S19 shown in FIG.
  • the processor 1a may use the display device 1c to display the puncture guide 74 connecting the positions 72a and 72b shown in FIG. 14 with the ultrasonic image during the process of step S56. .
  • the ultrasonic probe control method according to the fifth embodiment as described above can achieve the same effect as the ultrasonic probe control method according to the first embodiment, and the puncture conditions (puncture position and puncture angle) can be obtained. Input becomes easier.
  • each step as shown in FIG. 13 is not limited to the above order.
  • the ultrasonic probe control method of each of the above embodiments can be realized by causing the general-purpose terminal device 1 as a computer to execute a program.
  • the program can be recorded on a computer-readable recording medium.
  • a magnetic disk for example, a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, etc.
  • Magnetic disks include HDD (Hard Disk Drive) and the like.
  • Optical discs include CD-ROM (Compact Disc Read Only Memory), CD-R (Recordable) / RW (ReWritable), DVD (Digital Versatile Disc), DVD-RAM (Random Access Memory), and the like.
  • a portable recording medium recording the program is provided. It is also possible to store the program in a storage device of another computer and distribute the program via a network.
  • the computer stores, for example, a program recorded in a portable recording medium or a program received from another computer in a storage device (for example, the memory 1b), and reads and executes the program from the storage device.
  • a program read from a portable recording medium may be directly executed, or a program received from another computer via a network may be directly executed.

Abstract

穿刺作業を容易にする。 汎用端末装置(1)のプロセッサ(1a)が、表示装置(1c)のタッチパネルで入力される、超音波プローブ装置(2)の第1の側と第1の側と対向する第2の側の何れから生体(3)への穿刺が行われるかを示す位置情報と、穿刺角度を示す角度情報とを取得し、無線通信回路(1d)を用いて、位置情報と角度情報とを超音波プローブ装置(2)に送信し、位置情報と角度情報とに基づく角度で超音波プローブ装置(2)から送信される超音波に対する生体(3)内での反射波に基づき超音波プローブ装置(2)で生成され、送信される画像情報を、無線通信回路(1d)を用いて取得し、表示装置(1c)を用いて、画像情報に基づく生体(3)または穿刺針(4)の超音波画像(6)と、位置情報及び角度情報に基づく穿刺経路を示す穿刺ガイド(7)とを合成して表示する。

Description

超音波プローブ制御方法及びプログラム
 本発明は、超音波プローブ制御方法及びプログラムに関する。
 薬剤注入や組織の採取などを行う穿刺の際に、正しく穿刺が行われているか否かを超音波画像で確認するために超音波画像診断装置を用いることがある。
 穿刺用の針は、皮膚の表面から斜めに挿入される。その針に焦点を当てた超音波画像を得るためには、超音波画像診断装置のプローブから、針の挿入方向に対して垂直に超音波を送信して(ステア送信と呼ばれる場合もある)、受信波(反射波)が減衰しないようにする方法がとられる。また、従来、超音波画像診断装置の画面上に穿刺用の針の挿入方向を示すガイドラインを表示し、穿刺をサポートする方法があった。
特開2014-212812号公報 特開2012-71014号公報 特開2010-528697号公報
 しかしながら、ユーザは、超音波画像診断装置のプローブを持ちながら穿刺を行うため、ユーザがより少ないストレスで穿刺を行えるようにすることが望ましく、従来の技術ではユーザによる穿刺をサポートするのに十分ではない。そのため、ユーザがより容易に穿刺を行えるようにすることが課題である。
 発明の一観点によれば、汎用端末装置のプロセッサが、前記汎用端末装置の表示装置のタッチパネルで入力される、超音波プローブ装置の第1の側と前記第1の側と対向する第2の側の何れから生体への穿刺が行われるかを示す位置情報と、穿刺角度を示す角度情報とを取得し、前記プロセッサが、前記汎用端末装置の無線通信回路を用いて、前記位置情報と前記角度情報とを前記超音波プローブ装置に送信し、前記プロセッサが、前記位置情報と前記角度情報とに基づく第1の角度で前記超音波プローブ装置から送信される第1の超音波に対する前記生体内での第1の反射波に基づき前記超音波プローブ装置で生成され、送信される第1の画像情報を、前記無線通信回路を用いて取得し、前記プロセッサが、前記表示装置を用いて、前記第1の画像情報に基づく前記生体または穿刺用の針の第1の超音波画像と、前記位置情報及び前記角度情報に基づく穿刺経路を示す穿刺ガイドとを合成して表示する、超音波プローブ制御方法が提供される。
 また、発明の一観点によれば、コンピュータに、表示装置のタッチパネルで入力される、超音波プローブ装置の第1の側と前記第1の側と対向する第2の側の何れから生体への穿刺が行われるかを示す位置情報と、穿刺角度を示す角度情報とを取得し、無線通信回路を用いて、前記位置情報と前記角度情報とを前記超音波プローブ装置に送信し、前記位置情報と前記角度情報とに基づく第1の角度で前記超音波プローブ装置から送信される第1の超音波に対する前記生体内での第1の反射波に基づき前記超音波プローブ装置で生成され、送信される第1の画像情報を、前記無線通信回路を用いて取得し、前記表示装置を用いて、前記第1の画像情報に基づく前記生体または穿刺用の針の第1の超音波画像と、前記位置情報及び前記角度情報に基づく穿刺経路を示す穿刺ガイドとを合成して表示する、処理を実行させるプログラムが提供される。
 開示の超音波プローブ制御方法及びプログラムによれば、穿刺作業が容易になる。
 本発明の上記および他の目的、特徴および利点は本発明の例として好ましい実施の形態を表す添付の図面と関連した以下の説明により明らかになるであろう。
第1の実施の形態の超音波プローブ制御方法の一例を示す図である。 超音波プローブ装置のハードウェア例を示す図である。 第2の実施の形態の超音波プローブ制御方法の一例の流れを示すフローチャートである。 通常送信モード時の超音波の送信例を示す図である。 通常送信モード時に表示装置に表示される画面の一例を示す図である。 穿刺モード時の超音波の送信例を示す図である。 穿刺モード時に表示装置に表示される画面の一例を示す図である。 穿刺モード時に表示装置に表示される画面の他の例を示す図である。 第3の実施の形態の超音波プローブ制御方法の一例の流れを示すフローチャートである。 第3の実施の形態の超音波プローブ制御方法において、表示装置に表示される画面の一例を示す図である。 第4の実施の形態の超音波プローブ制御方法の一例の流れを示すフローチャートである。 第4の実施の形態の超音波プローブ制御方法での穿刺ガイドの設定例を示す図である。 第5の実施の形態の超音波プローブ制御方法の一例の流れを示すフローチャートである。 第5の実施の形態の超音波プローブ制御方法での穿刺ガイドの描画例を示す図である。
 以下、発明を実施するための形態を、図面を参照しつつ説明する。
 (第1の実施の形態)
 図1は、第1の実施の形態の超音波プローブ制御方法の一例を示す図である。
 第1の実施の形態の超音波プローブ制御方法は、たとえば、図1に示すような汎用端末装置1で行われる。
 汎用端末装置1は、たとえば、タブレット端末装置やスマートフォンなどであり、プロセッサ1a、メモリ1b、タッチパネルをもつ表示装置1c、無線通信回路1dを有している。
 プロセッサ1aは、メモリ1bに記憶されているデータ及びプログラムに基づき、図1に示すような各ステップS1,S2,S3,S4の処理を実行する。プロセッサ1aは、マルチプロセッサであってもよい。プロセッサ1aは、たとえばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはPLD(Programmable Logic Device)である。またプロセッサ1aは、CPU、MPU、DSP、ASIC、PLDのうちの2以上の要素の組み合わせであってもよい。
 メモリ1bは、プロセッサ1aが実行するプログラムや、各種データを記憶する。メモリ1bは、フラッシュメモリやSSD(Solid State Drive)など、種々の記憶装置を用いることができる。
 表示装置1cは、たとえば、液晶ディスプレイや、有機EL(Electro Luminescence)ディスプレイなどであり、プロセッサ1aによる制御のもと、超音波画像などを画面上に表示する。また、表示装置1cは、タッチパネルを有しており、ユーザ(たとえば、看護師や臨床医など)によるタッチパネルでの入力を受け付ける。
 無線通信回路1dは、プロセッサ1aによる制御のもと、超音波プローブ装置2との間で無線通信を行う。
 超音波プローブ装置2は、汎用端末装置1が無線で送信する穿刺条件(穿刺位置や穿刺角度)を示す情報を受信し、その情報に基づく角度で複数チャネルの超音波を生体(たとえば、図1のように患者の腕)3に送信する。また、超音波プローブ装置2は、送信した超音波に対する生体3内での反射波を受信し、反射波に基づき生体3内を示す画像情報を生成する。さらに、超音波プローブ装置2は、生成した画像情報を、汎用端末装置1に無線で送信する。
 超音波プローブ装置2のハードウェア例については後述する(図2参照)。
 以下、生体3への穿刺時の超音波プローブ制御方法の一例を説明する。
 表示装置1cには、たとえば、図1に示すような画面5が表示される。ユーザは、指またはタッチペンなどにより、タッチパネルである画面5上で、測定モード、穿刺位置、穿刺角度の入力を行う。
 測定モードとしては、生体3内の血管などの組織に焦点を当てて、超音波画像を得るための通常送信モードと、穿刺用の針4(以下穿刺針4という)に焦点を当てて、超音波画像を得るための穿刺モードとがある。穿刺が行われる際には、画面5上で穿刺モードが入力(選択)される。
 生体3への穿刺は、超音波プローブ装置2の第1の側または第1の側に対向する第2の側から行われる。以下では、第1の側を左側、第2の側を右側とする。なお、超音波プローブ装置2には、左右が分かるようにマーク2aが付けられている。図1の例では、超音波プローブ装置2の右側に、マーク2aが付けられている。このマーク2aに対応して、画面5にもマーク8が表示されている。
 穿刺が超音波プローブ装置2の左側から行われる場合には、穿刺位置として“左”が選択され、右側から行われる場合には、穿刺位置として“右”が選択される。これにより、たとえば、ユーザの利き手や、ユーザと生体3の位置関係などによって、穿刺をしやすい穿刺位置が選択できる。
 穿刺角度は、たとえば、穿刺針4の先端を生体3のどこの組織に位置させるかに応じて、ユーザにより画面5上で入力される。たとえば、穿刺角度を入力する欄にユーザがタッチすることでテンキーが表示され、ユーザは、そのテンキーをタッチして穿刺角度を入力する。
 プロセッサ1aは、上記のようにタッチパネルで入力された上記の穿刺位置の情報(以下位置情報という)と、穿刺角度を示す角度情報とを、表示装置1cから取得する(ステップS1)。
 そして、プロセッサ1aは、無線通信回路1dを用いて、取得した位置情報と角度情報とを、超音波プローブ装置2に無線で送信する(ステップS2)。
 超音波プローブ装置2は、位置情報と角度情報とを受信すると、位置情報と角度情報に基づき、穿刺針4の鮮明な超音波画像を得るために適した角度で超音波を送信する。そして、超音波プローブ装置2は、その超音波に対する生体3での反射波に基づき画像情報を生成し、無線で汎用端末装置1に送信する。
 穿刺時に穿刺針4を鮮明に表示するには、穿刺針4の挿入方向に対して垂直に超音波を送信することが望ましい。
 プロセッサ1aは、超音波プローブ装置2で生成された画像情報を、無線通信回路1dを用いて取得する(ステップS3)。
 そしてプロセッサ1aは、表示装置1cを用いて、取得した画像情報に基づく生体3内の超音波画像と、位置情報及び角度情報に基づく穿刺経路を示す穿刺ガイドとを合成して表示する(ステップS4)。
 図1には、画面5に、超音波画像6と、穿刺ガイド7とが合成して表示されている例が示されている。図1の例では、穿刺ガイド7は、超音波画像6の左上隅から、右下に向かって20°の角度で表示されている。また、図1の例では、穿刺ガイド7は点線で表示されているが、ユーザが見やすいように、表示装置1cは、穿刺ガイド7の線の太さ、色、線の種類などを変えてもよい。
 ユーザは、画面5を見ながら、穿刺ガイド7に沿って生体3内に穿刺針4を刺していく。超音波の送信角度は、穿刺位置及び穿刺角度に基づいて決定されているので、穿刺針4が穿刺ガイド7に沿って挿入されていれば、穿刺針4は鮮明に超音波画像6に映る。したがって、ユーザは、穿刺針4が、適切に生体3内に挿入されているか否かが容易にわかる。
 このように、本実施の形態の超音波プローブ制御方法では、汎用端末装置1が、タッチパネル機能をもつ表示装置1cで入力された穿刺条件(穿刺位置や穿刺角度)に基づき超音波プローブ装置2を無線で制御する。さらに、汎用端末装置1は、超音波プローブ装置2で得られた超音波画像6と、穿刺条件に基づく穿刺ガイド7とを画面5上で合成して表示する。これにより、穿刺状況の把握や穿刺条件の設定や変換などが汎用端末装置1の画面5上(タッチパネル)で簡単に行え、穿刺作業が容易になる。
 また、タブレット端末装置やスマートフォンなどである汎用端末装置1は、ユーザが比較的自由に配置場所を選択できるため、穿刺作業の際に見やすい場所に配置することで、穿刺作業の負担が軽減する。
 また、超音波プローブ装置2の制御を専用装置ではなく、汎用端末装置1で行えるので、コストを抑えることができる。
 (第2の実施の形態)
 以下、第2の実施の形態の超音波プローブ制御方法を説明する。なお、以降の実施の形態の超音波プローブ制御方法でも、図1に示したような汎用端末装置1と、超音波プローブ装置2とを用いるものとして説明する。なお、超音波プローブ装置2は、たとえば、以下のようなハードウェアで実現される。
 図2は、超音波プローブ装置のハードウェア例を示す図である。
 超音波プローブ装置2は、プロセッサ21、トランスデューサ22、パルサ&スイッチ23、AMP(Amplifier)&ADC(Analogue to Digital Converter)24、デジタル信号処理回路25、無線通信回路26を有している。
 プロセッサ21は、無線通信回路26が受信する穿刺位置や穿刺角度の情報などに基づき、パルサ&スイッチ23やデジタル信号処理回路25を制御する。プロセッサ21は、たとえばCPU、MPU、DSP、ASIC、またはPLDである。またプロセッサ21は、CPU、MPU、DSP、ASIC、PLDのうちの2以上の要素の組み合わせであってもよい。また、図示を省略しているが、超音波プローブ装置2は、プロセッサ21が実行するプログラムや、各種データを記憶するメモリを有している。メモリとして、フラッシュメモリやSSDなど、種々の記憶装置を用いることができる。
 トランスデューサ22は、パルサ&スイッチ23が生成したパルス信号に基づき超音波を生体3内に送信する。生体3内では、筋肉や脂肪または穿刺針など、音響インピーダンスが異なる境界において超音波が反射する。トランスデューサ22は、その反射波を受信して受信信号を出力する。
 なお、図2の例では、トランスデューサ22と生体3との間の送受信チャネルと、トランスデューサ22とパルサ&スイッチ23との間の送受信チャネルの数はそれぞれ64となっているが、この数に限定されるものではない。チャネル間隔及びチャネル数により、得られる超音波画像の幅及び分解能が決まる。
 パルサ&スイッチ23は、トランスデューサ22から生体3内へ複数チャネルで同時に送信される超音波の焦点を合わせるため、プロセッサ21による制御のもと、チャネルごとに異なる遅延量のパルス信号を出力する。
 また、パルサ&スイッチ23は、トランスデューサ22が出力する64チャネル分の受信信号のうち、8チャネル分を、1チャネルずつシフトして選択して、AMP&ADC24に出力する。なお、パルサ&スイッチ23が選択するチャネル数も8チャネルに限定されるものではない。
 AMP&ADC24は、受信信号を増幅し、デジタル信号に変換する。
 デジタル信号処理回路25は、プロセッサ21の制御のもと、AMP&ADC24から出力されるデジタル信号に基づき、生体3内の超音波画像を示す画像情報を生成し、出力する。
 たとえば、デジタル信号処理回路25は、8チャネル分のデジタル信号に対して、上記のパルス信号の遅延分のタイミング合わせを行い、平均化(整相加算)を行った後、デジタルフィルタによるノイズ除去や、ゲイン補正をする。さらに、デジタル信号処理回路25は、ゲイン補正後のデジタル信号から輝度情報を取り出すための包絡線処理や、汎用端末装置1の表示装置1cの画像分解能に基づく間引き処理を行い、輝度情報(画像情報)を出力する。
 無線通信回路26は、汎用端末装置1が無線で送信する穿刺位置や穿刺角度の情報を受信する。また、無線通信回路26は、デジタル信号処理回路25が出力する画像情報を、無線で、汎用端末装置1に送信する。
 以下、図1に示した汎用端末装置1と、図2に示した超音波プローブ装置2とを用いた第2の実施の形態の超音波プローブ制御方法の一例を説明する。
 図3は、第2の実施の形態の超音波プローブ制御方法の一例の流れを示すフローチャートである。
 汎用端末装置1のプロセッサ1aは、表示装置1cのタッチパネルで入力される測定モードを取得する(ステップS10)。
 そして、プロセッサ1aは、取得した測定モードが通常送信モードか、穿刺モードかを判定する(ステップS11)。
 測定モードが通常送信モードであると判定されると、プロセッサ1aの制御のもと、無線通信回路1dは、測定モードが通常送信モードであることを、超音波プローブ装置2に無線で通知する(ステップS12)。たとえば、生体3内の血管などの組織に焦点を当てた超音波画像を得たいときには、通常送信モードが選択される。
 超音波プローブ装置2は、測定モードが通常送信モードであるとの通知を受けたときは、たとえば、以下のように超音波を送信する。
 図4は、通常送信モード時の超音波の送信例を示す図である。
 図4では簡易的に、トランスデューサ22の3つのチャネルから送信された信号(超音波)30,31,32の例が示されている。たとえば、図4に示すように、通常送信モード時には、トランスデューサ22の真下にある対象物3aに焦点が合うようにパルス信号の遅延量が設定されており、そのパルス信号に基づきトランスデューサ22から送信される信号30~32の送信角度が決まる。
 トランスデューサ22が反射波を受けると、前述した超音波プローブ装置2の各部の処理により画像情報が生成され、無線で送信される。
 汎用端末装置1のプロセッサ1aは、無線通信回路1dを用いてその画像情報を取得し(ステップS16)、表示装置1cを用いて、取得した画像情報に基づく超音波画像を表示する(ステップS17)。
 図5は、通常送信モード時に表示装置に表示される画面の一例を示す図である。
 図5では、通常送信モードが画面33上で選択され、通常送信モードにおける超音波画像34が表示された例が示されている。
 プロセッサ1aは、測定モードが変更されたか否かを判定し(ステップS18)、測定モードが変更されたと判定したときには、ステップS11からの処理を繰り返す。 
プロセッサ1aは、測定モードが変更されていないときには、測定が終了したか否かを判定し(ステップS19)、測定が終了したと判定したときには処理を終了し、測定が終了していないと判定したときには、ステップS16からの処理を繰り返す。
 たとえば、プロセッサ1aは、表示装置1cを制御して、表示装置1cのタッチパネルに終了ボタンを表示させ、ユーザがそのボタンをタッチしたときに、測定が終了したと判定する。
 一方、プロセッサ1aは、ステップS11の処理において、取得した測定モードが穿刺モードであると判定すると、表示装置1cの画面上で入力される穿刺位置と穿刺角度を取得する(ステップS13,S14)。そして、プロセッサ1aは、無線通信回路1dを用いて、穿刺位置を示す位置情報及び穿刺角度を示す角度情報を超音波プローブ装置2に無線で送信する(ステップS15)。
 なお、プロセッサ1aは、取得した穿刺位置及び穿刺角度から、穿刺針4に焦点が当たるように(穿刺針4に垂直に超音波が当たるように)超音波の送信角度を求めて、その送信角度を示す情報を、無線通信回路1dを用いて送信してもよい。
 超音波プローブ装置2は、穿刺位置を示す位置情報及び穿刺角度を示す角度情報(または送信角度を示す情報)を受けたときは、たとえば、以下のように生体3に超音波を送信する。
 図6は、穿刺モード時の超音波の送信例を示す図である。
 図4と同様に、図6でも簡易的に、トランスデューサ22の3つのチャネルから送信された信号(超音波)40,41,42の例が示されている。たとえば、図6に示すように、穿刺モード時には、指定された穿刺位置及び穿刺角度で穿刺される穿刺針4に焦点が合うようにパルス信号の遅延量が設定されており、そのパルス信号に基づきトランスデューサ22から送信される信号40~42の送信角度が決まる。
 トランスデューサ22が反射波を受けると、前述した超音波プローブ装置2の各部の処理により画像情報が生成され、無線で送信され、汎用端末装置1では前述したステップS16,S17の処理が行われる。
 ただし、穿刺モード時には、超音波画像に対して穿刺ガイドが合成されて表示される。
 図7は、穿刺モード時に表示装置に表示される画面の一例を示す図である。
 図7では、画面43a上で、測定モードとして穿刺モードが選択され、さらに、穿刺位置として左が選択され、穿刺角度として20°が入力された例が示されている。このとき、画面43aには、穿刺モードにおける超音波画像44の他に、上記穿刺位置及び穿刺角度に対応して、超音波画像44の左上隅から右下に伸びる穿刺ガイド45aが、超音波画像44に対して合成されて表示される。
 図8は、穿刺モード時に表示装置に表示される画面の他の例を示す図である。
 図8では、画面43b上で、測定モードとして穿刺モードが選択され、さらに、穿刺位置として右が選択され、穿刺角度として20°が入力された例が示されている。このとき、画面43bには、穿刺モードにおける超音波画像44の他に、上記穿刺位置及び穿刺角度に対応して、超音波画像44の右上隅から左下に伸びる穿刺ガイド45bが、超音波画像44に対して合成されて表示される。
 ユーザは、画面43a,43bを見て、上記のような穿刺ガイド45a,45bに沿って穿刺針4を生体3に挿入していくことで、正確な穿刺を容易に行うことができる。なお、ユーザが、タッチパネルを用いて、穿刺ガイド45a,45bを所望の位置にスライドできるようにしてもよい。
 以上のような第2の実施の形態の超音波プローブ制御方法によれば、第1の実施の形態の超音波プローブ制御方法と同様の効果が得られる。また、通常送信モードと穿刺モードの切り替えが汎用端末装置1の表示装置1cの画面上(タッチパネル)で簡単に行え、画面上で設定した内容に適した超音波画像への切り替えも容易になる。
 なお、図3に示したような各ステップは、上記の順序に限定されるものではない。たとえば、プロセッサ1aは、初めに通常送信モードでの超音波画像を表示装置1cに表示させておいてから、穿刺モードへの移行を許容するようにしてもよい。
 (第3の実施の形態)
 以下、第3の実施の形態の超音波プローブ制御方法を説明する。
 図9は、第3の実施の形態の超音波プローブ制御方法の一例の流れを示すフローチャートである。
 ステップS20,S21,S22の処理は、図3に示したステップS10~S12の処理と同じである。
 第3の実施の形態の超音波プローブ制御方法では、穿刺モードのとき、プロセッサ1aは、表示装置1cのタッチパネルで入力される穿刺角度(正または負の符号付き)を取得する(ステップS23)。
 穿刺角度に付けられる符号は、穿刺位置を示す。たとえば、穿刺が超音波プローブ装置2の左側から行われる場合(穿刺位置が“左”の場合)、正の符号が付けられる。穿刺が超音波プローブ装置2の右側から行われる場合(穿刺位置が“右”の場合)、負の符号が付けられる。
 そして、プロセッサ1aは、上記のような符号で表される穿刺位置を示す位置情報と、穿刺角度を示す角度情報を、無線通信回路1dを用いて、超音波プローブ装置2に送信する(ステップS24)。その後のステップS25,S26,S27,S28の処理は、図3に示したステップS16~S19の処理と同じである。
 図10は、第3の実施の形態の超音波プローブ制御方法において、表示装置に表示される画面の一例を示す図である。
 図10では、画面50上で、測定モードとして穿刺モードが選択され、さらに、穿刺角度として-30°が入力された例が示されている。“-”は、穿刺位置が、“右”であることを示している。このとき、画面50には、穿刺モードにおける超音波画像51の他に、上記穿刺位置及び穿刺角度に対応して、超音波画像44の右上から左下に伸びる穿刺ガイド52が、超音波画像51に対して合成されて表示されている。
 上記のような、第3の実施の形態の超音波プローブ制御方法でも、第2の実施の形態の超音波プローブ制御方法と同様の効果が得られる。
 なお、第2の実施の形態の超音波プローブ制御方法と同様に、図9に示したような各ステップは、上記の順序に限定されるものではない。
 (第4の実施の形態)
 以下、第4の実施の形態の超音波プローブ制御方法を説明する。
 図11は、第4の実施の形態の超音波プローブ制御方法の一例の流れを示すフローチャートである。
 ステップS30,S31,S32,S33,S34,S35,S36の処理は、図3に示したステップS10~S16の処理と同じである。
 ステップS37の処理では、プロセッサ1aは、取得した画像情報に基づき、表示装置1cに、超音波画像を表示させる。そして、穿刺モードのときは、表示装置1cの画面上(タッチパネル)でユーザによってタッチされた位置を示すタッチ位置情報を取得する(ステップS38)。
 さらに、穿刺モードのとき、プロセッサ1aは、タッチ位置情報、穿刺位置を示す位置情報及び穿刺角度を示す角度情報に基づき、表示装置1cを用いて、タッチされた位置を始点または終点とした穿刺ガイドを、超音波画像に合成して表示する(ステップS39)。
 図12は、第4の実施の形態の超音波プローブ制御方法での穿刺ガイドの設定例を示す図である。
 図12では、画面60上で、測定モードとして穿刺モードが選択され、さらに、穿刺位置として“右”が選択され、穿刺角度として20°が入力された例が示されている。画面60に表示される超音波画像61の特定の位置(たとえば、ユーザが穿刺したい対象物が表示されている位置)が、指62などでタッチされると、プロセッサ1aは、その位置を示すタッチ位置情報(たとえば、座標)を取得する。そして、プロセッサ1aはその位置を始点(または終点)63aとして、20°の角度で、右上に伸びる穿刺ガイド63bを、表示装置1cに、超音波画像61に合成して表示させる。
 ステップS40,S41の処理は、図3に示したステップS18,S19の処理と同じである。
 上記のような、第4の実施の形態の超音波プローブ制御方法でも、第2の実施の形態の超音波プローブ制御方法と同様の効果が得られるとともに、目的の対象物(生体3内の組織)への穿刺作業がより簡単になる。
 なお、第2の実施の形態の超音波プローブ制御方法と同様に、図11に示したような各ステップは、上記の順序に限定されるものではない。
 (第5の実施の形態)
 以下、第5の実施の形態の超音波プローブ制御方法を説明する。
 図13は、第5の実施の形態の超音波プローブ制御方法の一例の流れを示すフローチャートである。
 ステップS50,S51,S52の処理は、図3に示したステップS10~S12の処理と同じである。
 ステップS53の処理では、プロセッサ1aは、表示装置1cのタッチパネルでの、ユーザによる穿刺ガイドの描画を受け付ける。たとえば、ステップS53の処理時には、表示装置1cの画面には、通常送信モードで取得した画像情報に基づく超音波画像が表示されていて、ユーザは、その超音波画像に映っている穿刺したい対象物を始点または終点として、所望の角度の穿刺ガイドを描画する。
 図14は、第5の実施の形態の超音波プローブ制御方法での穿刺ガイドの描画例を示す図である。
 図14では、測定モードとして穿刺モードが選択された例が示されている。さらに、タッチパネルである画面70に表示される超音波画像71の位置72aから位置72bまでが、指73などでなぞられたときに描画される穿刺ガイド74の例が示されている。
 ステップS53の処理では、プロセッサ1aは、位置72a,72bの位置情報(たとえば、座標)を、穿刺位置を示す位置情報及び穿刺角度を示す角度情報として取得する。位置72a,72bの位置情報から、穿刺位置や穿刺角度が分かるからである。たとえば、図14に示したように穿刺ガイド74が描画された場合、穿刺位置は“右”であり、穿刺角度は20°である。
 プロセッサ1aは、無線通信回路1dを用いて、位置情報及び角度情報を、超音波プローブ装置2に無線で送信する(ステップS54)。
 その後のステップS55,S56,S57,S58の処理は、図3に示したステップS16~S19の処理と同じである。
 なお、プロセッサ1aは、表示装置1cを用いて、図14に示した位置72a,72bを結ぶ穿刺ガイド74を、ステップS56の処理の際に超音波画像と合成して表示するようにしてもよい。
 上記のような、第5の実施の形態の超音波プローブ制御方法でも、第1の実施の形態の超音波プローブ制御方法と同様の効果が得られるとともに、穿刺条件(穿刺位置や穿刺角度)の入力がより簡単になる。
 なお、第2の実施の形態の超音波プローブ制御方法と同様に、図13に示したような各ステップは、上記の順序に限定されるものではない。
 ところで、前述したように、上記の各実施の形態の超音波プローブ制御方法は、コンピュータとしての汎用端末装置1に、プログラムを実行させることで実現できる。プログラムは、コンピュータ読み取り可能な記録媒体に記録しておくことができる。
 記録媒体として、たとえば、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどを使用できる。磁気ディスクには、HDD(Hard Disk Drive)などが含まれる。光ディスクには、CD-ROM(Compact Disc Read Only Memory)、CD-R(Recordable)/RW(ReWritable)、DVD(Digital Versatile Disc)、DVD-RAM(Random Access Memory)などが含まれる。
 プログラムを流通させる場合、たとえば、当該プログラムを記録した可搬記録媒体が提供される。また、プログラムを他のコンピュータの記憶装置に格納しておき、ネットワーク経由でプログラムを配布することもできる。
 コンピュータは、たとえば、可搬記録媒体に記録されたプログラムまたは他のコンピュータから受信したプログラムを記憶装置(たとえば、メモリ1b)に格納し、当該記憶装置からプログラムを読み込んで実行する。ただし、可搬記録媒体から読み込んだプログラムを直接実行してもよく、他のコンピュータからネットワークを介して受信したプログラムを直接実行してもよい。
 上記については単に本発明の原理を示すものである。さらに、多数の変形、変更が当業者にとって可能であり、本発明は上記に示し、説明した正確な構成および応用例に限定されるものではなく、対応するすべての変形例および均等物は、添付の請求項およびその均等物による本発明の範囲とみなされる。
 1 汎用端末装置
 1a プロセッサ
 1b メモリ
 1d 無線通信回路
 1c 表示装置(タッチパネル付)
 2 超音波プローブ装置
 2a,8 マーク
 3 生体
 4 穿刺用の針(穿刺針)
 5 画面
 6 超音波画像
 7 穿刺ガイド

Claims (5)

  1.  汎用端末装置のプロセッサが、前記汎用端末装置の表示装置のタッチパネルで入力される、超音波プローブ装置の第1の側と前記第1の側と対向する第2の側の何れから生体への穿刺が行われるかを示す位置情報と、穿刺角度を示す角度情報とを取得し、
     前記プロセッサが、前記汎用端末装置の無線通信回路を用いて、前記位置情報と前記角度情報とを前記超音波プローブ装置に送信し、
     前記プロセッサが、前記位置情報と前記角度情報とに基づく第1の角度で前記超音波プローブ装置から送信される第1の超音波に対する前記生体内での第1の反射波に基づき前記超音波プローブ装置で生成され、送信される第1の画像情報を、前記無線通信回路を用いて取得し、
     前記プロセッサが、前記表示装置を用いて、前記第1の画像情報に基づく前記生体または穿刺用の針の第1の超音波画像と、前記位置情報及び前記角度情報に基づく穿刺経路を示す穿刺ガイドとを合成して表示する、
     ことを特徴とする超音波プローブ制御方法。
  2.  前記プロセッサは、前記タッチパネルで、前記針に焦点を当てた前記第1の超音波画像を得るための第1の測定モードと、前記生体内の組織に焦点を当てた第2の超音波画像を得るための第2の測定モードの何れが選択されたかを判定し、
     前記プロセッサは、前記第1の測定モードが選択されたと判定したときには、前記位置情報と前記角度情報とを取得し、前記無線通信回路を用いて前記位置情報と前記角度情報とを前記超音波プローブ装置に送信し、前記第1の画像情報を取得し、前記表示装置を用いて前記第1の超音波画像と前記穿刺ガイドとを合成して表示し、
     前記プロセッサは、前記第2の測定モードが選択されたと判定したときには、
     前記無線通信回路を用いて、前記第2の測定モードが選択された旨を前記超音波プローブ装置へ通知し、
     第2の角度で前記超音波プローブ装置から送信される第2の超音波に対する前記生体内での第2の反射波に基づき前記超音波プローブ装置で生成され、送信される第2の画像情報を、前記無線通信回路を用いて取得し、
     前記表示装置を用いて、前記第2の画像情報に基づく前記生体の第2の超音波画像を表示する、
     ことを特徴とする請求項1に記載の超音波プローブ制御方法。
  3.  前記プロセッサは、前記第1の超音波画像を表示している前記タッチパネルでユーザによりタッチされた位置を示すタッチ位置情報を取得し、
     前記プロセッサは、前記タッチ位置情報、前記位置情報及び前記角度情報に基づき、前記表示装置を用いて、前記位置を始点または終点とした、前記穿刺ガイドを前記第1の超音波画像と合成して表示する、
     ことを特徴とする請求項1または2に記載の超音波プローブ制御方法。
  4.  前記プロセッサは、前記タッチパネルの第1の位置から第2の位置までがユーザによってなぞられたとき、前記第1の位置と前記第2の位置とに基づく前記位置情報と前記角度情報とを取得する、ことを特徴とする請求項1または2に記載の超音波プローブ制御方法。
  5.  コンピュータに、
     表示装置のタッチパネルで入力される、超音波プローブ装置の第1の側と前記第1の側と対向する第2の側の何れから生体への穿刺が行われるかを示す位置情報と、穿刺角度を示す角度情報とを取得し、
     無線通信回路を用いて、前記位置情報と前記角度情報とを前記超音波プローブ装置に送信し、
     前記位置情報と前記角度情報とに基づく第1の角度で前記超音波プローブ装置から送信される第1の超音波に対する前記生体内での第1の反射波に基づき前記超音波プローブ装置で生成され、送信される第1の画像情報を、前記無線通信回路を用いて取得し、
     前記表示装置を用いて、前記第1の画像情報に基づく前記生体または穿刺用の針の第1の超音波画像と、前記位置情報及び前記角度情報に基づく穿刺経路を示す穿刺ガイドとを合成して表示する、
     処理を実行させるプログラム。
PCT/JP2016/062130 2016-04-15 2016-04-15 超音波プローブ制御方法及びプログラム WO2017179195A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2016/062130 WO2017179195A1 (ja) 2016-04-15 2016-04-15 超音波プローブ制御方法及びプログラム
JP2018511857A JP6643741B2 (ja) 2016-04-15 2016-04-15 超音波プローブ制御方法及びプログラム
CN201680084365.4A CN109069101B (zh) 2016-04-15 2016-04-15 超声波探头控制方法以及存储介质
US16/113,373 US11234730B2 (en) 2016-04-15 2018-08-27 Ultrasonic probe control method and computer-readable storage medium holding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/062130 WO2017179195A1 (ja) 2016-04-15 2016-04-15 超音波プローブ制御方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/113,373 Continuation US11234730B2 (en) 2016-04-15 2018-08-27 Ultrasonic probe control method and computer-readable storage medium holding program

Publications (1)

Publication Number Publication Date
WO2017179195A1 true WO2017179195A1 (ja) 2017-10-19

Family

ID=60041507

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/062130 WO2017179195A1 (ja) 2016-04-15 2016-04-15 超音波プローブ制御方法及びプログラム

Country Status (4)

Country Link
US (1) US11234730B2 (ja)
JP (1) JP6643741B2 (ja)
CN (1) CN109069101B (ja)
WO (1) WO2017179195A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109394317A (zh) * 2018-12-14 2019-03-01 清华大学 穿刺路径规划装置及方法
WO2019205006A1 (zh) * 2018-04-25 2019-10-31 深圳迈瑞生物医疗电子股份有限公司 超声成像方法以及超声成像设备

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114694442A (zh) * 2020-12-31 2022-07-01 无锡触典科技有限公司 基于虚拟现实的超声培训方法、装置、存储介质及超声设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010528697A (ja) * 2007-06-01 2010-08-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 無線超音波プローブユーザインタフェース
JP2013172959A (ja) * 2012-02-27 2013-09-05 General Electric Co <Ge> 超音波撮像を行うための方法および装置
JP2014150936A (ja) * 2013-02-07 2014-08-25 Hitachi Aloka Medical Ltd 超音波診断システム
JP2014212812A (ja) * 2013-04-22 2014-11-17 日立アロカメディカル株式会社 超音波診断装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012071014A (ja) 2010-09-29 2012-04-12 Fujifilm Corp 超音波プローブ
US20120078111A1 (en) 2010-09-29 2012-03-29 Fujifilm Corporation Ultrasound probe
US9949720B2 (en) * 2011-10-21 2018-04-24 C. R. Bard, Inc. Systems and methods for ultrasound-based medical device assessment
JP6334992B2 (ja) * 2013-03-29 2018-05-30 キヤノンメディカルシステムズ株式会社 可搬型超音波診断装置
KR20150133449A (ko) * 2014-05-20 2015-11-30 고려대학교 산학협력단 의료용 바늘의 자동 안내 기능을 갖는 초음파 영상 진단 장치
CN204293264U (zh) * 2014-12-15 2015-04-29 柏云云 一种超声介入穿刺针引导监控系统
US9931168B2 (en) * 2015-01-12 2018-04-03 Biomet Manufacuturing. LLC Plan implementation
KR20150013349A (ko) 2015-01-15 2015-02-04 박유빈 휴대 단말의 문자 편집 방법 및 그 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010528697A (ja) * 2007-06-01 2010-08-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 無線超音波プローブユーザインタフェース
JP2013172959A (ja) * 2012-02-27 2013-09-05 General Electric Co <Ge> 超音波撮像を行うための方法および装置
JP2014150936A (ja) * 2013-02-07 2014-08-25 Hitachi Aloka Medical Ltd 超音波診断システム
JP2014212812A (ja) * 2013-04-22 2014-11-17 日立アロカメディカル株式会社 超音波診断装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019205006A1 (zh) * 2018-04-25 2019-10-31 深圳迈瑞生物医疗电子股份有限公司 超声成像方法以及超声成像设备
CN109394317A (zh) * 2018-12-14 2019-03-01 清华大学 穿刺路径规划装置及方法

Also Published As

Publication number Publication date
CN109069101A (zh) 2018-12-21
US11234730B2 (en) 2022-02-01
JP6643741B2 (ja) 2020-02-12
US20180360488A1 (en) 2018-12-20
CN109069101B (zh) 2021-09-17
JPWO2017179195A1 (ja) 2019-02-14

Similar Documents

Publication Publication Date Title
CN100515346C (zh) 超声波诊断装置、超声波诊断方法及其图像处理程序
JP6390145B2 (ja) 超音波画像診断装置及び超音波画像診断装置の作動方法
JP4465018B2 (ja) 超音波診断装置
WO2017179195A1 (ja) 超音波プローブ制御方法及びプログラム
CN102028496A (zh) 超声波诊断装置和超声波图像处理装置
JP2009153573A (ja) 超音波診断装置および断層画像処理方法
JP4879623B2 (ja) 超音波診断装置
JP2011212070A (ja) 超音波診断装置
JP2013223639A (ja) 超音波診断装置および超音波画像表示方法
EP2644099A1 (en) Ultrasound system and method of obtaining ultrasound image
JP4649147B2 (ja) 超音波診断装置
KR102641998B1 (ko) 초음파 영상 장치 및 동작 방법
JPH10248844A (ja) 超音波画像診断装置
JP2014171541A (ja) 超音波診断装置
JP6705180B2 (ja) 超音波診断装置
JP6509374B2 (ja) 超音波観測装置、処理装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
JP6391912B2 (ja) 超音波診断装置
TWI559070B (zh) 醫療影像播放系統及方法
JP7206770B2 (ja) 超音波診断装置、超音波画像表示方法、及びプログラム
JP2011104109A (ja) 超音波診断装置
JP6850140B2 (ja) 超音波診断装置及びその制御プログラム
EP4344651A1 (en) Ultrasound diagnostic apparatus and control method for ultrasound diagnostic apparatus
WO2019069295A1 (ja) 超音波観測装置、超音波観測装置の作動方法、及び超音波観測装置の作動プログラム
JP6462263B2 (ja) 超音波診断装置、画像処理装置及び画像処理プログラム
JP6733339B2 (ja) 超音波画像診断装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018511857

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16898655

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16898655

Country of ref document: EP

Kind code of ref document: A1