WO2021065750A1 - 診断支援装置、診断支援システム、及び診断支援方法 - Google Patents

診断支援装置、診断支援システム、及び診断支援方法 Download PDF

Info

Publication number
WO2021065750A1
WO2021065750A1 PCT/JP2020/036452 JP2020036452W WO2021065750A1 WO 2021065750 A1 WO2021065750 A1 WO 2021065750A1 JP 2020036452 W JP2020036452 W JP 2020036452W WO 2021065750 A1 WO2021065750 A1 WO 2021065750A1
Authority
WO
WIPO (PCT)
Prior art keywords
catheter
control unit
data
living tissue
support device
Prior art date
Application number
PCT/JP2020/036452
Other languages
English (en)
French (fr)
Inventor
泰一 坂本
克彦 清水
石原 弘之
クレモン ジャケ
トマ エン
ヌワン ヘラト
イセリン エリックセン
亮介 佐賀
Original Assignee
テルモ株式会社
株式会社ロッケン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テルモ株式会社, 株式会社ロッケン filed Critical テルモ株式会社
Priority to EP20871331.3A priority Critical patent/EP4042944A4/en
Priority to JP2021551207A priority patent/JPWO2021065750A1/ja
Priority to CN202080068991.0A priority patent/CN114554970B/zh
Publication of WO2021065750A1 publication Critical patent/WO2021065750A1/ja
Priority to US17/708,460 priority patent/US20220218309A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0066Optical coherence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6847Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive mounted on an invasive device
    • A61B5/6852Catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0891Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00315Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for treatment of particular body parts
    • A61B2018/00345Vascular system
    • A61B2018/00404Blood vessels other than those in or around the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00571Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for achieving a particular surgical effect
    • A61B2018/00577Ablation

Definitions

  • This disclosure relates to a diagnostic support device, a diagnostic support system, and a diagnostic support method.
  • Patent Documents 1 to 3 describe a technique for generating a three-dimensional image of a heart cavity or a blood vessel using a US imaging system.
  • US is an abbreviation for ultrasonic.
  • IVUS is an abbreviation for intravascular ultrasound.
  • IVUS is a device or method that provides a two-dimensional image of a plane perpendicular to the long axis of the catheter.
  • a 3D image representing the structure of a living tissue such as a heart cavity or a blood vessel is automatically generated from a 2D image of IVUS, and the generated 3D image is displayed to the operator.
  • a catheter other than the IVUS catheter such as an ablation catheter, it is conceivable to further display a three-dimensional image representing the other catheter.
  • the purpose of the present disclosure is to make it easy to understand whether or not the catheter and the living tissue are in contact with each other in the three-dimensional image.
  • the diagnostic support device as one aspect of the present disclosure generates three-dimensional data of the biological tissue based on the tomographic data of the biological tissue into which the catheter is inserted, and displays the generated three-dimensional data as a three-dimensional image on the display. It is a diagnostic support device, and in the three-dimensional data, a point of contact with the tip of the catheter of the living tissue is specified as a contact point, and in the three-dimensional image, the color of the voxel corresponding to the contact point is specified.
  • a diagnostic support device with a control unit that sets the to the default color.
  • control unit adds the predetermined color element to the color of each voxel in the three-dimensional image according to the distance from the tip of the catheter to each point of the living tissue in the three-dimensional data. Adjust the inclusion ratio.
  • control unit analyzes the tomographic data, detects the position of the biological tissue in contact with the tip of the catheter, and corresponds to the detected position in the three-dimensional data. Is specified as the contact point.
  • control unit analyzes the three-dimensional data to identify the contact point.
  • control unit receives input of position data indicating a position where the tip of the catheter is in contact with the living tissue, refers to the position data, and obtains an analysis result of the three-dimensional data. to correct.
  • control unit receives input of position data indicating the position where the tip of the catheter is in contact with the living tissue, and corresponds to the position indicated by the position data in the three-dimensional data.
  • the point to be used is specified as the contact point.
  • control unit calculates the distance from the tip of the catheter to each point of the living tissue within a certain range including the contact point in the three-dimensional data, and obtains the calculated distance.
  • the ratio of including the element of the predetermined color in the color of each voxel of the voxel group corresponding to the range of the three-dimensional image is adjusted.
  • control unit when the control unit receives input of ablation data indicating that a part of the living tissue including the contact point has been ablated by the ablation catheter as the catheter, the control unit receives the input of the ablation data indicating that the area includes the contact point.
  • the color of the corresponding voxel group is set to a color different from the default color.
  • the diagnostic support system as one aspect of the present disclosure includes the diagnostic support device and a sensor that acquires the tomographic data while moving in the living tissue.
  • the diagnostic support system further includes the display.
  • the diagnostic support method as one aspect of the present disclosure generates three-dimensional data of the biological tissue based on the tomographic data of the biological tissue into which the catheter is inserted, and displays the generated three-dimensional data as a three-dimensional image on the display.
  • a point in which the tip of the catheter is in contact with the living tissue is specified as a contact point in the three-dimensional data, and the color of the voxel corresponding to the contact point in the three-dimensional image is specified. Is set to the default color.
  • step S2 of FIG. It is a flowchart which shows the process performed in step S2 of FIG. It is a figure which shows the process performed in step S201 of FIG. It is a figure which shows the process performed in step S202 and step S203 of FIG. 7 in one modification. It is a figure which shows the coloring of the voxel group corresponding to the ablation area which concerns on one modification. It is a flowchart which shows the process performed in step S2 of FIG. 4 in one modification.
  • the diagnostic support device 11 generates three-dimensional data 52 of the biological tissue 60 based on the tomographic data 51 of the biological tissue 60 into which the catheter 63 is inserted.
  • the diagnosis support device 11 displays the generated three-dimensional data 52 as a three-dimensional image 53 on the display 16.
  • the diagnosis support device 11 identifies the point where the tip of the catheter 63 of the biological tissue 60 is in contact as the contact point Pi.
  • the diagnostic support device 11 sets the color of the voxel corresponding to the contact point Pi to a default color in the three-dimensional image 53.
  • the catheter 63 and the living tissue 60 are in contact with each other in the three-dimensional image 53.
  • the user is an operator who performs ablation surgery, it is easy to know whether or not the ablation catheter and the tissue in the heart chamber are in contact with each other, so that the ablation surgery can be easily performed.
  • the biological tissue 60 is, for example, an organ such as a blood vessel or a heart.
  • the diagnostic support system 10 includes a diagnostic support device 11, a cable 12, a drive unit 13, a keyboard 14, a mouse 15, and a display 16.
  • the diagnosis support device 11 is a dedicated computer specialized for image diagnosis in the present embodiment, but may be a general-purpose computer such as a PC. "PC” is an abbreviation for personal computer.
  • the cable 12 is used to connect the diagnostic support device 11 and the drive unit 13.
  • the drive unit 13 is a device used by connecting to the probe 20 shown in FIG. 2 to drive the probe 20.
  • the drive unit 13 is also called an MDU.
  • MDU is an abbreviation for motor drive unit.
  • the probe 20 is applied to IVUS.
  • the probe 20 is also called an IVUS catheter or a diagnostic imaging catheter.
  • the keyboard 14, mouse 15, and display 16 are connected to the diagnostic support device 11 via an arbitrary cable or wirelessly.
  • the display 16 is, for example, an LCD, an organic EL display, or an HMD.
  • LCD is an abbreviation for liquid crystal display.
  • EL is an abbreviation for electroluminescence.
  • HMD is an abbreviation for head-mounted display.
  • the diagnostic support system 10 further includes a connection terminal 17 and a cart unit 18 as options.
  • connection terminal 17 is used to connect the diagnostic support device 11 and an external device.
  • the connection terminal 17 is, for example, a USB terminal.
  • USB is an abbreviation for Universal Serial Bus.
  • the external device is, for example, a recording medium such as a magnetic disk drive, a magneto-optical disk drive, or an optical disk drive.
  • the cart unit 18 is a cart with casters for movement.
  • a diagnostic support device 11, a cable 12, and a drive unit 13 are installed in the cart body of the cart unit 18.
  • a keyboard 14, a mouse 15, and a display 16 are installed on the table at the top of the cart unit 18.
  • the probe 20 includes a drive shaft 21, a hub 22, a sheath 23, an outer tube 24, an ultrasonic oscillator 25, and a relay connector 26.
  • the drive shaft 21 passes through the sheath 23 inserted into the body cavity of the living body and the outer tube 24 connected to the base end of the sheath 23, and extends to the inside of the hub 22 provided at the base end of the probe 20.
  • the drive shaft 21 has an ultrasonic vibrator 25 at its tip that transmits and receives signals, and is rotatably provided in the sheath 23 and the outer tube 24.
  • the relay connector 26 connects the sheath 23 and the outer pipe 24.
  • the hub 22, the drive shaft 21, and the ultrasonic vibrator 25 are connected to each other so as to move forward and backward in the axial direction. Therefore, for example, when the hub 22 is pushed toward the tip side, the drive shaft 21 and the ultrasonic vibrator 25 move inside the sheath 23 toward the tip side. For example, when the hub 22 is pulled toward the proximal end side, the drive shaft 21 and the ultrasonic vibrator 25 move inside the sheath 23 toward the proximal end side as shown by arrows.
  • the drive unit 13 includes a scanner unit 31, a slide unit 32, and a bottom cover 33.
  • the scanner unit 31 is connected to the diagnosis support device 11 via the cable 12.
  • the scanner unit 31 includes a probe connecting portion 34 that connects to the probe 20 and a scanner motor 35 that is a drive source for rotating the drive shaft 21.
  • the probe connecting portion 34 is detachably connected to the probe 20 via the insertion port 36 of the hub 22 provided at the base end of the probe 20. Inside the hub 22, the base end of the drive shaft 21 is rotatably supported, and the rotational force of the scanner motor 35 is transmitted to the drive shaft 21. Further, a signal is transmitted and received between the drive shaft 21 and the diagnosis support device 11 via the cable 12. The diagnosis support device 11 generates a tomographic image of the biological lumen and performs image processing based on the signal transmitted from the drive shaft 21.
  • the slide unit 32 mounts the scanner unit 31 so as to be able to move forward and backward, and is mechanically and electrically connected to the scanner unit 31.
  • the slide unit 32 includes a probe clamp portion 37, a slide motor 38, and a switch group 39.
  • the probe clamp portion 37 is provided coaxially with the probe connecting portion 34 on the tip side thereof, and supports the probe 20 connected to the probe connecting portion 34.
  • the slide motor 38 is a drive source that generates a driving force in the axial direction.
  • the scanner unit 31 moves forward and backward by driving the slide motor 38, and the drive shaft 21 moves forward and backward in the axial direction accordingly.
  • the slide motor 38 is, for example, a servo motor.
  • the switch group 39 includes, for example, a forward switch and a pullback switch that are pressed when the scanner unit 31 is moved forward and backward, and a scan switch that is pressed when the image drawing is started and ended. Not limited to the example here, various switches are included in the switch group 39 as needed.
  • the slide motor 38 rotates in the forward direction and the scanner unit 31 moves forward.
  • the pullback switch is pressed, the slide motor 38 rotates in the reverse direction, and the scanner unit 31 retracts.
  • the scanner motor 35 When the scan switch is pressed, image drawing is started, the scanner motor 35 is driven, and the slide motor 38 is driven to retract the scanner unit 31.
  • a user such as an operator connects the probe 20 to the scanner unit 31 in advance so that the drive shaft 21 moves to the axial base end side while rotating at the start of image drawing.
  • the scanner motor 35 and the slide motor 38 stop when the scan switch is pressed again, and the image drawing ends.
  • the bottom cover 33 covers the bottom surface of the slide unit 32 and the entire circumference of the side surface on the bottom surface side, and is freely close to and separated from the bottom surface of the slide unit 32.
  • the diagnosis support device 11 includes a control unit 41, a storage unit 42, a communication unit 43, an input unit 44, and an output unit 45.
  • the control unit 41 includes at least one processor, at least one dedicated circuit, or a combination thereof.
  • the processor is a general-purpose processor such as a CPU or GPU, or a dedicated processor specialized for a specific process.
  • CPU is an abbreviation for central processing unit.
  • GPU is an abbreviation for graphics processing unit.
  • the dedicated circuit is, for example, FPGA or ASIC.
  • FPGA is an abbreviation for field-programmable gate array.
  • ASIC is an abbreviation for application specific integrated circuit.
  • the control unit 41 executes processing related to the operation of the diagnosis support device 11 while controlling each part of the diagnosis support system 10 including the diagnosis support device 11.
  • the storage unit 42 includes at least one semiconductor memory, at least one magnetic memory, at least one optical memory, or at least two combinations thereof.
  • the semiconductor memory is, for example, RAM or ROM.
  • RAM is an abbreviation for random access memory.
  • ROM is an abbreviation for read only memory.
  • the RAM is, for example, SRAM or DRAM.
  • SRAM is an abbreviation for static random access memory.
  • DRAM is an abbreviation for dynamic random access memory.
  • the ROM is, for example, an EEPROM.
  • EEPROM is an abbreviation for electrically erasable programmable read only memory.
  • the storage unit 42 functions as, for example, a main storage device, an auxiliary storage device, or a cache memory.
  • the storage unit 42 stores data used for the operation of the diagnostic support device 11 such as tomographic data 51 and data obtained by the operation of the diagnostic support device 11 such as the three-dimensional data 52 and the three-dimensional image 53. ..
  • the communication unit 43 includes at least one communication interface.
  • the communication interface is a wired LAN interface, a wireless LAN interface, or an image diagnostic interface that receives and A / D-converts IVUS signals.
  • LAN is an abbreviation for local area network.
  • a / D is an abbreviation for analog to digital.
  • the communication unit 43 receives the data used for the operation of the diagnosis support device 11 and transmits the data obtained by the operation of the diagnosis support device 11.
  • the drive unit 13 is connected to the diagnostic imaging interface included in the communication unit 43.
  • the input unit 44 includes at least one input interface.
  • the input interface is, for example, a USB interface, an HDMI (registered trademark) interface, or an interface compatible with short-range wireless communication such as Bluetooth (registered trademark).
  • HDMI registered trademark
  • HDMI registered trademark
  • HDMI High-Definition Multimedia Interface
  • the input unit 44 accepts an operation of inputting data used for the operation of the diagnosis support device 11.
  • the keyboard 14 and the mouse 15 are connected to the USB interface included in the input unit 44 or the interface corresponding to short-range wireless communication.
  • the touch screen is provided integrally with the display 16, the display 16 may be connected to the USB interface or the HDMI (registered trademark) interface included in the input unit 44.
  • the output unit 45 includes at least one output interface.
  • the output interface is, for example, a USB interface, an HDMI (registered trademark) interface, or an interface compatible with short-range wireless communication such as Bluetooth (registered trademark).
  • the output unit 45 outputs the data obtained by the operation of the diagnosis support device 11.
  • the display 16 is connected to the USB interface or the HDMI (registered trademark) interface included in the output unit 45.
  • the function of the diagnosis support device 11 is realized by executing the diagnosis support program according to the present embodiment on the processor included in the control unit 41. That is, the function of the diagnostic support device 11 is realized by software.
  • the diagnosis support program is a program for causing a computer to execute a process of a step included in the operation of the diagnosis support device 11 so that the computer can realize a function corresponding to the process of the step. That is, the diagnosis support program is a program for making the computer function as the diagnosis support device 11.
  • the program can be recorded on a computer-readable recording medium.
  • a computer-readable recording medium is, for example, a magnetic recording device, an optical disk, a photomagnetic recording medium, or a semiconductor memory.
  • the distribution of the program is carried out, for example, by selling, transferring, or renting a portable recording medium such as a DVD or CD-ROM in which the program is recorded.
  • DVD is an abbreviation for digital versatile disc.
  • CD-ROM is an abbreviation for compact disc read only memory.
  • the program may be distributed by storing the program in the storage of the server and transferring the program from the server to another computer via the network.
  • the program may be provided as a program product.
  • the computer temporarily stores the program recorded on the portable recording medium or the program transferred from the server in the main storage device. Then, the computer reads the program stored in the main storage device by the processor, and executes the processing according to the read program by the processor.
  • the computer may read the program directly from the portable recording medium and perform processing according to the program.
  • the computer may sequentially execute processing according to the received program each time the program is transferred from the server to the computer.
  • the process may be executed by a so-called ASP type service that realizes the function only by the execution instruction and the result acquisition without transferring the program from the server to the computer. "ASP" is an abbreviation for application service provider.
  • the program includes information used for processing by a computer and equivalent to the program. For example, data that is not a direct command to a computer but has the property of defining the processing of a computer corresponds to "a program-like data".
  • a part or all the functions of the diagnosis support device 11 may be realized by a dedicated circuit included in the control unit 41. That is, some or all the functions of the diagnostic support device 11 may be realized by hardware.
  • the operation of the diagnostic support system 10 according to the present embodiment will be described with reference to FIG.
  • the operation of the diagnosis support system 10 corresponds to the diagnosis support method according to the present embodiment.
  • the probe 20 Prior to the start of the flow of FIG. 4, the probe 20 is primed by the user. After that, the probe 20 is fitted into the probe connecting portion 34 and the probe clamp portion 37 of the drive unit 13, and is connected and fixed to the drive unit 13. Then, the probe 20 is inserted to a target site in the biological tissue 60 such as a blood vessel or the heart.
  • step S1 the scan switch included in the switch group 39 is pressed, and the pullback switch included in the switch group 39 is pressed to perform a so-called pullback operation.
  • the probe 20 transmits ultrasonic waves inside the living tissue 60 by an ultrasonic vibrator 25 that retracts in the axial direction by a pullback operation.
  • the ultrasonic vibrator 25 transmits ultrasonic waves in a radial pattern while moving inside the living tissue 60.
  • the ultrasonic oscillator 25 receives the reflected wave of the transmitted ultrasonic wave.
  • the probe 20 inputs the signal of the reflected wave received by the ultrasonic vibrator 25 to the diagnosis support device 11.
  • the control unit 41 of the diagnosis support device 11 processes the input signal to sequentially generate cross-sectional images of the living tissue 60, thereby acquiring tomographic data 51 including a plurality of cross-sectional images.
  • the probe 20 is a plurality of probes 20 moving outward from the center of rotation by the ultrasonic vibrator 25 while rotating the ultrasonic vibrator 25 in the circumferential direction and moving it in the axial direction inside the biological tissue 60.
  • the probe 20 receives reflected waves from reflectors existing in each of a plurality of directions inside the living tissue 60 by the ultrasonic vibrator 25.
  • the probe 20 transmits the received reflected wave signal to the diagnostic support device 11 via the drive unit 13 and the cable 12.
  • the communication unit 43 of the diagnosis support device 11 receives the signal transmitted from the probe 20.
  • the communication unit 43 performs A / D conversion of the received signal.
  • the communication unit 43 inputs the A / D converted signal to the control unit 41.
  • the control unit 41 processes the input signal to calculate the intensity value distribution of the reflected wave from the reflecting object existing in the transmission direction of the ultrasonic wave of the ultrasonic vibrator 25.
  • the control unit 41 sequentially generates a two-dimensional image having a brightness value distribution corresponding to the calculated intensity value distribution as a cross-sectional image of the biological tissue 60, thereby acquiring the tomographic data 51 which is a data set of the cross-sectional image.
  • the control unit 41 stores the acquired tomographic data 51 in the storage unit 42.
  • the reflected wave signal received by the ultrasonic transducer 25 corresponds to the raw data of the tomographic data 51
  • the cross-sectional image generated by the diagnostic support device 11 processing the reflected wave signal is the tomographic data. It corresponds to the processing data of 51.
  • the control unit 41 of the diagnosis support device 11 may store the signal input from the probe 20 as it is in the storage unit 42 as tomographic data 51.
  • the control unit 41 may store the data showing the intensity value distribution of the reflected wave calculated by processing the signal input from the probe 20 in the storage unit 42 as the tomographic data 51.
  • the tomographic data 51 is not limited to the data set of the cross-sectional image of the biological tissue 60, and may be data representing the cross-sectional shape of the biological tissue 60 at each moving position of the ultrasonic vibrator 25 in some form.
  • an ultrasonic vibrator that transmits ultrasonic waves in a plurality of directions without rotating is used. You may.
  • the tomographic data 51 may be acquired using OFDI or OCT instead of being acquired using IVUS.
  • OFDI is an abbreviation for optical frequency domain imaging.
  • OCT is an abbreviation for optical coherence tomography.
  • the ultrasonic transducer 25 that transmits ultrasonic waves in the biological tissue 60 and acquires the tomographic data 51 as a sensor that acquires the tomographic data 51 while moving in the biological tissue 60. Instead, a sensor is used that radiates light in the living tissue 60 to acquire tomographic data 51.
  • the diagnostic support device 11 instead of the diagnostic support device 11 generating a data set of a cross-sectional image of the biological tissue 60, another device generates a similar data set, and the diagnostic support device 11 uses the data set. It may be obtained from the other device. That is, instead of the control unit 41 of the diagnostic support device 11 processing the IVUS signal to generate a cross-sectional image of the living tissue 60, another device processes the IVUS signal to produce a cross-sectional image of the living tissue 60. The generated cross-sectional image may be input to the diagnostic support device 11.
  • step S2 the control unit 41 of the diagnosis support device 11 generates three-dimensional data 52 of the biological tissue 60 based on the tomographic data 51 acquired in step S1.
  • control unit 41 of the diagnosis support device 11 stacks the cross-sectional images of the biological tissue 60 included in the tomographic data 51 stored in the storage unit 42 to make the biological tissue 60 three-dimensional, thereby making the biological tissue 60 three-dimensional.
  • Generate data 52 As the three-dimensional method, any method among rendering methods such as surface rendering or volume rendering, and accompanying various processes such as texture mapping including environment mapping and bump mapping is used.
  • the control unit 41 stores the generated three-dimensional data 52 in the storage unit 42.
  • the tomographic data 51 includes the data of the catheter 63 as well as the data of the living tissue 60. Therefore, in step S2, the three-dimensional data 52 generated by the control unit 41 also includes the data of the catheter 63 as well as the data of the living tissue 60.
  • the control unit 41 identifies the point where the tip of the catheter 63 of the biological tissue 60 is in contact as the contact point Pi in the three-dimensional data 52. Then, the control unit 41 sets the color of the voxel corresponding to the contact point Pi to a default color in the three-dimensional image 53 displayed in step S3.
  • the "default color” is red in the present embodiment, but any color may be used as long as the voxel corresponding to the contact point Pi can be distinguished from other voxel groups.
  • control unit 41 specifies a certain range of the biological tissue 60 including the contact point Pi as the contact unit 64 in the three-dimensional data 52. Then, the control unit 41 sets the color of the voxel group corresponding to the contact unit 64 to the default color in the three-dimensional image 53 displayed in step S3.
  • the control unit 41 analyzes the tomographic data 51 stored in the storage unit 42 to detect the position of the biological tissue 60 where the tip of the catheter 63 is in contact. Any method may be used for analyzing the tomographic data 51, but in the present embodiment, the biological tissue 60 and the catheter 63 in the cross-sectional image included in the tomographic data 51 are detected, and the biological tissue 60 and the catheter 63 are detected. By measuring the distance between the tip and the tip of the catheter 63, a method of determining whether or not the living tissue 60 and the tip of the catheter 63 are in contact with each other is used. The control unit 41 identifies a point corresponding to the detected position as a contact point Pi in the three-dimensional data 52.
  • control unit 41 may analyze the three-dimensional data 52 to specify the contact point Pi. Any method may be used for analyzing the three-dimensional data 52. For example, the tip of the catheter 63 included in the three-dimensional data 52 is detected, and the distance between the biological tissue 60 and the tip of the catheter 63 is measured. By doing so, a method of determining whether or not the living tissue 60 and the tip of the catheter 63 are in contact with each other is used.
  • control unit 41 may receive input of position data indicating the position where the tip of the catheter 63 of the biological tissue 60 is in contact.
  • control unit 41 is a communication unit from an external system that determines whether or not the tip of the catheter 63 is in contact with the inner wall of the biological tissue 60 by using a sensor such as an electrode provided at the tip of the catheter 63.
  • the position data may be input via the 43 or the input unit 44. Then, the control unit 41 may correct the analysis result of the three-dimensional data 52 with reference to the input position data.
  • control unit 41 corresponds to the position indicated by the position data input from the external system as described above in the three-dimensional data 52 without analyzing the three-dimensional data 52.
  • the point may be specified as the contact point Pi.
  • step S3 the control unit 41 of the diagnostic support device 11 displays the three-dimensional data 52 generated in step S2 as a three-dimensional image 53 on the display 16.
  • the control unit 41 may arrange the viewpoint for displaying the three-dimensional image 53 on the display 16 and the virtual light source 72 at arbitrary positions.
  • the "viewpoint" is the position of the virtual camera 71 as shown in FIG. 5 arranged in the three-dimensional space.
  • the number and relative positions of the light sources 72 are not limited to those shown in the figure, and can be changed as appropriate.
  • control unit 41 of the diagnosis support device 11 generates a three-dimensional image 53 from the three-dimensional data 52 stored in the storage unit 42.
  • the control unit 41 displays the generated three-dimensional image 53 on the display 16 via the output unit 45.
  • step S4 if there is a user operation, the processes of steps S5 to S8 are performed. If there is no user operation, the processes of steps S5 to S8 are skipped.
  • step S5 the control unit 41 of the diagnosis support device 11 receives the operation of setting the position of the opening 62 as shown in FIG. 5 via the input unit 44.
  • the position of the opening 62 is set in the three-dimensional image 53 displayed in step S3 so that the inner wall surface 61 of the living tissue 60 is exposed to the outside of the living tissue 60 through the opening 62.
  • the control unit 41 of the diagnostic support device 11 uses a touch screen provided by the user integrally with the keyboard 14, the mouse 15, or the display 16 in the three-dimensional image 53 displayed on the display 16.
  • the operation of cutting off a part of the biological tissue 60 is received via the input unit 44.
  • the control unit 41 accepts an operation of cutting off a part of the biological tissue 60 so that the inner wall surface 61 of the biological tissue 60 has an open shape in the cross section of the biological tissue 60.
  • the "cross section of the living tissue 60" is, for example, a tomographic cross section having two opposite edges of the opening 62 and an inner wall surface 61 of the living tissue 60 facing the opening 62, but the cross section is not limited to this fault cross section.
  • the "cross section of the living tissue 60” is a cut surface obtained by cutting the living tissue 60 perpendicularly to the direction in which the ultrasonic vibrator 25 moves in the living tissue 60.
  • the "longitudinal section of the living tissue 60” is a cut surface obtained by cutting the living tissue 60 along the direction in which the ultrasonic vibrator 25 moves in the living tissue 60.
  • the “other cross section of the living tissue 60” is a cut surface obtained by cutting the living tissue 60 diagonally with respect to the direction in which the ultrasonic vibrator 25 moves in the living tissue 60.
  • the "open shape” is, for example, a substantially C-shaped, approximately U-shaped, approximately three-shaped, or a hole in which any of these is originally vacant in the living tissue 60, such as a branch of a blood vessel or a pulmonary vein opening.
  • the shape is partially chipped due to the presence of.
  • the shape of the inner wall surface 61 of the living tissue 60 is substantially C-shaped.
  • step S6 the control unit 41 of the diagnostic support device 11 determines the position set by the operation received in step S5 as the position of the opening 62.
  • control unit 41 of the diagnostic support device 11 opens the three-dimensional coordinates of the boundary of the portion of the biological tissue 60 cut off by the user's operation in the three-dimensional data 52 stored in the storage unit 42. It is specified as the three-dimensional coordinates of the edge.
  • the control unit 41 stores the specified three-dimensional coordinates in the storage unit 42.
  • step S7 the control unit 41 of the diagnostic support device 11 forms an opening 62 in the three-dimensional data 52 that exposes the inner wall surface 61 of the biological tissue 60 toward the outside of the biological tissue 60 in the three-dimensional image 53.
  • control unit 41 of the diagnostic support device 11 displays the three-dimensional image 53 of the three-dimensional data 52 stored in the storage unit 42, which is specified by the three-dimensional coordinates stored in the storage unit 42. Set to be hidden or transparent when displayed in.
  • step S8 the control unit 41 of the diagnostic support device 11 adjusts the viewpoint when displaying the three-dimensional image 53 on the display 16 according to the position of the opening 62 formed in step S7.
  • the control unit 41 arranges the viewpoint on a straight line extending from the inner wall surface 61 of the biological tissue 60 through the opening 62 to the outside of the biological tissue 60. Therefore, the user can look into the inside of the living tissue 60 from the opening 62 and virtually observe the inner wall surface 61 of the living tissue 60.
  • control unit 41 of the diagnostic support device 11 is a position where the inner wall surface 61 of the biological tissue 60 can be seen through a portion set to be hidden or transparent in the three-dimensional image 53 displayed on the display 16.
  • a virtual camera 71 is arranged in.
  • the control unit 41 has a first straight line L1 extending from the inner wall surface 61 of the living tissue 60 to the outside of the living tissue 60 through the first edge E1 of the opening 62 in the cross section of the living tissue 60.
  • the virtual camera 71 is arranged in the region AF sandwiched between the inner wall surface 61 of the living tissue 60, the second edge E2 of the opening 62, and the second straight line L2 extending to the outside of the living tissue 60.
  • the point where the first straight line L1 intersects the inner wall surface 61 of the living tissue 60 is the same point Pt as the point where the second straight line L2 intersects the inner wall surface 61 of the living tissue 60. Therefore, no matter where the virtual camera 71 is placed in the area AF, the user can observe the point Pt on the inner wall surface 61 of the biological tissue 60.
  • the point Pt is drawn perpendicularly to the third straight line L3 from the midpoint Pc of the third straight line L3 connecting the first edge E1 of the opening 62 and the second edge E2 of the opening 62. It is the same as the point where the fourth straight line L4 intersects the inner wall surface 61 of the living tissue 60. Therefore, it is easy for the user to observe the point Pt on the inner wall surface 61 of the biological tissue 60 through the opening 62.
  • the virtual camera 71 is arranged on the extension line of the fourth straight line L4, the user can easily observe the point Pt on the inner wall surface 61 of the biological tissue 60.
  • the position of the virtual camera 71 may be any position where the inner wall surface 61 of the biological tissue 60 can be observed through the opening 62, but in the present embodiment, it is within the range facing the opening 62.
  • the position of the virtual camera 71 is preferably set to an intermediate position facing the central portion of the opening 62.
  • the minimum distance Lmin from the point Pt to the position of the camera 71 is set according to the minimum value Smin
  • the maximum distance Lmax from the point Pt to the position of the virtual camera 71 is set according to the maximum value Smax. May be set.
  • the minimum distance Lmin from the point Pt to the position of the camera 71 may be set to a distance so that the camera 71 does not come closer to the point Pt than the opening 62 regardless of the minimum value Smin.
  • the maximum distance Lmax from the point Pt to the position of the virtual camera 71 is set so that the camera 71 does not move away from the point Pt so that the user cannot observe the inner wall surface 61 of the biological tissue 60 regardless of the maximum value Smax. It may be set.
  • step S9 If the fault data 51 is updated in step S9, the processing after step S1 is performed again. If the tomographic data 51 is not updated, the presence or absence of user operation is reconfirmed in step S4.
  • the control unit 41 of the diagnostic support device 11 changes the position of the opening 62 from the first position to the second position, and the viewpoint is set to the third position according to the first position. To the 4th position according to the 2nd position.
  • the control unit 41 moves the virtual light source 72 when displaying the three-dimensional image 53 on the display 16 in accordance with the movement of the viewpoint from the third position to the fourth position.
  • the control unit 41 moves the virtual light source 72 by using the rotation matrix used for moving the virtual camera 71 when changing the circumferential position of the opening 62 in the cross section of the biological tissue 60.
  • the control unit 41 may instantaneously switch the viewpoint from the third position to the fourth position, but in the present embodiment, the viewpoint is the third position.
  • a moving image that gradually moves from the position to the fourth position is displayed on the display 16 as a three-dimensional image 53. Therefore, it is easy for the user to know that the viewpoint has moved.
  • step S5 the control unit 41 of the diagnostic support device 11 performs an operation of setting the position of the opening 62 and an operation of setting the position of the target point desired by the user to be performed by the input unit 44. May be accepted via.
  • control unit 41 of the diagnostic support device 11 uses a touch screen provided by the user integrally with the keyboard 14, the mouse 15, or the display 16 in the three-dimensional image 53 displayed on the display 16.
  • the operation of designating the position of the target point may be accepted via the input unit 44.
  • the control unit 41 performs an operation of setting the position of the point Pt as the position of the point where the first straight line L1 and the second straight line L2 intersect with the inner wall surface 61 of the biological tissue 60 via the input unit 44. May be accepted.
  • step S5 the control unit 41 of the diagnostic support device 11 inputs an operation of setting the position of the target point desired by the user instead of the operation of setting the position of the opening 62. It may be accepted via the unit 44. Then, in step S6, the control unit 41 may determine the position of the opening 62 according to the position set by the operation received in step S5.
  • control unit 41 of the diagnostic support device 11 uses a touch screen provided by the user integrally with the keyboard 14, the mouse 15, or the display 16 in the three-dimensional image 53 displayed on the display 16.
  • the operation of designating the position of the target point may be accepted via the input unit 44.
  • the control unit 41 may determine the position of the opening 62 according to the position of the target point.
  • the control unit 41 performs an operation of setting the position of the point Pt as the position of the point where the first straight line L1 and the second straight line L2 intersect with the inner wall surface 61 of the biological tissue 60 via the input unit 44. May be accepted.
  • the control unit 41 may determine a fan-shaped region centered on the point Pt and having a central angle set in advance or an angle ⁇ specified by the user as the region AF.
  • the control unit 41 may determine the position of the biological tissue 60 that overlaps with the region AF at the position of the opening 62.
  • the control unit 41 may determine the normal line of the inner wall surface 61 of the biological tissue 60 that is perpendicular to the tangent line passing through the point Pt as the fourth straight line L4.
  • the area AF may be set narrower than the width of the opening 62. That is, the region AF may be set so as not to include at least one of the first edge E1 of the opening 62 and the second edge E2 of the opening 62.
  • the point where the first straight line L1 intersects the inner wall surface 61 of the living tissue 60 does not have to be the same as the point where the second straight line L2 intersects the inner wall surface 61 of the living tissue 60.
  • the point P1 at which the first straight line L1 intersects the inner wall surface 61 of the living tissue 60 and the point P2 at which the second straight line L2 intersects the inner wall surface 61 of the living tissue 60 are centered on the point Pt. It may be on the circumference. That is, the points P1 and P2 may be approximately equidistant from the point Pt.
  • step S2 the details of the process performed in step S2 when the catheter 63 is inserted into the living tissue 60 will be described.
  • step S201 the control unit 41 of the diagnostic support device 11 detects the biological tissue 60 and the catheter 63 in the cross-sectional image included in the tomographic data 51 acquired in step S1.
  • the control unit 41 of the diagnosis support device 11 classifies the pixel group of the cross-sectional image included in the tomographic data 51 acquired in step S1 into two or more classes.
  • These two or more classes include at least a class of biological tissue 60 and a class of catheter 63, a class of blood cells, a class of medical devices other than the catheter 63 such as a guide wire, and a class of indwelling objects such as a stent. , Or a class of lesions such as lime or plaque may be further included.
  • Any method may be used as the classification method, but in the present embodiment, a method of classifying the pixel group of the cross-sectional image by the trained model is used.
  • the trained model is trained so that the region corresponding to each class can be detected from the cross-sectional image of IVUS as a sample by performing machine learning in advance.
  • control unit 41 binarizes each pixel of the cross-sectional image included in the tomographic data 51 to 1 if the pixel value corresponds to the class of the biological tissue 60, and 0 otherwise. To do.
  • the control unit 41 downsamples the binarized cross-sectional image, and sets each pixel of the obtained two-dimensional image as a voxel at a position corresponding to the two-dimensional image in the long axis direction of the biological tissue 60. ..
  • control unit 41 may detect the biological tissue 60 by extracting an edge in the cross-sectional image.
  • step S202 the control unit 41 of the diagnostic support device 11 measures the distance between the biological tissue 60 detected in step S201 and the tip of the catheter 63, so that the biological tissue 60 and the tip of the catheter 63 come into contact with each other. Determine if it is.
  • the control unit 41 of the diagnosis support device 11 creates a catheter list by listing the catheters 63 detected in step S201.
  • the control unit 41 detects the tip of the catheter 63 for each entry in the catheter list. If only one catheter 63 is detected in step S201, the number of entries in the catheter list is one.
  • the control unit 41 lists the tips of the detected catheters 63 to create a catheter tip list.
  • the control unit 41 identifies the position closest to the tip of the catheter 63 on the inner wall surface 61 of the biological tissue 60 for each entry in the catheter tip list.
  • the control unit 41 calculates the distance between the tip of the catheter 63 and the specified position.
  • control unit 41 determines that the biological tissue 60 and the tip of the catheter 63 are in contact with each other. If the calculated distance is equal to or greater than the first threshold value, the control unit 41 determines that the biological tissue 60 and the tip of the catheter 63 are not in contact with each other.
  • step S203 the control unit 41 of the diagnostic support device 11 detects the biological tissue 60 and the tip of the catheter 63 in step S201.
  • the range of the living tissue 60 in which the distance between the two and the living tissue 60 is less than a certain value is specified as the contact portion 64.
  • the control unit 41 sets the color of the voxel group corresponding to the contact unit 64 to a default color in the three-dimensional image 53 displayed in step S3.
  • control unit 41 of the diagnostic support device 11 has a range in which the distance from the inner wall surface 61 of the biological tissue 60 to the tip of the catheter 63 is less than the second threshold value for each entry in the catheter tip list created in step S202. Is specified as the contact portion 64.
  • the control unit 41 sets the color of the voxel group corresponding to the contact unit 64 to red in the three-dimensional image 53 displayed in step S3.
  • step S202 If it is determined in step S202 that the biological tissue 60 and the tip of the catheter 63 are not in contact with each other, the process of step S203 is skipped.
  • the control unit 41 of the diagnostic support device 11 has each of the three-dimensional images 53 according to the distance from the tip 63d of the catheter 63 to each point of the biological tissue 60 in the three-dimensional data 52. You may adjust the proportion of voxel colors that include the default color element. That is, in the three-dimensional image 53, the biological tissue 60 may be colored with a gradation centered on the position where the catheter 63 and the biological tissue 60 are in contact with each other.
  • the control unit 41 calculates the distance Dist between the tip 63d of the catheter 63 and each point Pn of the inner wall surface 61 of the biological tissue 60, as shown in FIG.
  • the two-dimensional grid is shown in FIG. 9 for convenience, the processing is originally performed by the three-dimensional grid.
  • G D is a predetermined distance from the tip 63 d of the catheter 63
  • C F is a contact coefficient
  • the control unit 41 calculates the contact coefficient of each voxel including the inner wall surface 61 of the biological tissue 60 by the following calculation.
  • C F 1-clamp (Dist / G D, 0,1)
  • clamp () is a clamp function.
  • a voxel having a contact coefficient closer to 1 is closer to the tip 63d of the catheter 63, and a voxel having a contact coefficient closer to 0 is farther from the tip 63d of the catheter 63.
  • Contact coefficient voxels closer than G D from the distal end 63d of the catheter 63 is zero.
  • the contact coefficient of the voxel located at the center of the contact portion 64 is 1.
  • Visible voxel information V P the color of the Color CP V P, Color Pd default colors, when the Color LT was the color of the living tissue 60, each voxel of the control unit 41, the three-dimensional image 53 by the following calculation Set the color of.
  • Color CP CF x Color Pd + (1- CF ) x Color LT
  • the "visible voxel information" refers to the voxel information in which the biological tissue 60 exists in the three-dimensional data 52.
  • Color CP , Color Pd , and Color LT are RGB values. Color Pd is, for example, red.
  • Color LT may be any color other than Color Pd.
  • Color LT may be a single color, or may be a color depending on the reference point, the reference line, or the distance from the reference plane.
  • the reference point, reference line, and reference plane may be arranged at arbitrary positions, but are preferably arranged according to the position of the opening 62.
  • the control unit 41 has the position of the virtual camera 71, which is the viewpoint when displaying the three-dimensional image 53 on the display 16, and the first edge E1 of the opening 62 in the cross section of the biological tissue 60.
  • a reference point can be placed on a straight line passing through the midpoint Pc of the third straight line L3 connecting the second edge E2 of the opening 62.
  • the positions of the viewpoint, the reference point, and the midpoint Pc in the left-right direction are aligned, when the user observes the inner wall surface 61 of the biological tissue 60 through the opening 62, the unevenness due to the difference in the color tone of the three-dimensional image 53 And it is easy to grasp the depth.
  • the reference point is arranged on the fourth straight line L4
  • the user can easily grasp the point Pt on the inner wall surface 61 of the biological tissue 60 and the unevenness and depth around the point Pt.
  • the portion that is remote or G D from the distal end 63d of the catheter 63 colors are consistent with Color LT.
  • the grid at the corresponding position is filled in order to show the tip 63d of the catheter 63, each point Pn of the inner wall surface 61 of the biological tissue 60, and the outer edge of the contact portion 64 of the biological tissue 60.
  • the Color CP is calculated using the above formula, the gradation is colored radially toward each grid indicated by 64, centering on the grid indicated by 63d.
  • the control unit 41 calculates the distance from the tip 63d of the catheter 63 to all the points of the biological tissue 60 in the three-dimensional data 52, but instead of calculating the distance from the tip 63d of the catheter 63 in the three-dimensional data 52, the biological tissue 60. , The distance to each point within a certain range including the contact point Pi may be calculated. In that case, the control unit 41 adjusts the ratio of including the default color element in the color of each voxel of the voxel group corresponding to the range of the three-dimensional image 53 according to the calculated distance.
  • the control unit 41 identifies a calculation area within a certain range, and only in that calculation area, the tip 63d of the catheter 63 and each point of the inner wall surface 61 of the living tissue 60.
  • the distance Dist to Pn may be calculated. According to this example, the distance Dist does not have to be calculated for all voxels, which speeds up the process.
  • the contact portion 64 may be regarded as a "fixed range". That is, in the three-dimensional image 53, the gradation coloring may be performed only on the voxel group corresponding to the contact portion 64.
  • the control unit 41 shows that a part of the biological tissue 60 including the contact point Pi was cauterized by the ablation catheter as the catheter 63.
  • the area may be specified as the ablation area 65.
  • the control unit 41 may set the color of the voxel group corresponding to the ablation region 65 to a color different from the default color in the three-dimensional image 53 displayed in step S3.
  • the "color different from the default color” is orange in this modification, but a color that distinguishes the voxel group corresponding to the ablation region 65 from the voxel group corresponding to the contact portion 64 and other voxel groups. Anything is fine.
  • FIG. 10 the control unit 41 shows that a part of the biological tissue 60 including the contact point Pi was cauterized by the ablation catheter as the catheter 63.
  • the area may be specified as the ablation area 65.
  • the control unit 41 may set the color of the voxel group corresponding to the ablation region 65 to a color different from the default color in the three
  • the ablation data is input a plurality of times. Therefore, the color of the voxel group corresponding to the other ablation regions 65a and 65b is also set to orange, as in the case of the voxel group corresponding to the ablation region 65.
  • step S2 the details of the process performed in step S2 when the ablation catheter is inserted into the living tissue 60 and the ablation operation is performed will be described.
  • steps S211 to S213 Since the processing of steps S211 to S213 is the same as the processing of steps S201 to S203 of FIG. 7, the description thereof will be omitted.
  • the control unit 41 of the diagnostic support device 11 changes the color tone of the ablation region 65 including the center of the contact portion 64.
  • the size of the ablation region 65 may be the same as that of the contact portion 64, may be slightly larger, or may be slightly smaller. Any method may be used as the method for accepting the input of the ablation data, but in this modified example, the operator clicks the corresponding icon when the biological tissue 60 and the tip of the catheter 63 are in contact with each other. A method of accepting an input operation such as an operation or an operation of pressing the corresponding shortcut key via the input unit 44 is used. Alternatively, when the biological tissue 60 and the tip of the catheter 63 are in contact with each other, a method of acquiring applied information from a device that controls energy application or voltage application to the ablation catheter via the communication unit 43 is used. May be good.
  • step S215 If no ablation data is input in step S214, the process of step S215 is skipped.
  • the control unit 41 of the diagnostic support device 11 generates the three-dimensional data 52 of the biological tissue 60 based on the tomographic data 51 of the biological tissue 60 into which the catheter 63 is inserted.
  • the control unit 41 displays the generated three-dimensional data 52 as a three-dimensional image 53 on the display 16.
  • the control unit 41 identifies the point where the tip of the catheter 63 of the biological tissue 60 is in contact as the contact point Pi.
  • the control unit 41 sets the color of the voxel corresponding to the contact point Pi to a default color in the three-dimensional image 53.
  • the catheter 63 and the living tissue 60 are in contact with each other in the three-dimensional image 53.
  • the user is an operator who performs ablation surgery, it is easy to know whether or not the ablation catheter and the tissue in the heart chamber are in contact with each other, so that the ablation surgery can be easily performed.
  • the contact portion 64 is changed in color to indicate that the catheter 63 and the wall of the living tissue 60 are in contact with each other in a three-dimensional space. Can be indicated by.
  • the positions of the camera 71 and the light source 72 move so that the inside of the living tissue 60 can be seen from the opening 62. Therefore, when the position of the opening 62 is changed to another position, it is possible to avoid a situation in which only the outer wall surface of the biological tissue 60 is visible and the object of interest cannot be confirmed.
  • the present disclosure is not limited to the above-described embodiment.
  • a plurality of blocks described in the block diagram may be integrated, or one block may be divided.
  • they may be executed in parallel or in a different order according to the processing capacity of the device that executes each step, or as necessary.
  • Other changes are possible without departing from the spirit of this disclosure.
  • Diagnostic support system 11 Diagnostic support device 12 Cable 13 Drive unit 14 Keyboard 15 Mouse 16 Display 17 Connection terminal 18 Cart unit 20 Probe 21 Drive shaft 22 Hub 23 Sheath 24 Outer tube 25 Ultrasonic transducer 26 Relay connector 31 Scanner unit 32 Slide Unit 33 Bottom cover 34 Probe connection 35 Scanner motor 36 Outlet 37 Probe clamp 38 Slide motor 39 Switch group 41 Control 42 Storage 43 Communication 44 Input 45 Output 51 Fault data 52 3D data 53 3D Image 60 Living tissue 61 Inner wall surface 62 Opening 63 Catheter 63d Tip 64 Contact area 65 Caulking area 65a Caulking area 65b Caulking area 71 Camera 72 Light source 80 screen

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Vascular Medicine (AREA)
  • Plasma & Fusion (AREA)
  • Otolaryngology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

診断支援装置は、カテーテルが挿入された生体組織の断層データに基づいて生体組織の3次元データを生成し、生成した3次元データを3次元画像としてディスプレイに表示する診断支援装置であって、3次元データにおいて、生体組織の、カテーテルの先端が接触している点を接触点として特定し、3次元画像において、接触点に対応するボクセルの色を既定の色に設定する制御部を備える。

Description

診断支援装置、診断支援システム、及び診断支援方法
 本開示は、診断支援装置、診断支援システム、及び診断支援方法に関する。
 特許文献1から特許文献3には、US画像システムを用いて心腔又は血管の3次元画像を生成する技術が記載されている。「US」は、ultrasoundの略語である。
米国特許出願公開第2010/0215238号明細書 米国特許第6385332号明細書 米国特許第6251072号明細書
 心腔内、心臓血管、及び下肢動脈領域などに対してIVUSを用いる治療が広く行われている。「IVUS」は、intravascular ultrasoundの略語である。IVUSとはカテーテル長軸に対して垂直平面の2次元画像を提供するデバイス又は方法のことである。
 現状として、術者は頭の中でIVUSの2次元画像を積層することで、立体構造を再構築しながら施術を行う必要があり、特に若年層の医師、又は経験の浅い医師にとって障壁がある。そのような障壁を取り除くために、IVUSの2次元画像から心腔又は血管などの生体組織の構造を表現する3次元画像を自動生成し、生成した3次元画像を術者に向けて表示することが考えられる。アブレーションカテーテルなど、IVUSカテーテルとは別のカテーテルが生体組織に挿入されている場合は、その別のカテーテルを表現する3次元画像をさらに表示することが考えられる。
 しかし、3次元画像では、カテーテルと生体組織とが接触しているかどうかがわかりにくい場合がある。
 本開示の目的は、3次元画像において、カテーテルと生体組織とが接触しているかどうかをわかりやすくすることである。
 本開示の一態様としての診断支援装置は、カテーテルが挿入された生体組織の断層データに基づいて前記生体組織の3次元データを生成し、生成した3次元データを3次元画像としてディスプレイに表示する診断支援装置であって、前記3次元データにおいて、前記生体組織の、前記カテーテルの先端が接触している点を接触点として特定し、前記3次元画像において、前記接触点に対応するボクセルの色を既定の色に設定する制御部を備える診断支援装置。
 一実施形態として、前記制御部は、前記3次元データにおける、前記カテーテルの先端から前記生体組織の各点までの距離に応じて、前記3次元画像の各ボクセルの色に前記既定の色の要素を含める比率を調整する。
 一実施形態として、前記制御部は、前記断層データを解析して、前記生体組織の、前記カテーテルの先端が接触している位置を検出し、前記3次元データにおいて、検出した位置に対応する点を前記接触点として特定する。
 一実施形態として、前記制御部は、前記3次元データを解析して、前記接触点を特定する。
 一実施形態として、前記制御部は、前記生体組織の、前記カテーテルの先端が接触している位置を示す位置データの入力を受け、前記位置データを参照して、前記3次元データの解析結果を補正する。
 一実施形態として、前記制御部は、前記生体組織の、前記カテーテルの先端が接触している位置を示す位置データの入力を受け、前記3次元データにおいて、前記位置データで示された位置に対応する点を前記接触点として特定する。
 一実施形態として、前記制御部は、前記3次元データにおける、前記カテーテルの先端から、前記生体組織の、前記接触点を含む一定の範囲内の各点までの距離を算出し、算出した距離に応じて、前記3次元画像の、当該範囲に対応するボクセル群の各ボクセルの色に前記既定の色の要素を含める比率を調整する。
 一実施形態として、前記制御部は、前記カテーテルとしてのアブレーションカテーテルによって、前記生体組織の、前記接触点を含む一部の領域が焼灼されたことを示す焼灼データの入力を受けると、当該領域に対応するボクセル群の色を前記既定の色とは別の色に設定する。
 本開示の一態様としての診断支援システムは、前記診断支援装置と、前記生体組織の中を移動しながら前記断層データを取得するセンサとを備える。
 一実施形態として、前記診断支援システムは、前記ディスプレイをさらに備える。
 本開示の一態様としての診断支援方法は、カテーテルが挿入された生体組織の断層データに基づいて前記生体組織の3次元データを生成し、生成した3次元データを3次元画像としてディスプレイに表示する診断支援方法であって、前記3次元データにおいて、前記生体組織の、前記カテーテルの先端が接触している点を接触点として特定し、前記3次元画像において、前記接触点に対応するボクセルの色を既定の色に設定するものである。
 本開示によれば、3次元画像において、カテーテルと生体組織とが接触しているかどうかがわかりやすくなる。
一実施形態に係る診断支援システムの斜視図である。 一実施形態に係るプローブ及び駆動ユニットの斜視図である。 一実施形態に係る診断支援装置の構成を示すブロック図である。 一実施形態に係る診断支援システムの動作を示すフローチャートである。 一実施形態に係る生体組織の断面、開口、及び視点の位置関係を示す図である。 一実施形態に係るディスプレイの画面に対する3次元画像のサイズの比率、及び接触部に対応するボクセル群の色付けを示す図である。 図4のステップS2で行われる処理を示すフローチャートである。 図7のステップS201で行われる処理を示す図である。 一変形例において図7のステップS202及びステップS203で行われる処理を示す図である。 一変形例に係る焼灼領域に対応するボクセル群の色付けを示す図である。 一変形例において図4のステップS2で行われる処理を示すフローチャートである。
 以下、一実施形態について、図を参照して説明する。
 各図中、同一又は相当する部分には、同一符号を付している。本実施形態の説明において、同一又は相当する部分については、説明を適宜省略又は簡略化する。
 図1、図3、及び図5を参照して、本実施形態の概要を説明する。
 本実施形態に係る診断支援装置11は、カテーテル63が挿入された生体組織60の断層データ51に基づいて生体組織60の3次元データ52を生成する。診断支援装置11は、生成した3次元データ52を3次元画像53としてディスプレイ16に表示する。診断支援装置11は、3次元データ52において、生体組織60の、カテーテル63の先端が接触している点を接触点Piとして特定する。診断支援装置11は、3次元画像53において、接触点Piに対応するボクセルの色を既定の色に設定する。
 本実施形態によれば、3次元画像53において、カテーテル63と生体組織60とが接触しているかどうかがわかりやすくなる。例えば、ユーザがアブレーション手術を行う術者であれば、アブレーションカテーテルと心腔内の組織とが接触しているかどうかがわかりやすいため、アブレーション手術を行いやすくなる。
 生体組織60は、例えば、血管、又は心臓などの臓器である。
 図1を参照して、本実施形態に係る診断支援システム10の構成を説明する。
 診断支援システム10は、診断支援装置11、ケーブル12、駆動ユニット13、キーボード14、マウス15、及びディスプレイ16を備える。
 診断支援装置11は、本実施形態では画像診断に特化した専用のコンピュータであるが、PCなどの汎用のコンピュータでもよい。「PC」は、personal computerの略語である。
 ケーブル12は、診断支援装置11と駆動ユニット13とを接続するために用いられる。
 駆動ユニット13は、図2に示すプローブ20に接続して用いられ、プローブ20を駆動する装置である。駆動ユニット13は、MDUとも呼ばれる。「MDU」は、motor drive unitの略語である。プローブ20は、IVUSに適用される。プローブ20は、IVUSカテーテル又は画像診断用カテーテルとも呼ばれる。
 キーボード14、マウス15、及びディスプレイ16は、任意のケーブルを介して、又は無線で診断支援装置11と接続される。ディスプレイ16は、例えば、LCD、有機ELディスプレイ、又はHMDである。「LCD」は、liquid crystal displayの略語である。「EL」は、electro luminescenceの略語である。「HMD」は、head-mounted displayの略語である。
 診断支援システム10は、オプションとして、接続端子17及びカートユニット18をさらに備える。
 接続端子17は、診断支援装置11と外部機器とを接続するために用いられる。接続端子17は、例えば、USB端子である。「USB」は、Universal Serial Busの略語である。外部機器は、例えば、磁気ディスクドライブ、光磁気ディスクドライブ、又は光ディスクドライブなどの記録媒体である。
 カートユニット18は、移動用のキャスタ付きのカートである。カートユニット18のカート本体には、診断支援装置11、ケーブル12、及び駆動ユニット13が設置される。カートユニット18の最上部のテーブルには、キーボード14、マウス15、及びディスプレイ16が設置される。
 図2を参照して、本実施形態に係るプローブ20及び駆動ユニット13の構成を説明する。
 プローブ20は、駆動シャフト21、ハブ22、シース23、外管24、超音波振動子25、及び中継コネクタ26を備える。
 駆動シャフト21は、生体の体腔内に挿入されるシース23と、シース23の基端に接続した外管24とを通り、プローブ20の基端に設けられたハブ22の内部まで延びている。駆動シャフト21は、信号を送受信する超音波振動子25を先端に有してシース23及び外管24内に回転可能に設けられる。中継コネクタ26は、シース23及び外管24を接続する。
 ハブ22、駆動シャフト21、及び超音波振動子25は、それぞれが一体的に軸方向に進退移動するように互いに接続される。そのため、例えば、ハブ22が先端側に向けて押される操作がなされると、駆動シャフト21及び超音波振動子25がシース23の内部を先端側へ移動する。例えば、ハブ22が基端側に引かれる操作がなされると、駆動シャフト21及び超音波振動子25は、矢印で示すように、シース23の内部を基端側へ移動する。
 駆動ユニット13は、スキャナユニット31、スライドユニット32、及びボトムカバー33を備える。
 スキャナユニット31は、ケーブル12を介して診断支援装置11と接続する。スキャナユニット31は、プローブ20と接続するプローブ接続部34と、駆動シャフト21を回転させる駆動源であるスキャナモータ35とを備える。
 プローブ接続部34は、プローブ20の基端に設けられたハブ22の差込口36を介して、プローブ20と着脱自在に接続する。ハブ22の内部では、駆動シャフト21の基端が回転自在に支持されており、スキャナモータ35の回転力が駆動シャフト21に伝えられる。また、ケーブル12を介して駆動シャフト21と診断支援装置11との間で信号が送受信される。診断支援装置11では、駆動シャフト21から伝わる信号に基づき、生体管腔の断層画像の生成、及び画像処理が行われる。
 スライドユニット32は、スキャナユニット31を進退自在に載せており、スキャナユニット31と機械的且つ電気的に接続している。スライドユニット32は、プローブクランプ部37、スライドモータ38、及びスイッチ群39を備える。
 プローブクランプ部37は、プローブ接続部34よりも先端側でこれと同軸的に配置して設けられており、プローブ接続部34に接続されるプローブ20を支持する。
 スライドモータ38は、軸方向の駆動力を生じさせる駆動源である。スライドモータ38の駆動によってスキャナユニット31が進退動し、それに伴って駆動シャフト21が軸方向に進退動する。スライドモータ38は、例えば、サーボモータである。
 スイッチ群39には、例えば、スキャナユニット31の進退操作の際に押されるフォワードスイッチ及びプルバックスイッチ、並びに画像描写の開始及び終了の際に押されるスキャンスイッチが含まれる。ここでの例に限定されず、必要に応じて種々のスイッチがスイッチ群39に含まれる。
 フォワードスイッチが押されると、スライドモータ38が正回転し、スキャナユニット31が前進する。一方、プルバックスイッチが押されると、スライドモータ38が逆回転し、スキャナユニット31が後退する。
 スキャンスイッチが押されると画像描写が開始され、スキャナモータ35が駆動するとともに、スライドモータ38が駆動してスキャナユニット31を後退させていく。術者などのユーザは、事前にプローブ20をスキャナユニット31に接続しておき、画像描写開始とともに駆動シャフト21が回転しつつ軸方向基端側に移動するようにする。スキャナモータ35及びスライドモータ38は、スキャンスイッチが再度押されると停止し、画像描写が終了する。
 ボトムカバー33は、スライドユニット32の底面及び底面側の側面全周を覆っており、スライドユニット32の底面に対して近接離間自在である。
 図3を参照して、本実施形態に係る診断支援装置11の構成を説明する。
 診断支援装置11は、制御部41、記憶部42、通信部43、入力部44、及び出力部45を備える。
 制御部41には、少なくとも1つのプロセッサ、少なくとも1つの専用回路、又はこれらの組み合わせが含まれる。プロセッサは、CPU若しくはGPUなどの汎用プロセッサ、又は特定の処理に特化した専用プロセッサである。「CPU」は、central processing unitの略語である。「GPU」は、graphics processing unitの略語である。専用回路は、例えば、FPGA又はASICである。「FPGA」は、field-programmable gate arrayの略語である。「ASIC」は、application specific integrated circuitの略語である。制御部41は、診断支援装置11を含む診断支援システム10の各部を制御しながら、診断支援装置11の動作に関わる処理を実行する。
 記憶部42には、少なくとも1つの半導体メモリ、少なくとも1つの磁気メモリ、少なくとも1つの光メモリ、又はこれらのうち少なくとも2種類の組み合わせが含まれる。半導体メモリは、例えば、RAM又はROMである。「RAM」は、random access memoryの略語である。「ROM」は、read only memoryの略語である。RAMは、例えば、SRAM又はDRAMである。「SRAM」は、static random access memoryの略語である。「DRAM」は、dynamic random access memoryの略語である。ROMは、例えば、EEPROMである。「EEPROM」は、electrically erasable programmable read only memoryの略語である。記憶部42は、例えば、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能する。記憶部42には、断層データ51など、診断支援装置11の動作に用いられるデータと、3次元データ52及び3次元画像53など、診断支援装置11の動作によって得られたデータとが記憶される。
 通信部43には、少なくとも1つの通信用インタフェースが含まれる。通信用インタフェースは、有線LANインタフェース、無線LANインタフェース、又はIVUSの信号を受信及びA/D変換する画像診断用インタフェースである。「LAN」は、local area networkの略語である。「A/D」は、analog to digitalの略語である。通信部43は、診断支援装置11の動作に用いられるデータを受信し、また診断支援装置11の動作によって得られるデータを送信する。本実施形態では、通信部43に含まれる画像診断用インタフェースに駆動ユニット13が接続される。
 入力部44には、少なくとも1つの入力用インタフェースが含まれる。入力用インタフェースは、例えば、USBインタフェース、HDMI(登録商標)インタフェース、又はBluetooth(登録商標)などの近距離無線通信に対応したインタフェースである。「HDMI(登録商標)」は、High-Definition Multimedia Interfaceの略語である。入力部44は、診断支援装置11の動作に用いられるデータを入力する操作を受け付ける。本実施形態では、入力部44に含まれるUSBインタフェース、又は近距離無線通信に対応したインタフェースにキーボード14及びマウス15が接続される。タッチスクリーンがディスプレイ16と一体的に設けられている場合、入力部44に含まれるUSBインタフェース又はHDMI(登録商標)インタフェースにディスプレイ16が接続されてもよい。
 出力部45には、少なくとも1つの出力用インタフェースが含まれる。出力用インタフェースは、例えば、USBインタフェース、HDMI(登録商標)インタフェース、又はBluetooth(登録商標)などの近距離無線通信に対応したインタフェースである。出力部45は、診断支援装置11の動作によって得られるデータを出力する。本実施形態では、出力部45に含まれるUSBインタフェース又はHDMI(登録商標)インタフェースにディスプレイ16が接続される。
 診断支援装置11の機能は、本実施形態に係る診断支援プログラムを、制御部41に含まれるプロセッサで実行することにより実現される。すなわち、診断支援装置11の機能は、ソフトウェアにより実現される。診断支援プログラムは、診断支援装置11の動作に含まれるステップの処理をコンピュータに実行させることで、当該ステップの処理に対応する機能をコンピュータに実現させるためのプログラムである。すなわち、診断支援プログラムは、コンピュータを診断支援装置11として機能させるためのプログラムである。
 プログラムは、コンピュータで読取り可能な記録媒体に記録しておくことができる。コンピュータで読取り可能な記録媒体は、例えば、磁気記録装置、光ディスク、光磁気記録媒体、又は半導体メモリである。プログラムの流通は、例えば、プログラムを記録したDVD又はCD-ROMなどの可搬型記録媒体を販売、譲渡、又は貸与することによって行う。「DVD」は、digital versatile discの略語である。「CD-ROM」は、compact disc read only memoryの略語である。プログラムをサーバのストレージに格納しておき、ネットワークを介して、サーバから他のコンピュータにプログラムを転送することにより、プログラムを流通させてもよい。プログラムをプログラムプロダクトとして提供してもよい。
 コンピュータは、例えば、可搬型記録媒体に記録されたプログラム又はサーバから転送されたプログラムを、一旦、主記憶装置に格納する。そして、コンピュータは、主記憶装置に格納されたプログラムをプロセッサで読み取り、読み取ったプログラムに従った処理をプロセッサで実行する。コンピュータは、可搬型記録媒体から直接プログラムを読み取り、プログラムに従った処理を実行してもよい。コンピュータは、コンピュータにサーバからプログラムが転送される度に、逐次、受け取ったプログラムに従った処理を実行してもよい。サーバからコンピュータへのプログラムの転送は行わず、実行指示及び結果取得のみによって機能を実現する、いわゆるASP型のサービスによって処理を実行してもよい。「ASP」は、application service providerの略語である。プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるものが含まれる。例えば、コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータは、「プログラムに準ずるもの」に該当する。
 診断支援装置11の一部又は全ての機能が、制御部41に含まれる専用回路により実現されてもよい。すなわち、診断支援装置11の一部又は全ての機能が、ハードウェアにより実現されてもよい。
 図4を参照して、本実施形態に係る診断支援システム10の動作を説明する。診断支援システム10の動作は、本実施形態に係る診断支援方法に相当する。
 図4のフローの開始前に、ユーザによって、プローブ20がプライミングされる。その後、プローブ20が駆動ユニット13のプローブ接続部34及びプローブクランプ部37に嵌め込まれ、駆動ユニット13に接続及び固定される。そして、プローブ20が血管又は心臓などの生体組織60内の目的部位まで挿入される。
 ステップS1において、スイッチ群39に含まれるスキャンスイッチが押され、さらにスイッチ群39に含まれるプルバックスイッチが押されることで、いわゆるプルバック操作が行われる。プローブ20は、生体組織60の内部で、プルバック操作によって軸方向に後退する超音波振動子25により超音波を送信する。超音波振動子25は、生体組織60の内部を移動しながら放射線状に超音波を送信する。超音波振動子25は、送信した超音波の反射波を受信する。プローブ20は、超音波振動子25により受信した反射波の信号を診断支援装置11に入力する。診断支援装置11の制御部41は、入力された信号を処理して生体組織60の断面画像を順次生成することで、複数の断面画像を含む断層データ51を取得する。
 具体的には、プローブ20は、生体組織60の内部で超音波振動子25を周方向に回転させながら、且つ軸方向に移動させながら、超音波振動子25により、回転中心から外側に向かう複数方向に超音波を送信する。プローブ20は、生体組織60の内部で複数方向のそれぞれに存在する反射物からの反射波を超音波振動子25により受信する。プローブ20は、受信した反射波の信号を、駆動ユニット13及びケーブル12を介して診断支援装置11に送信する。診断支援装置11の通信部43は、プローブ20から送信された信号を受信する。通信部43は、受信した信号をA/D変換する。通信部43は、A/D変換した信号を制御部41に入力する。制御部41は、入力された信号を処理して、超音波振動子25の超音波の送信方向に存在する反射物からの反射波の強度値分布を算出する。制御部41は、算出した強度値分布に相当する輝度値分布を持つ2次元画像を生体組織60の断面画像として順次生成することで、断面画像のデータセットである断層データ51を取得する。制御部41は、取得した断層データ51を記憶部42に記憶する。
 本実施形態において、超音波振動子25が受信する反射波の信号は、断層データ51の生データに相当し、診断支援装置11が反射波の信号を処理して生成する断面画像は、断層データ51の加工データに相当する。
 本実施形態の一変形例として、診断支援装置11の制御部41は、プローブ20から入力された信号をそのまま断層データ51として記憶部42に記憶してもよい。あるいは、制御部41は、プローブ20から入力された信号を処理して算出した反射波の強度値分布を示すデータを断層データ51として記憶部42に記憶してもよい。すなわち、断層データ51は、生体組織60の断面画像のデータセットに限られず、超音波振動子25の各移動位置における生体組織60の断面を何らかの形式で表すデータであればよい。
 本実施形態の一変形例として、周方向に回転しながら複数方向に超音波を送信する超音波振動子25の代わりに、回転することなく複数方向に超音波を送信する超音波振動子を用いてもよい。
 本実施形態の一変形例として、断層データ51は、IVUSを用いて取得される代わりに、OFDI又はOCTを用いて取得されてもよい。「OFDI」は、optical frequency domain imagingの略語である。「OCT」は、optical coherence tomographyの略語である。OFDI又はOCTが用いられる場合、生体組織60の中を移動しながら断層データ51を取得するセンサとして、生体組織60の中で超音波を送信して断層データ51を取得する超音波振動子25の代わりに、生体組織60の中で光を放射して断層データ51を取得するセンサが用いられる。
 本実施形態の一変形例として、診断支援装置11が生体組織60の断面画像のデータセットを生成する代わりに、他の装置が同様のデータセットを生成し、診断支援装置11はそのデータセットを当該他の装置から取得してもよい。すなわち、診断支援装置11の制御部41が、IVUSの信号を処理して生体組織60の断面画像を生成する代わりに、他の装置が、IVUSの信号を処理して生体組織60の断面画像を生成し、生成した断面画像を診断支援装置11に入力してもよい。
 ステップS2において、診断支援装置11の制御部41は、ステップS1で取得した断層データ51に基づいて生体組織60の3次元データ52を生成する。
 具体的には、診断支援装置11の制御部41は、記憶部42に記憶した断層データ51に含まれる生体組織60の断面画像を積層して3次元化することで、生体組織60の3次元データ52を生成する。3次元化の手法としては、サーフェスレンダリング又はボリュームレンダリングなどのレンダリング手法、並びにそれに付随した、環境マッピングを含むテクスチャマッピング、及びバンプマッピングなどの種々の処理のうち任意の手法が用いられる。制御部41は、生成した3次元データ52を記憶部42に記憶する。
 アブレーションカテーテルなど、IVUSカテーテルとは別のカテーテル63が生体組織60に挿入されている場合、断層データ51には、生体組織60のデータと同じように、カテーテル63のデータが含まれている。そのため、ステップS2において、制御部41により生成される3次元データ52にも、生体組織60のデータと同じように、カテーテル63のデータが含まれる。
 図5に示すように、制御部41は、3次元データ52において、生体組織60の、カテーテル63の先端が接触している点を接触点Piとして特定する。そして、制御部41は、ステップS3で表示する3次元画像53において、接触点Piに対応するボクセルの色を既定の色に設定する。「既定の色」は、本実施形態では赤色であるが、接触点Piに対応するボクセルを他のボクセル群と区別できる色であればよい。
 本実施形態では、図5及び図6に示すように、制御部41は、3次元データ52において、生体組織60の、接触点Piを含む一定の範囲を接触部64として特定する。そして、制御部41は、ステップS3で表示する3次元画像53において、接触部64に対応するボクセル群の色を既定の色に設定する。
 具体的には、制御部41は、記憶部42に記憶した断層データ51を解析して、生体組織60の、カテーテル63の先端が接触している位置を検出する。断層データ51を解析する方法としては、任意の方法を用いてよいが、本実施形態では、断層データ51に含まれる断面画像内の生体組織60及びカテーテル63を検出し、生体組織60とカテーテル63の先端との間の距離を計測することで、生体組織60とカテーテル63の先端とが接触しているかどうかを判定する方法が用いられる。制御部41は、3次元データ52において、検出した位置に対応する点を接触点Piとして特定する。
 本実施形態の一変形例として、制御部41は、3次元データ52を解析して、接触点Piを特定してもよい。3次元データ52を解析する方法としては、任意の方法を用いてよいが、例えば、3次元データ52に含まれるカテーテル63の先端を検出し、生体組織60とカテーテル63の先端との距離を計測することで、生体組織60とカテーテル63の先端とが接触しているかどうかを判定する方法が用いられる。
 この変形例において、制御部41は、生体組織60の、カテーテル63の先端が接触している位置を示す位置データの入力を受けてもよい。具体的には、制御部41は、カテーテル63の先端に設けられた電極などのセンサを用いてカテーテル63の先端が生体組織60の内壁に接触しているかどうかを判定する外部システムから、通信部43又は入力部44を介して位置データの入力を受けてもよい。そして、制御部41は、入力された位置データを参照して、3次元データ52の解析結果を補正してもよい。
 本実施形態の一変形例として、制御部41は、3次元データ52を解析することなく、3次元データ52において、上述のような外部システムから入力された位置データで示された位置に対応する点を接触点Piとして特定してもよい。
 ステップS3において、診断支援装置11の制御部41は、ステップS2で生成した3次元データ52を3次元画像53としてディスプレイ16に表示する。この時点では、制御部41は、3次元画像53をディスプレイ16に表示する際の視点、及び仮想の光源72をそれぞれ任意の位置に配置してよい。「視点」とは、3次元空間に配置される、図5に示すような仮想のカメラ71の位置のことである。光源72の数及び相対位置は、図示したものに限らず、適宜変更することができる。
 具体的には、診断支援装置11の制御部41は、記憶部42に記憶した3次元データ52から3次元画像53を生成する。制御部41は、生成した3次元画像53を、出力部45を介してディスプレイ16に表示する。
 ステップS4において、ユーザの操作があれば、ステップS5からステップS8の処理が行われる。ユーザの操作がなければ、ステップS5からステップS8の処理はスキップされる。
 ステップS5において、診断支援装置11の制御部41は、図5に示すような開口62の位置を設定する操作を、入力部44を介して受け付ける。開口62の位置は、ステップS3で表示された3次元画像53において、開口62を通じて生体組織60の内壁面61が生体組織60の外部に露出するような位置に設定される。
 具体的には、診断支援装置11の制御部41は、ディスプレイ16に表示している3次元画像53において、ユーザがキーボード14、マウス15、又はディスプレイ16と一体的に設けられたタッチスクリーンを用いて生体組織60の一部を切り落とす操作を、入力部44を介して受け付ける。図5の例では、制御部41は、生体組織60の断面において、生体組織60の内壁面61が開いた形状になるように生体組織60の一部を切り落とす操作を受け付ける。「生体組織60の断面」は、例えば、開口62の互いに対向する2つの端縁と開口62に対向する生体組織60の内壁面61とを有する断層断面であるが、この断層断面に限らず、生体組織60の横断面でもよいし、生体組織60の縦断面でもよいし、又は生体組織60の他の断面でもよい。「生体組織60の横断面」とは、生体組織60の中で超音波振動子25が移動する方向に対して垂直に生体組織60を切断した切断面のことである。「生体組織60の縦断面」とは、生体組織60の中で超音波振動子25が移動する方向に沿って生体組織60を切断した切断面のことである。「生体組織60の他の断面」とは、生体組織60の中で超音波振動子25が移動する方向に対して斜めに生体組織60を切断した切断面のことである。「開いた形状」は、例えば、略C字状、略U字状、略3字状、又はこれらのいずれかが血管の分岐部、若しくは肺静脈口など、生体組織60に元々空いている孔の存在によって部分的に欠けた形状である。図5の例では、生体組織60の内壁面61の形状が略C字状になっている。
 ステップS6において、診断支援装置11の制御部41は、ステップS5で受け付けた操作によって設定された位置を開口62の位置に決定する。
 具体的には、診断支援装置11の制御部41は、記憶部42に記憶した3次元データ52において、生体組織60の、ユーザの操作によって切り落とされた部分の境界の3次元座標を開口62の縁の3次元座標として特定する。制御部41は、特定した3次元座標を記憶部42に記憶する。
 ステップS7において、診断支援装置11の制御部41は、3次元画像53において生体組織60の内壁面61を生体組織60の外部に向けて露出させる開口62を3次元データ52に形成する。
 具体的には、診断支援装置11の制御部41は、記憶部42に記憶した3次元データ52において、記憶部42に記憶した3次元座標で特定される部分を、3次元画像53をディスプレイ16に表示する際に非表示又は透明になるように設定する。
 ステップS8において、診断支援装置11の制御部41は、ステップS7で形成した開口62の位置に応じて、3次元画像53をディスプレイ16に表示する際の視点を調整する。本実施形態では、制御部41は、生体組織60の内壁面61から開口62を通って生体組織60の外部に延びる直線の上に視点を配置する。よって、ユーザが開口62から生体組織60の内部を覗き込んで生体組織60の内壁面61を仮想的に観察することができる。
 具体的には、診断支援装置11の制御部41は、ディスプレイ16に表示している3次元画像53において、非表示又は透明になるように設定した部分を通じて生体組織60の内壁面61が見える位置に、仮想のカメラ71を配置する。図5の例では、制御部41は、生体組織60の断面において、生体組織60の内壁面61から開口62の第1端縁E1を通って生体組織60の外部に延びる第1直線L1と、生体組織60の内壁面61から開口62の第2端縁E2を通って生体組織60の外部に延びる第2直線L2とで挟まれる領域AFの中に仮想のカメラ71を配置する。第1直線L1が生体組織60の内壁面61と交わる点は、第2直線L2が生体組織60の内壁面61と交わる点と同一の点Ptである。よって、領域AFのどの位置に仮想のカメラ71を配置しても、ユーザが生体組織60の内壁面61の点Ptを観察することができる。
 図5の例では、点Ptは、開口62の第1端縁E1と開口62の第2端縁E2とを結んだ第3直線L3の中点Pcから第3直線L3に対して垂直に引いた第4直線L4が生体組織60の内壁面61と交わる点と同一である。よって、ユーザが開口62を通じて生体組織60の内壁面61の点Ptを観察しやすい。特に、図5に示すように、第4直線L4の延長線上に仮想のカメラ71を配置すると、ユーザが生体組織60の内壁面61の点Ptを観察しやすくなる。
 仮想のカメラ71の位置は、開口62を介して生体組織60の内壁面61を観察可能な任意の位置でよいが、本実施形態では開口62に対向する範囲内である。仮想のカメラ71の位置は、開口62の中央部に対向する中間位置に設定されることが好ましい。
 図6の例では、ディスプレイ16の画面80の中心から一端までの距離Umに対する、画面80と3次元画像53との中心が重なるように画面80に表示された3次元画像53の中心から一端までの距離Unの比率Sについて、最小値Sminと、最大値Smaxとが設定される。例えば、Smin=1/3、Smax=1のように設定される。図5の例において、点Ptからカメラ71の位置までの最小距離Lminを、最小値Sminに応じて設定し、点Ptから仮想のカメラ71の位置までの最大距離Lmaxを、最大値Smaxに応じて設定してもよい。あるいは、点Ptからカメラ71の位置までの最小距離Lminを、最小値Sminに関係なく、カメラ71が開口62よりも点Ptに近づかないような距離に設定してもよい。点Ptから仮想のカメラ71の位置までの最大距離Lmaxを、最大値Smaxに関係なく、ユーザが生体組織60の内壁面61を観察できなくなるほどカメラ71が点Ptから遠ざからないような距離に設定してもよい。
 ステップS9において、断層データ51の更新があれば、ステップS1以降の処理が再度行われる。断層データ51の更新がなければ、ステップS4において、ユーザの操作の有無が再度確認される。
 2回目以降のステップS5からステップS8において、診断支援装置11の制御部41は、開口62の位置を第1位置から第2位置に変更する場合に、視点を第1位置に応じた第3位置から第2位置に応じた第4位置に移動させる。制御部41は、視点の第3位置から第4位置への移動に合わせて、3次元画像53をディスプレイ16に表示する際の仮想の光源72を移動させる。
 制御部41は、生体組織60の断面において、開口62の周方向位置を変更する場合に、仮想のカメラ71の移動に使用する回転行列を用いて、仮想の光源72を移動させる。
 制御部41は、開口62の位置を第1位置から第2位置に変更する場合に、視点を第3位置から第4位置に瞬時に切り替えてもよいが、本実施形態では、視点が第3位置から第4位置へ徐々に移動する動画像を3次元画像53としてディスプレイ16に表示する。そのため、視点が移動したことがユーザに伝わりやすい。
 本実施形態の一変形例として、ステップS5において、診断支援装置11の制御部41は、開口62の位置を設定する操作とともに、ユーザが見たい目標点の位置を設定する操作を、入力部44を介して受け付けてもよい。
 具体的には、診断支援装置11の制御部41は、ディスプレイ16に表示している3次元画像53において、ユーザがキーボード14、マウス15、又はディスプレイ16と一体的に設けられたタッチスクリーンを用いて目標点の位置を指定する操作を、入力部44を介して受け付けてもよい。図5の例では、制御部41は、第1直線L1及び第2直線L2が生体組織60の内壁面61と交わる点の位置として、点Ptの位置を設定する操作を、入力部44を介して受け付けてもよい。
 本実施形態の一変形例として、ステップS5において、診断支援装置11の制御部41は、開口62の位置を設定する操作の代わりに、ユーザが見たい目標点の位置を設定する操作を、入力部44を介して受け付けてもよい。そして、ステップS6において、制御部41は、ステップS5で受け付けた操作によって設定された位置に応じて、開口62の位置を決定してもよい。
 具体的には、診断支援装置11の制御部41は、ディスプレイ16に表示している3次元画像53において、ユーザがキーボード14、マウス15、又はディスプレイ16と一体的に設けられたタッチスクリーンを用いて目標点の位置を指定する操作を、入力部44を介して受け付けてもよい。そして、制御部41は、その目標点の位置に応じて、開口62の位置を決定してもよい。図5の例では、制御部41は、第1直線L1及び第2直線L2が生体組織60の内壁面61と交わる点の位置として、点Ptの位置を設定する操作を、入力部44を介して受け付けてもよい。制御部41は、生体組織60の断面において、点Ptを中心、中心角を予め設定されるか、又はユーザによって指定される角度αとする扇形の領域を領域AFに決定してもよい。制御部41は、生体組織60の、領域AFと重なる位置を開口62の位置に決定してもよい。制御部41は、生体組織60の内壁面61の、点Ptを通る接線に垂直な法線を第4直線L4に決定してもよい。
 領域AFは、開口62の幅よりも狭く設定されてもよい。すなわち、領域AFは、開口62の第1端縁E1と開口62の第2端縁E2とのうち少なくともいずれかを含まないように設定されてもよい。
 本実施形態の一変形例として、第1直線L1が生体組織60の内壁面61と交わる点は、第2直線L2が生体組織60の内壁面61と交わる点と同一でなくてもよい。例えば、第1直線L1が生体組織60の内壁面61と交わる点である点P1、及び第2直線L2が生体組織60の内壁面61と交わる点である点P2は、点Ptを中心とする円周上にあってもよい。すなわち、点P1及び点P2は、点Ptから略等距離にあってもよい。
 図7を参照して、カテーテル63が生体組織60に挿入されている場合にステップS2で行われる処理の詳細を説明する。
 ステップS201において、診断支援装置11の制御部41は、ステップS1で取得した断層データ51に含まれる断面画像内の生体組織60及びカテーテル63を検出する。
 具体的には、診断支援装置11の制御部41は、ステップS1で取得した断層データ51に含まれる断面画像の画素群を2つ以上のクラスに分類する。これら2つ以上のクラスには、少なくとも生体組織60のクラスと、カテーテル63のクラスとが含まれ、血球のクラス、ガイドワイヤなど、カテーテル63以外の医療器具のクラス、ステントなどの留置物のクラス、又は石灰若しくはプラークなどの病変のクラスがさらに含まれていてもよい。分類方法としては、任意の方法を用いてよいが、本実施形態では、学習済みモデルによって断面画像の画素群を分類する方法が用いられる。学習済みモデルは、事前に機械学習を行うことによって、サンプルとなるIVUSの断面画像から、各クラスに該当する領域を検出できるように調教されている。
 図8の例では、制御部41は、断層データ51に含まれる断面画像の各画素を、画素値が生体組織60のクラスに該当すれば1、そうでなければ0になるように2値化する。制御部41は、2値化した断面画像のダウンサンプリングを行い、得られた2次元画像の各画素を、生体組織60の長軸方向において、その2次元画像が対応する位置のボクセルに設定する。
 本実施形態の一変形例として、制御部41は、断面画像内のエッジを抽出することで、生体組織60を検出してもよい。
 ステップS202において、診断支援装置11の制御部41は、ステップS201で検出した生体組織60とカテーテル63の先端との間の距離を計測することで、生体組織60とカテーテル63の先端とが接触しているかどうかを判定する。
 具体的には、診断支援装置11の制御部41は、ステップS201で検出したカテーテル63をリストアップしてカテーテルリストを作成する。制御部41は、カテーテルリストのエントリごとに、カテーテル63の先端を検出する。ステップS201で1本のカテーテル63しか検出されていなければ、カテーテルリストのエントリ数は1つである。制御部41は、検出したカテーテル63の先端をリストアップしてカテーテル先端リストを作成する。制御部41は、カテーテル先端リストのエントリごとに、生体組織60の内壁面61でカテーテル63の先端に最も近い位置を特定する。制御部41は、カテーテル63の先端と特定した位置との間の距離を算出する。制御部41は、算出した距離が第1閾値未満であれば、生体組織60とカテーテル63の先端とが接触していると判定する。制御部41は、算出した距離が第1閾値以上であれば、生体組織60とカテーテル63の先端とが接触していないと判定する。
 ステップS202で生体組織60とカテーテル63の先端とが接触していると判定された場合、ステップS203において、診断支援装置11の制御部41は、ステップS201で検出した生体組織60とカテーテル63の先端との間の距離が一定値未満の、生体組織60の範囲を接触部64として特定する。制御部41は、ステップS3で表示する3次元画像53において、接触部64に対応するボクセル群の色を既定の色に設定する。
 具体的には、診断支援装置11の制御部41は、ステップS202で作成したカテーテル先端リストのエントリごとに、生体組織60の内壁面61でカテーテル63の先端までの距離が第2閾値未満の範囲を接触部64として特定する。制御部41は、ステップS3で表示する3次元画像53において、接触部64に対応するボクセル群の色を赤色に設定する。
 ステップS202で生体組織60とカテーテル63の先端とが接触していないと判定された場合、ステップS203の処理はスキップされる。
 本実施形態の一変形例として、診断支援装置11の制御部41は、3次元データ52における、カテーテル63の先端63dから生体組織60の各点までの距離に応じて、3次元画像53の各ボクセルの色に既定の色の要素を含める比率を調整してもよい。すなわち、3次元画像53において、生体組織60に対し、カテーテル63と生体組織60とが接触している位置を中心としたグラデーションの色付けが行われてもよい。
 この変形例では、制御部41は、図9に示すように、カテーテル63の先端63dと、生体組織60の内壁面61の各点Pnとの間の距離Distを算出する。なお、図9では、便宜上、2次元のグリッドを示しているが、本来は3次元のグリッドで処理が行われる。GDをカテーテル63の先端63dからの所定距離、CFを接触係数としたとき、制御部41は、以下の計算によって生体組織60の内壁面61を含む各ボクセルの接触係数を算出する。
 CF=1-clamp(Dist/GD,0,1)
 ここで、clamp()はクランプ関数である。接触係数が1に近いボクセルほど、カテーテル63の先端63dに近接しており、接触係数が0に近いボクセルほど、カテーテル63の先端63dから離れていることになる。カテーテル63の先端63dからGD以上離れているボクセルの接触係数は0になる。接触部64の中心に位置するボクセルの接触係数は1になる。
 VPを可視ボクセル情報、ColorCPをVPの色、ColorPdを既定の色、ColorLTを生体組織60の色としたとき、制御部41は、以下の計算によって3次元画像53の各ボクセルの色を設定する。
 ColorCP=CF×ColorPd+(1-CF)×ColorLT
 ここで、「可視ボクセル情報」とは、3次元データ52において生体組織60が存在するボクセル情報のことを指す。ColorCP、ColorPd、及びColorLTはRGB値である。ColorPdは、例えば赤色である。ColorLTは、ColorPd以外の色であればよい。ColorLTは、単一色でもよいし、又は基準点、基準線、若しくは基準面からの距離に応じた色でもよい。基準点、基準線、及び基準面は、任意の位置に配置されてよいが、開口62の位置に応じて配置されることが好ましい。図5の例では、制御部41は、生体組織60の断面において、3次元画像53をディスプレイ16に表示する際の視点である仮想のカメラ71の位置と、開口62の第1端縁E1と開口62の第2端縁E2とを結んだ第3直線L3の中点Pcとを通る直線の上に基準点を配置することができる。よって、左右方向における視点、基準点、及び中点Pcの位置が揃うため、ユーザが開口62を介して生体組織60の内壁面61を観察したときに、3次元画像53の色調の違いによって凹凸及び奥行きを把握しやすい。特に、第4直線L4の上に基準点を配置すると、ユーザが生体組織60の内壁面61の点Pt、及び点Ptの周辺の凹凸及び奥行きを把握しやすくなる。なお、ColorCPを上述の式を用いて決めるため、3次元画像53において、生体組織60の、カテーテル63の先端63dからGD以上離れている箇所の色は、ColorLTと一致する。また、図9では便宜上、カテーテル63の先端63d、生体組織60の内壁面61の各点Pn、及び生体組織60の接触部64の外縁を示すため、相当する位置のグリッドを塗りつぶしている。上述した式を用いてColorCPを算出すると、63dで示すグリッドを中心に、64で示す各グリッドに向かって放射状にグラデーションの色付けが行われる。
 制御部41は、3次元データ52における、カテーテル63の先端63dから生体組織60の全ての点までの距離を算出する代わりに、3次元データ52における、カテーテル63の先端63dから、生体組織60の、接触点Piを含む一定の範囲内の各点までの距離を算出してもよい。その場合、制御部41は、算出した距離に応じて、3次元画像53の、当該範囲に対応するボクセル群の各ボクセルの色に既定の色の要素を含める比率を調整する。一例として、制御部41は、接触点Piを特定後、ある一定の範囲にある計算領域を特定し、その計算領域においてのみ、カテーテル63の先端63dと、生体組織60の内壁面61の各点Pnとの間の距離Distを算出してもよい。この例によれば、全ボクセルについて距離Distを計算しなくてよいため、処理が早くなる。接触部64を「一定の範囲」とみなしてもよい。すなわち、3次元画像53において、接触部64に対応するボクセル群のみにグラデーションの色付けが行われてもよい。
 本実施形態の一変形例として、図10に示すように、制御部41は、カテーテル63としてのアブレーションカテーテルによって、生体組織60の、接触点Piを含む一部の領域が焼灼されたことを示す焼灼データの入力を受けると、当該領域を焼灼領域65として特定してもよい。そして、制御部41は、ステップS3で表示する3次元画像53において、焼灼領域65に対応するボクセル群の色を既定の色とは別の色に設定してもよい。「既定の色とは別の色」は、この変形例ではオレンジ色であるが、焼灼領域65に対応するボクセル群を、接触部64に対応するボクセル群、及びその他のボクセル群と区別できる色であればよい。図10の例では、焼灼データが複数回入力されている。そのため、焼灼領域65に対応するボクセル群と同じように、他の焼灼領域65a,65bに対応するボクセル群の色もオレンジ色に設定されている。
 図11を参照して、この変形例において、アブレーションカテーテルが生体組織60に挿入され、アブレーション手術が行われている場合にステップS2で行われる処理の詳細を説明する。
 ステップS211からステップS213の処理については、図7のステップS201からステップS203の処理と同じであるため、説明を省略する。
 ステップS214で焼灼データが入力された場合、診断支援装置11の制御部41は、接触部64の中心を含む焼灼領域65の色調を変化させる。焼灼領域65の大きさは、接触部64と同じでもよいし、少し大きくてもよいし、又は少し小さくてもよい。焼灼データの入力を受け付ける方法としては、任意の方法を用いてよいが、この変形例では、生体組織60とカテーテル63の先端とが接触しているときに、術者が該当するアイコンをクリックする操作、又は該当するショートカットキーを押す操作などの入力操作を、入力部44を介して受け付ける方法が用いられる。あるいは、生体組織60とカテーテル63の先端とが接触しているときに、アブレーションカテーテルへのエネルギー印加又は電圧印加を制御する機器から印加情報を、通信部43を介して取得する方法が用いられてもよい。
 ステップS214において、焼灼データが入力されなかった場合、ステップS215の処理はスキップされる。
 上述のように、本実施形態では、診断支援装置11の制御部41は、カテーテル63が挿入された生体組織60の断層データ51に基づいて生体組織60の3次元データ52を生成する。制御部41は、生成した3次元データ52を3次元画像53としてディスプレイ16に表示する。制御部41は、3次元データ52において、生体組織60の、カテーテル63の先端が接触している点を接触点Piとして特定する。制御部41は、3次元画像53において、接触点Piに対応するボクセルの色を既定の色に設定する。
 本実施形態によれば、3次元画像53において、カテーテル63と生体組織60とが接触しているかどうかがわかりやすくなる。例えば、ユーザがアブレーション手術を行う術者であれば、アブレーションカテーテルと心腔内の組織とが接触しているかどうかがわかりやすいため、アブレーション手術を行いやすくなる。
 本実施形態では、カテーテル63と生体組織60の壁とが接触している場合、接触部64の色を変えることで、カテーテル63と生体組織60の壁とが接触していることを3次元空間で示すことができる。
 本実施形態では、開口62の位置が決まると、開口62から生体組織60の内部を覗き込むことができるように、カメラ71及び光源72の位置が移動する。そのため、開口62の位置を別の位置に変更した際に、生体組織60の外壁面しか見えなくなり、興味の対象を確認できなくなるという事態を回避できる。
 本開示は上述の実施形態に限定されるものではない。例えば、ブロック図に記載の複数のブロックを統合してもよいし、又は1つのブロックを分割してもよい。フローチャートに記載の複数のステップを記述に従って時系列に実行する代わりに、各ステップを実行する装置の処理能力に応じて、又は必要に応じて、並列的に又は異なる順序で実行してもよい。その他、本開示の趣旨を逸脱しない範囲での変更が可能である。
 10 診断支援システム
 11 診断支援装置
 12 ケーブル
 13 駆動ユニット
 14 キーボード
 15 マウス
 16 ディスプレイ
 17 接続端子
 18 カートユニット
 20 プローブ
 21 駆動シャフト
 22 ハブ
 23 シース
 24 外管
 25 超音波振動子
 26 中継コネクタ
 31 スキャナユニット
 32 スライドユニット
 33 ボトムカバー
 34 プローブ接続部
 35 スキャナモータ
 36 差込口
 37 プローブクランプ部
 38 スライドモータ
 39 スイッチ群
 41 制御部
 42 記憶部
 43 通信部
 44 入力部
 45 出力部
 51 断層データ
 52 3次元データ
 53 3次元画像
 60 生体組織
 61 内壁面
 62 開口
 63 カテーテル
 63d 先端
 64 接触部
 65 焼灼領域
 65a 焼灼領域
 65b 焼灼領域
 71 カメラ
 72 光源
 80 画面

Claims (11)

  1.  カテーテルが挿入された生体組織の断層データに基づいて前記生体組織の3次元データを生成し、生成した3次元データを3次元画像としてディスプレイに表示する診断支援装置であって、
     前記3次元データにおいて、前記生体組織の、前記カテーテルの先端が接触している点を接触点として特定し、前記3次元画像において、前記接触点に対応するボクセルの色を既定の色に設定する制御部を備える診断支援装置。
  2.  前記制御部は、前記3次元データにおける、前記カテーテルの先端から前記生体組織の各点までの距離に応じて、前記3次元画像の各ボクセルの色に前記既定の色の要素を含める比率を調整する請求項1に記載の診断支援装置。
  3.  前記制御部は、前記断層データを解析して、前記生体組織の、前記カテーテルの先端が接触している位置を検出し、前記3次元データにおいて、検出した位置に対応する点を前記接触点として特定する請求項1又は請求項2に記載の診断支援装置。
  4.  前記制御部は、前記3次元データを解析して、前記接触点を特定する請求項1又は請求項2に記載の診断支援装置。
  5.  前記制御部は、前記生体組織の、前記カテーテルの先端が接触している位置を示す位置データの入力を受け、前記位置データを参照して、前記3次元データの解析結果を補正する請求項4に記載の診断支援装置。
  6.  前記制御部は、前記生体組織の、前記カテーテルの先端が接触している位置を示す位置データの入力を受け、前記3次元データにおいて、前記位置データで示された位置に対応する点を前記接触点として特定する請求項1又は請求項2に記載の診断支援装置。
  7.  前記制御部は、前記3次元データにおける、前記カテーテルの先端から、前記生体組織の、前記接触点を含む一定の範囲内の各点までの距離を算出し、算出した距離に応じて、前記3次元画像の、当該範囲に対応するボクセル群の各ボクセルの色に前記既定の色の要素を含める比率を調整する請求項1に記載の診断支援装置。
  8.  前記制御部は、前記カテーテルとしてのアブレーションカテーテルによって、前記生体組織の、前記接触点を含む一部の領域が焼灼されたことを示す焼灼データの入力を受けると、当該領域に対応するボクセル群の色を前記既定の色とは別の色に設定する請求項1から請求項7のいずれか1項に記載の診断支援装置。
  9.  請求項1から請求項8のいずれか1項に記載の診断支援装置と、
     前記生体組織の中を移動しながら前記断層データを取得するセンサと
    を備える診断支援システム。
  10.  前記ディスプレイをさらに備える請求項9に記載の診断支援システム。
  11.  カテーテルが挿入された生体組織の断層データに基づいて前記生体組織の3次元データを生成し、生成した3次元データを3次元画像としてディスプレイに表示する診断支援方法であって、
     前記3次元データにおいて、前記生体組織の、前記カテーテルの先端が接触している点を接触点として特定し、前記3次元画像において、前記接触点に対応するボクセルの色を既定の色に設定する診断支援方法。
PCT/JP2020/036452 2019-09-30 2020-09-25 診断支援装置、診断支援システム、及び診断支援方法 WO2021065750A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP20871331.3A EP4042944A4 (en) 2019-09-30 2020-09-25 DIAGNOSTIC ASSISTANT DEVICE, DIAGNOSTIC ASSISTANT SYSTEM AND DIAGNOSTIC ASSISTANT METHOD
JP2021551207A JPWO2021065750A1 (ja) 2019-09-30 2020-09-25
CN202080068991.0A CN114554970B (zh) 2019-09-30 2020-09-25 诊断支援装置、诊断支援系统及诊断支援方法
US17/708,460 US20220218309A1 (en) 2019-09-30 2022-03-30 Diagnostic assistance device, diagnostic assistance system, and diagnostic assistance method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-178983 2019-09-30
JP2019178983 2019-09-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/708,460 Continuation US20220218309A1 (en) 2019-09-30 2022-03-30 Diagnostic assistance device, diagnostic assistance system, and diagnostic assistance method

Publications (1)

Publication Number Publication Date
WO2021065750A1 true WO2021065750A1 (ja) 2021-04-08

Family

ID=75336564

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/036452 WO2021065750A1 (ja) 2019-09-30 2020-09-25 診断支援装置、診断支援システム、及び診断支援方法

Country Status (5)

Country Link
US (1) US20220218309A1 (ja)
EP (1) EP4042944A4 (ja)
JP (1) JPWO2021065750A1 (ja)
CN (1) CN114554970B (ja)
WO (1) WO2021065750A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023013601A1 (ja) * 2021-08-02 2023-02-09 テルモ株式会社 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6251072B1 (en) 1999-02-19 2001-06-26 Life Imaging Systems, Inc. Semi-automated segmentation method for 3-dimensional ultrasound
US6385332B1 (en) 1999-02-19 2002-05-07 The John P. Roberts Research Institute Automated segmentation method for 3-dimensional ultrasound
JP2008220802A (ja) * 2007-03-15 2008-09-25 Hitachi Medical Corp 医用画像診断装置
JP2010088584A (ja) * 2008-10-06 2010-04-22 Toshiba Corp 超音波診断装置
US20100215238A1 (en) 2009-02-23 2010-08-26 Yingli Lu Method for Automatic Segmentation of Images
JP2013031655A (ja) * 2011-07-06 2013-02-14 Toshiba Corp 医用画像診断装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7306593B2 (en) * 2002-10-21 2007-12-11 Biosense, Inc. Prediction and assessment of ablation of cardiac tissue
DE102006013476B4 (de) * 2006-03-23 2012-11-15 Siemens Ag Verfahren zur positionsgenauen Darstellung von interessierenden Gewebebereichen
US9757036B2 (en) * 2007-05-08 2017-09-12 Mediguide Ltd. Method for producing an electrophysiological map of the heart
JP5586465B2 (ja) * 2008-07-15 2014-09-10 株式会社日立メディコ 超音波診断装置
GB201303917D0 (en) * 2013-03-05 2013-04-17 Ezono Ag System for image guided procedure
EP3137159A1 (en) * 2014-05-02 2017-03-08 Koninklijke Philips N.V. Contact determination apparatus
US10549128B2 (en) * 2015-11-04 2020-02-04 Vytronus, Inc. Systems and methods for imaging and ablating tissue
US10660613B2 (en) * 2017-09-29 2020-05-26 Siemens Medical Solutions Usa, Inc. Measurement point determination in medical diagnostic imaging
US11304669B2 (en) * 2017-10-12 2022-04-19 Canon Medical Systems Corporation X-ray diagnosis apparatus, medical image processing apparatus, medical image processing system, and medical image processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6251072B1 (en) 1999-02-19 2001-06-26 Life Imaging Systems, Inc. Semi-automated segmentation method for 3-dimensional ultrasound
US6385332B1 (en) 1999-02-19 2002-05-07 The John P. Roberts Research Institute Automated segmentation method for 3-dimensional ultrasound
JP2008220802A (ja) * 2007-03-15 2008-09-25 Hitachi Medical Corp 医用画像診断装置
JP2010088584A (ja) * 2008-10-06 2010-04-22 Toshiba Corp 超音波診断装置
US20100215238A1 (en) 2009-02-23 2010-08-26 Yingli Lu Method for Automatic Segmentation of Images
JP2013031655A (ja) * 2011-07-06 2013-02-14 Toshiba Corp 医用画像診断装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4042944A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023013601A1 (ja) * 2021-08-02 2023-02-09 テルモ株式会社 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム

Also Published As

Publication number Publication date
EP4042944A4 (en) 2022-11-02
JPWO2021065750A1 (ja) 2021-04-08
CN114554970A (zh) 2022-05-27
EP4042944A1 (en) 2022-08-17
CN114554970B (zh) 2024-04-19
US20220218309A1 (en) 2022-07-14

Similar Documents

Publication Publication Date Title
JP7300352B2 (ja) 診断支援装置、診断支援システム、及び診断支援方法
WO2021065750A1 (ja) 診断支援装置、診断支援システム、及び診断支援方法
CN114502079B (zh) 诊断支援装置、诊断支援系统及诊断支援方法
WO2021065746A1 (ja) 診断支援装置、診断支援システム、及び診断支援方法
WO2022202200A1 (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
WO2023013601A1 (ja) 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム
WO2022071250A1 (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
WO2022071251A1 (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
WO2023176741A1 (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
US20240013390A1 (en) Image processing device, image processing system, image display method, and image processing program
US20240013387A1 (en) Image processing device, image processing system, image display method, and image processing program
WO2023054001A1 (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
WO2021200294A1 (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
WO2024071054A1 (ja) 画像処理装置、画像表示システム、画像表示方法、及び画像処理プログラム
US20240016474A1 (en) Image processing device, image processing system, image display method, and image processing program
WO2022085373A1 (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
WO2021200296A1 (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
JP2023024072A (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
WO2020217860A1 (ja) 診断支援装置及び診断支援方法
WO2021200295A1 (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
JP2024051695A (ja) 画像処理装置、画像表示システム、画像処理方法、及び画像処理プログラム
CN113645907A (zh) 诊断支援装置、诊断支援系统以及诊断支援方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20871331

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021551207

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020871331

Country of ref document: EP

Effective date: 20220502