WO2021176550A1 - 外科手術システムおよび外科手術方法 - Google Patents

外科手術システムおよび外科手術方法 Download PDF

Info

Publication number
WO2021176550A1
WO2021176550A1 PCT/JP2020/008841 JP2020008841W WO2021176550A1 WO 2021176550 A1 WO2021176550 A1 WO 2021176550A1 JP 2020008841 W JP2020008841 W JP 2020008841W WO 2021176550 A1 WO2021176550 A1 WO 2021176550A1
Authority
WO
WIPO (PCT)
Prior art keywords
ultrasonic
tomographic image
treatment tool
image
ultrasonic probe
Prior art date
Application number
PCT/JP2020/008841
Other languages
English (en)
French (fr)
Inventor
竜一 頼本
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to CN202080096162.3A priority Critical patent/CN115087384A/zh
Priority to PCT/JP2020/008841 priority patent/WO2021176550A1/ja
Priority to JP2022504805A priority patent/JP7284868B2/ja
Publication of WO2021176550A1 publication Critical patent/WO2021176550A1/ja
Priority to US17/874,690 priority patent/US20220370155A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3132Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • A61B2090/3782Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument
    • A61B2090/3784Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument both receiver and transmitter being in the instrument or receiver being also transmitter

Definitions

  • the present invention relates to a surgical system and a surgical method.
  • an ultrasonic probe is inserted instead of the treatment tool, and an ultrasonic tomographic image of the treatment site is acquired. Then, after confirming the internal structure by the ultrasonic tomographic image, a treatment tool is inserted instead of the ultrasonic probe, and treatment such as excision of the tissue is performed.
  • the present invention provides a surgical system and a surgical method capable of confirming an accurate internal structure of a place where a treatment is efficiently performed without inserting and removing an ultrasonic probe and a treatment tool during treatment with a treatment tool. The purpose is to do.
  • One aspect of the present invention is an endoscope that is inserted into a body cavity and can acquire an endoscopic image of the surface of the target tissue, and an ultrasonic tomographic image that is inserted into the body cavity and can acquire an ultrasonic tomographic image of the target tissue.
  • the endoscope has an ultrasonic probe, a treatment tool inserted into the body cavity, a display device capable of displaying the ultrasonic tomographic image acquired by the ultrasonic probe, a memory, and a processor.
  • a surgical system including an ultrasonic probe and a control device connected to the display device, wherein the processor is used when the ultrasonic probe is inserted into the body cavity and the ultrasonic tomographic image is acquired.
  • the position of the ultrasonic probe is detected based on the endoscopic image acquired by the endoscope, and the ultrasonic tomographic image is stored in the memory in association with the position of the ultrasonic probe.
  • the position of the treatment tool is detected based on the endoscopic image acquired by the endoscope, and the position of the treatment tool is detected based on the detected position of the treatment tool.
  • This is a surgical operation system that reads out the ultrasonic tomographic image stored in the memory and displays the read out ultrasonic tomographic image on the display device.
  • Another aspect of the present invention includes a tomographic image storage step and a treatment step, wherein the tomographic image storage step inserts an endoscope and an ultrasonic probe into the body cavity to perform an endoscope on the surface of the target tissue.
  • the tomographic image storage step inserts an endoscope and an ultrasonic probe into the body cavity to perform an endoscope on the surface of the target tissue.
  • a plurality of ultrasonic tomographic images of the target tissue are acquired by an ultrasonic probe, and the acquired plurality of the ultrasonic tomographic images and the endoscopy when each of the ultrasonic tomographic images is acquired.
  • the position of the ultrasonic probe detected by processing the mirror image is stored in the storage unit in association with the position of the ultrasonic probe, and the treatment step inserts the treatment tool into the body cavity in place of the ultrasonic probe and the subject.
  • the position of the treatment tool is detected by processing the endoscopic image, and is stored in the storage unit based on the detected position of the treatment tool. This is a surgical method of reading out the ultrasonic tomographic image and displaying the read out ultrasonic tomographic image.
  • Another aspect of the present invention includes an endoscope that acquires an endoscopic image of the surface of the target tissue, and a plurality of ultrasonic tomographic images of the target tissue acquired by an ultrasonic probe inserted into the body cavity.
  • a storage unit that stores the position of the ultrasonic probe detected by processing the endoscopic image when each ultrasonic tomographic image is acquired in association with the position of the ultrasonic probe, and the inside of the body cavity instead of the ultrasonic probe. It is stored in the storage unit based on the position detection unit that detects the position of the treatment tool inserted in the endoscope by processing the endoscopic image and the position of the treatment tool detected by the position detection unit.
  • It is a surgical operation system including a tomographic image reading unit that reads out the ultrasonic tomographic image and a display unit that displays the ultrasonic tomographic image read out by the tomographic image reading unit.
  • a plurality of ultrasonic tomographic images of the target tissue acquired by inserting an ultrasonic probe into the body cavity were detected by processing the endoscopic image when each ultrasonic tomographic image was acquired. It is stored in the storage unit in association with the position of the ultrasonic probe. Then, when treating the target tissue with the treatment tool inserted into the body cavity, the position detection unit detects the position of the treatment tool detected by processing the endoscopic image acquired by the endoscope. ..
  • the ultrasonic tomographic image stored in the storage unit is read out by the tomographic image reading unit based on the position of the detected treatment tool and displayed on the display unit.
  • the tomographic image reading unit based on the position of the detected treatment tool and displayed on the display unit.
  • the position of the ultrasonic probe may be a position in a direction intersecting the scanning plane of the ultrasonic wave by the ultrasonic probe.
  • the ultrasonic tomographic image can be easily read and stored. That is, when the ultrasonic probe is placed on the surface of the target tissue and operated, an ultrasonic tomographic image along the scanning plane of the ultrasonic wave is acquired.
  • By translating the ultrasonic probe in one direction intersecting the scanning plane it is possible to acquire a plurality of ultrasonic tomographic images arranged in the translational movement direction. Therefore, the position of the ultrasonic tomographic image can be easily specified only by storing the position of the ultrasonic probe in the direction intersecting the scanning plane of the ultrasonic wave in association with the ultrasonic tomographic image.
  • the position of the treatment tool may be the position of the tip of the treatment tool.
  • the operator pays the most attention to the position of the tip of the treatment tool. It is most convenient to read the ultrasonic tomographic image. With this configuration, when the treatment tool is moved on the surface of the target tissue, the ultrasonic tomographic image at the position of the tip of the treatment tool is read out and displayed, so that the internal structure of the part to be treated can be confirmed more accurately. can do.
  • the position detection unit detects the position of the ultrasonic probe and the position of the treatment tool by setting a reference point in the endoscopic image and calculating the distance from the reference point. You may. With this configuration, the position of the treatment tool can be easily detected from the endoscopic image used for the treatment of the target tissue.
  • the display unit displays the endoscopic image and the ultrasonic tomographic image, and superimposes an instruction display indicating the position of the ultrasonic tomographic image on the endoscopic image. It may be displayed.
  • the instruction display may be a straight line along the scanning plane of the ultrasonic wave.
  • another aspect of the present invention includes a tomographic image storage step and a treatment step, in which the tomographic image storage step inserts an endoscope and an ultrasonic probe into the body cavity and within the surface of the target tissue.
  • the tomographic image storage step inserts an endoscope and an ultrasonic probe into the body cavity and within the surface of the target tissue.
  • a plurality of ultrasonic tomographic images of the target tissue were acquired by an ultrasonic probe, and the acquired plurality of the ultrasonic tomographic images and the said when each ultrasonic tomographic image was acquired.
  • the position of the ultrasonic probe detected by processing the endoscopic image is stored in the storage unit in association with the position of the ultrasonic probe, and the treatment step inserts the treatment tool into the body cavity in place of the ultrasonic probe.
  • the position of the treatment tool is detected by processing the endoscopic image, and is stored in the storage unit based on the detected position of the treatment tool. It is a surgical operation method of reading out the ultrasonic tomographic image that has been made and displaying the read out ultrasonic tomographic image.
  • FIG. 5 is a diagram showing an example of an image displayed at a stage of performing a procedure with a knife in the surgical operation system of FIG.
  • FIG. 5 is a diagram showing an example of an image displayed in a state where the knife is moved from the state of FIG.
  • FIG. 1 It is a figure which shows another example of the image of FIG. It is a flowchart which shows the surgical operation method which concerns on one Embodiment of this invention. It is a flowchart explaining the storage stage of FIG. It is a flowchart explaining the treatment step of FIG.
  • the endoscope 3 is inserted into the body cavity via one trocca 2 arranged so as to penetrate the body wall B of the patient. It is applied to surgery performed while observing the surface of liver (target tissue) C with an endoscope 3.
  • an ultrasonic probe 5 is inserted into the body cavity via another trocca 4, and an ultrasonic tomographic image of the liver C is moved while moving the surface of the liver C in one direction (direction of the arrow) (FIG. 5) Acquisition of G2 is performed. Further, in this operation, after the acquisition of the ultrasonic tomographic image G2 by the ultrasonic probe 5 is completed, the ultrasonic probe 5 is pulled out from the trocca 4, and instead, for example, for excising the lesion portion of the liver C.
  • a knife (treatment tool) 6 is inserted into the body cavity. As the treatment tool, any treatment tool other than the knife 6 may be used.
  • the surgical operation system 1 includes an endoscope 3, a control device 20, and a display device (display unit) 11.
  • An endoscope 3 and an ultrasonic probe 5 are connected to the control device 20.
  • the control device 20 includes a storage unit 7, a position detection unit 8, a control unit (tomographic image reading unit) 9, and an image processing unit 10.
  • the storage unit 7 is a storage device such as a memory.
  • the position detection unit 8, the control unit 9, and the image processing unit 10 are composed of a processor 30.
  • the display unit 11 is a monitor.
  • the position of the scanning plane of the ultrasonic wave by the ultrasonic probe 5 when the ultrasonic probe 5 is arranged on the surface of the liver C is associated with the ultrasonic tomographic image G2 acquired at that time. It will be remembered.
  • the position detection unit 8 processes the endoscope image G1 acquired by the endoscope 3 at a predetermined frame rate to process the endoscope image G1.
  • the position of the scanning plane of the ultrasonic wave is sequentially calculated as the distance to the position of the reference point O in the inside.
  • the ultrasonic probe 5 can be connected to the control unit 9 at the stage of acquiring the ultrasonic tomographic image G2, as shown by the broken line in FIG. Then, the control unit 9 stores the position of the ultrasonic scanning plane detected by the position detection unit 8 and the ultrasonic tomographic image G2 acquired at that time in the storage unit 7 in association with each other.
  • the reference point O is set at the center position of the endoscopic image G1 as shown in FIG. 3, for example.
  • one or more feature points in the endoscopic image G1 may be extracted, and an arbitrary position defined with respect to the extracted feature points may be set as a reference point O.
  • the scanning plane of ultrasonic waves is, for example, as shown in FIG. 3, when the ultrasonic probe 5 existing in the endoscopic image G1 has a rod shape having a constant width, the center in the width direction thereof. It is specified as a straight line L extending along the longitudinal direction at the position. For the position of the scanning plane, the distance from the reference point O to the straight line L may be calculated. As shown in FIG. 3, the control unit 9 sets the x-axis in the direction parallel to the straight line L and the y-axis in the direction orthogonal to the x-axis with the set reference point O as the origin.
  • the acquisition of the ultrasonic tomographic image G2 by the ultrasonic probe 5 is determined while moving the ultrasonic probe 5 in the width direction, that is, in the direction intersecting the scanning plane of the ultrasonic wave as shown by the arrow in FIG. It is performed sequentially according to the frame rate of. Every time the ultrasonic tomographic image G2 is acquired, the distance yn (y coordinate) in the y-axis direction of the scanning plane is calculated from the reference point O which is the origin, and the distance yn and the ultrasonic tomographic image G2 are associated with each other. It is stored in the storage unit 7.
  • the position detection unit 8 processes the endoscopic image G1.
  • the position of the knife 6 inserted into the body cavity is detected.
  • the tip position of the knife 6 in the endoscope image G1 is extracted.
  • the y-coordinate ym of the extracted tip position of the knife 6 is detected as the position of the knife 6.
  • the control unit 9 reads out the ultrasonic tomographic image G2 stored corresponding to the input position of the knife 6 from the storage unit 7. Specifically, the ultrasonic tomographic image G2 acquired by the ultrasonic probe 5 is read out at the same position as the position of the knife 6 detected by the position detection unit 8.
  • control unit 9 sends the read ultrasonic tomographic image G2 to the image processing unit 10 as shown in FIG.
  • the image processing unit 10 creates a composite image in which the ultrasonic tomographic image G2 sent from the control unit 9 and the endoscopic image G1 on the surface of the current liver C input from the endoscope 3 are arranged in parallel. Generate and send to the display unit 11.
  • the display unit 11 displays the sent composite image.
  • the endoscope 3 is inserted into the body cavity via the trocca 2 (step S1), and the ultrasonic probe 5 is inserted via the trocca 4. It is inserted into the body cavity (step S2).
  • the position information and the ultrasonic wave in the screen of the ultrasonic probe 5 detected by the position detection unit 8 by the endoscopic image G1 acquired by the endoscope 3 and the ultrasonic tomographic image G2 acquired by the ultrasonic probe 5 are used.
  • the ultrasonic tomographic image G2 is associated with the storage unit 7 (tomographic image storage step S3), and the ultrasonic probe 5 is removed from the body cavity (step S4).
  • a knife 6 is inserted into the body cavity via the trocca 4 to make an incision in the lesion portion of the liver C (step S5), and the endoscopic image G1 and the ultrasonic tomographic image G2 are associated with each other to display the display device 11. (Treatment step S6), and the treatment for liver C is performed. After the treatment is completed, the knife 6 is removed from the body cavity (step S7), and the endoscope 3 is removed (step S8) to complete the treatment.
  • the endoscope image G1 is acquired by the endoscope 3 (step S31), and at the center position of the acquired endoscope image G1.
  • the reference point O is set (step S32).
  • the ultrasonic tomographic image G2 of the liver C is acquired by the ultrasonic probe 5 (step S33), and each time the ultrasonic tomographic image G2 is acquired, the position detection unit 8 displays the screen of the ultrasonic probe 5 with respect to the reference point O.
  • the position information in the inside, that is, the distance yn in the y-axis direction of the scanning plane from the reference point O is calculated (step S34).
  • step S35 the distance yn from the reference point O in the xy coordinate system set by the control unit 9 in the endoscopic image G1 and the ultrasonic tomographic image G2 are stored in the storage unit 7 in association with each other (step S35) and stored. It is determined whether or not the operation is completed (step S36), the steps from step S31 are repeated when the storage operation is continued, and step S4 is executed when the storage operation is completed.
  • the endoscope image G1 is acquired by the endoscope 3 (step S61), and the acquired endoscope image G1 is processed by the position detection unit 8.
  • the position of the tip of the knife 6 is detected (step S62).
  • the control unit 9 reads out the ultrasonic tomographic image G2 corresponding to the tip position of the knife 6 from the storage unit 7 (step S63), and the image processing unit 10 reads the endoscopic image G1 and the ultrasonic tomographic image G2. It is related and displayed on the display unit 11 (step S64).
  • it is determined whether or not the treatment operation is completed step S65
  • the steps from step S61 are repeated when the treatment operation is continued, and step S7 is executed when the treatment operation is completed.
  • the image processing unit 10 generates a composite image in which the endoscopic image G1 and the ultrasonic tomographic image G2 are arranged in parallel, but instead of this, the endoscopic image G1 And the ultrasonic tomographic image G2 may be displayed on separate screens.
  • the image processing unit 10 receives the position information of the ultrasonic tomographic image G2 from the control unit 9, and as shown in FIG. 7, a straight line LA (instruction) indicating the scanning plane of the ultrasonic waves. Display) may be superimposed on the endoscopic image G1 to generate a composite image.
  • a straight line LA in which direction the ultrasonic tomographic image G2 displayed in parallel with the endoscopic image G1 is along with respect to the liver C displayed in the endoscopic image G1.
  • control unit 9 sets the Cartesian coordinate system xy with the center position of the endoscope image G1 as the reference point O, but instead of this, in an arbitrary direction intersecting the x direction.
  • the y coordinate may be set. This also makes it possible to uniquely associate the ultrasonic tomographic image G2 with the tip position of the knife 6.
  • the reference point O in the endoscope image G1 before and after the movement can be set. Can be matched.
  • the reference points O in the endoscope image G1 before and after the movement of the endoscope 3 may be matched. As a result, even if the field of view of the endoscope 3 when acquiring an ultrasonic tomographic image with the ultrasonic probe 5 and the field of view of the endoscope 3 when performing treatment with the knife 6 are different, the knife 6 The ultrasonic tomographic image corresponding to the position of can be read out.

Abstract

体腔内に挿入され、対象組織の表面の内視鏡画像を取得可能な内視鏡(3)と、体腔内に挿入され、対象組織の超音波断層像を取得可能な超音波プローブ(5)と、体腔内に挿入される処置具と、超音波プローブによって取得された超音波断層像を表示可能な表示装置(11)と、メモリおよびプロセッサを有し、内視鏡、超音波プローブおよび表示装置に接続された制御装置(20)とを備える外科手術システムであって、プロセッサは、体腔内に超音波プローブが挿入され超音波断層像が取得された際に、内視鏡画像に基づいて超音波プローブの位置を検出し、超音波断層像を超音波プローブの位置と対応づけてメモリに記憶し、体腔内に処置具が挿入されている状態において、内視鏡画像に基づいて処置具の位置を検出し、処置具の位置に基づいてメモリに記憶されている超音波断層像を読み出して表示装置に表示させる外科手術システム(1)である。

Description

外科手術システムおよび外科手術方法
 本発明は、外科手術システムおよび外科手術方法に関するものである。
 トロッカを経由して患者の体腔内に内視鏡および処置具を挿入して処置を行う内視鏡外科手術システムが知られている(例えば、特許文献1参照。)。
 一のトロッカを経由して腹腔鏡を挿入し、他のトロッカを経由して処置具を挿入し、体腔内の組織に処置を行う。
 この場合に、処置に先立って、組織の内部構造を把握するために、処置具に代えて超音波プローブを挿入し、処置を行う部位の超音波断層像を取得することが行われる。そして、超音波断層像により内部構造を確認した後には、超音波プローブに代えて処置具を挿入し、組織の切除等の処置が行われる。
特開平8-275958号公報
 しかしながら、処置を行いながら組織の内部構造を確認したい場合には、超音波プローブと処置具とを抜き差しすることにより、組織の内部構造の確認と処置とを繰り返す必要があり、効率よく処置を行うことができないという不都合がある。
 本発明は、処置具による処置の際に超音波プローブと処置具とを抜き差しすることなく、効率よく処置を行う場所の正確な内部構造を確認することができる外科手術システムおよび外科手術方法を提供することを目的としている。
 本発明の一態様は、体腔内に挿入され、対象組織の表面の内視鏡画像を取得可能な内視鏡と、前記体腔内に挿入され、前記対象組織の超音波断層像を取得可能な超音波プローブと、前記体腔内に挿入される処置具と、前記超音波プローブによって取得された前記超音波断層像を表示可能な表示装置と、メモリおよびプロセッサを有し、前記内視鏡、前記超音波プローブおよび前記表示装置に接続された制御装置とを備える外科手術システムであって、前記プロセッサは、前記体腔内に前記超音波プローブが挿入され、前記超音波断層像が取得された際に、前記内視鏡によって取得された前記内視鏡画像に基づいて前記超音波プローブの位置を検出し、前記超音波断層像を前記超音波プローブの位置と対応づけて前記メモリに記憶し、前記体腔内に前記処置具が挿入されている状態において、前記内視鏡によって取得された前記内視鏡画像に基づいて前記処置具の位置を検出し、検出された前記処置具の位置に基づいて前記メモリに記憶されている前記超音波断層像を読み出し、読み出した前記超音波断層像を前記表示装置に表示させる外科手術システムである。
 本発明の他の態様は、断層像記憶ステップと、処置ステップとを含み、前記断層像記憶ステップが、体腔内に内視鏡および超音波プローブを挿入して、対象組織の表面の内視鏡画像を取得しつつ、超音波プローブにより前記対象組織の複数の超音波断層像を取得し、取得された複数の前記超音波断層像と、各該超音波断層像を取得した際の前記内視鏡画像を処理して検出した前記超音波プローブの位置とを対応づけて記憶部に記憶し、前記処置ステップが、前記超音波プローブに代えて前記体腔内に処置具を挿入して、前記対象組織の表面の内視鏡画像を取得しつつ、前記処置具の位置を前記内視鏡画像を処理して検出し、検出された前記処置具の位置に基づいて、前記記憶部に記憶されている前記超音波断層像を読み出し、読み出された前記超音波断層像を表示する外科手術方法である。
 本発明の他の態様は、対象組織の表面の内視鏡画像を取得する内視鏡と、体腔内に挿入された超音波プローブにより取得された前記対象組織の複数の超音波断層像と、各該超音波断層像を取得した際の前記内視鏡画像を処理して検出した前記超音波プローブの位置とを対応づけて記憶する記憶部と、前記超音波プローブに代えて、前記体腔内に挿入された処置具の位置を前記内視鏡画像を処理して検出する位置検出部と、該位置検出部により検出された前記処置具の位置に基づいて、前記記憶部に記憶されている前記超音波断層像を読み出す断層像読み出し部と、該断層像読み出し部により読み出された前記超音波断層像を表示する表示部とを備える外科手術システムである。
 本態様によれば、体腔内に超音波プローブを挿入して取得された対象組織の複数の超音波断層像が、各超音波断層像を取得した際の内視鏡画像を処理して検出した超音波プローブの位置と対応付けて記憶部に記憶されている。そして、体腔内に挿入された処置具によって対象組織の処置を行う際に、位置検出部によって、内視鏡により取得された内視鏡画像を処理して検出した処置具の位置が検出される。
 そして、検出された処置具の位置に基づいて断層像読み出し部により記憶部に記憶されている超音波断層像が読み出され、表示部に表示される。これにより、体腔内において処置具を移動させると、処置具の位置に対応する位置の対象組織の超音波断層像が表示部に表示される。その結果、術者は処置具により処置を行う際に超音波プローブを使用しなくても、処置を行う場所の正確な内部構造を確認することができる。
 上記態様においては、前記超音波プローブの位置が、該超音波プローブによる超音波の走査平面に交差する方向の位置であってもよい。
 この構成により、超音波断層像を簡易に読み出し可能に記憶することができる。すなわち、超音波プローブを対象組織の表面に配置して作動させると、超音波の走査平面に沿う超音波断層像が取得される。超音波プローブを走査平面に交差する一方向に並進移動させることにより、並進移動方向に並ぶ複数の超音波断層像を取得することができる。したがって、超音波プローブの位置として超音波の走査平面に交差する方向の位置を超音波断層像に対応付けて記憶するだけで、超音波断層像の位置を簡易に特定することができる。
 また、上記態様においては、前記処置具の位置が、該処置具の先端の位置であってもよい。
 内視鏡を用いて体腔内の対象組織の表面を観察しながら、処置具を対象組織に近づけて処置を行う場合に、処置具の先端の位置に術者が最も注目するので、その位置の超音波断層像が読み出されることが最も都合よい。
 この構成により、対象組織の表面において処置具を移動させると処置具の先端の位置における超音波断層像が読み出されて表示されるので、処置を行おうとする部位の内部構造をより正確に確認することができる。
 また、上記態様においては、前記位置検出部が、前記内視鏡画像において基準点を設定し、該基準点からの距離を算出することによって前記超音波プローブの位置および前記処置具の位置を検出してもよい。
 この構成により、対象組織の処置に際して使用する内視鏡画像から処置具の位置を容易に検出することができる。
 また、上記態様においては、前記表示部が、前記内視鏡画像および前記超音波断層像を表示するとともに、該超音波断層像の位置を示す指示表示を前記内視鏡画像上に重畳して表示してもよい。
 この構成により、内視鏡画像上に重畳された指示表示により、表示されている超音波断層像が対象組織のどの位置の内部構造を示しているのかを一目で確認することができる。
 また、上記態様においては、前記指示表示が、前記超音波の走査平面に沿う直線であってもよい。
 この構成により、内視鏡画像上において、超音波断層像の位置を簡易かつ正確に表示することができる。
 また、本発明の他の態様は、断層像記憶ステップと、処置ステップとを含み、前記断層像記憶ステップが、体腔内に内視鏡および超音波プローブを挿入して、対象組織の表面の内視鏡画像を取得しつつ、超音波プローブにより前記対象組織の複数の超音波断層像を取得し、取得された複数の前記超音波断層像と、各該超音波断層像を取得した際の前記内視鏡画像を処理して検出した前記超音波プローブの位置とを対応づけて記憶部に記憶し、前記処置ステップが、前記超音波プローブに代えて前記体腔内に処置具を挿入して、前記対象組織の表面の内視鏡画像を取得しつつ、前記処置具の位置を前記内視鏡画像を処理して検出し、検出された前記処置具の位置に基づいて、前記記憶部に記憶されている前記超音波断層像を読み出し、読み出された前記超音波断層像を表示する外科手術方法である。
 本発明によれば、超音波プローブと処置具とを抜き差しすることなく、効率よく処置を行う場所の正確な内部構造を確認することができるという効果を奏する。
本発明の一実施形態に係る外科手術システムの適用例を示す模式図であり、超音波プローブが体腔内に挿入された状態を示す図である。 図1の外科手術システムを示すブロック図である。 図1の外科手術システムにおいて取得された内視鏡画像における超音波の走査平面の位置を説明する図である。 図1の超音波プローブに代えてナイフを体腔内に挿入した状態を示す模式図である。 図1の外科手術システムにおいて、ナイフにより処置を行う段階において表示される画像の一例を示す図である。 図5状態からナイフを移動させた状態において表示される画像の一例を示す図である。 図5の画像の他の例を示す図である。 本発明の一実施形態に係る外科手術方法を示すフローチャートである。 図8の記憶段階を説明するフローチャートである。 図8の処置段階を説明するフローチャートである。
 本発明の一実施形態に係る外科手術システム1および外科手術方法について、図面を参照して以下に説明する。
 本実施形態に係る外科手術システム1は、図1に示されるように、患者の体壁Bを貫通して配置される一のトロッカ2を経由して体腔内に内視鏡3を挿入し、内視鏡3によって肝臓(対象組織)Cの表面を観察しながら行う手術に適用される。
 この手術においては、他のトロッカ4を経由して体腔内に超音波プローブ5を挿入して、肝臓Cの表面を一方向(矢印の方向)に移動させながら肝臓Cの超音波断層像(図5参照)G2を取得することが行われる。
 また、この手術においては、超音波プローブ5による超音波断層像G2の取得が終了した後に、超音波プローブ5がトロッカ4から引き抜かれ、代わりに、例えば、肝臓Cの病変部を切除するためのナイフ(処置具)6が体腔内に挿入される。処置具としては、ナイフ6以外の任意の処置具を用いてもよい。
 本実施形態に係る外科手術システム1は、図1に示されるように、内視鏡3と、制御装置20と、表示装置(表示部)11とを備えている。制御装置20には、内視鏡3および超音波プローブ5が接続されている。
 制御装置20は、図2に示されるように、記憶部7と、位置検出部8と、制御部(断層像読み出し部)9と、画像処理部10とを備えている。
 記憶部7は、メモリ等の記憶装置である。位置検出部8、制御部9および画像処理部10はプロセッサ30により構成されている。また、表示部11はモニタである。
 記憶部7には、肝臓Cの表面に超音波プローブ5を配置したときの超音波プローブ5による超音波の走査平面の位置と、その時に取得された超音波断層像G2とが対応付けられて記憶される。
 超音波断層像G2を記憶部7に記憶する段階では、位置検出部8は、所定のフレームレートで内視鏡3により取得された内視鏡画像G1を処理することにより、内視鏡画像G1内の基準点Oの位置に対する距離として、超音波の走査平面の位置を逐次算出する。
 制御部9には、超音波断層像G2を取得する段階において、図2に破線で示すように、超音波プローブ5が接続可能である。そして、制御部9は、位置検出部8により検出された超音波の走査平面の位置と、そのときに取得された超音波断層像G2とを対応付けて記憶部7に記憶する。
 基準点Oは、例えば、図3に示されるように、内視鏡画像G1の中心位置に設定される。あるいは、内視鏡画像G1内の1つ以上の特徴点を抽出し、抽出された特徴点に対して定められる任意の位置を基準点Oとしてもよい。
 また、超音波の走査平面は、例えば、図3に示されるように、内視鏡画像G1内に存在している超音波プローブ5が一定の幅を有する棒状である場合、その幅方向の中央位置に長手方向に沿って延びる直線Lとして特定される。走査平面の位置は、基準点Oから直線Lまでの距離を算出すればよい。
 制御部9は、図3に示されるように、設定した基準点Oを原点として、上記直線Lに平行な方向にx軸、x軸に直交する方向にy軸を設定する。
 超音波プローブ5による超音波断層像G2の取得は、超音波プローブ5を幅方向、すなわち、図1に矢印で示されるように、超音波の走査平面に交差する方向に移動させる間に、所定のフレームレートにより逐次行われる。超音波断層像G2が取得される毎に、上記原点である基準点Oから走査平面のy軸方向の距離yn(y座標)が算出され、距離ynと超音波断層像G2とが対応付けて記憶部7に記憶される。
 図4に示されるように、超音波プローブ5に差し替えてナイフ6が体腔内に挿入され、肝臓Cに対して処置が行われる段階では、位置検出部8は、内視鏡画像G1を処理して、体腔内に挿入されたナイフ6の位置を検出する。具体的には、内視鏡3により取得された内視鏡画像G1において、内視鏡画像G1内のナイフ6の先端位置を抽出する。そして、図5に示されるように、図3において設定された座標系において、抽出されたナイフ6の先端位置のy座標ymをナイフ6の位置として検出する。
 そして、制御部9には、位置検出部8により検出されたナイフ6の位置、および内視鏡3により現在取得されている内視鏡画像G1が入力される。制御部9は、入力されたナイフ6の位置に対応して記憶されている超音波断層像G2を記憶部7から読み出す。具体的には、位置検出部8によって検出されたナイフ6の位置と同じ位置において超音波プローブ5が取得した超音波断層像G2を読み出す。
 また、制御部9は、図5に示されるように、読み出された超音波断層像G2を画像処理部10に送る。画像処理部10は、制御部9から送られてきた超音波断層像G2と、内視鏡3から入力されてきた現在の肝臓Cの表面の内視鏡画像G1とを並列させた合成画像を生成し、表示部11に送る。表示部11は送られてきた合成画像を表示する。
 このように構成された本実施形態に係る外科手術方法について以下に説明する。
 本実施形態に係る外科手術方法は、図8に示されるように、トロッカ2を経由して体腔内に内視鏡3を挿入し(ステップS1)、トロッカ4を経由して超音波プローブ5を体腔内に挿入する(ステップS2)。
 そして、内視鏡3により取得した内視鏡画像G1と超音波プローブ5により取得した超音波断層像G2とによって、位置検出部8により検出された超音波プローブ5の画面内における位置情報と超音波断層像G2とを対応付けて記憶部7に記憶し(断層像記憶ステップS3)、超音波プローブ5を体腔内から抜去する(ステップS4)。
 その後、肝臓Cの病変部を切開するためにトロッカ4を経由してナイフ6を体腔内に挿入し(ステップS5)、内視鏡画像G1と超音波断層像G2とを関連させて表示装置11に表示させ(処置ステップS6)、肝臓Cに対する処置を実行する。処置完了後、体腔内からナイフ6を抜去し(ステップS7)、内視鏡3を抜去して(ステップS8)処理を完了する。
 より詳細には、断層像記憶ステップS3においては、図9に示されるように、内視鏡3により内視鏡画像G1を取得し(ステップS31)、取得した内視鏡画像G1の中心位置に基準点Oを設定する(ステップS32)。
 そして、超音波プローブ5により肝臓Cの超音波断層像G2を取得し(ステップS33)、超音波断層像G2が取得される毎に、位置検出部8により基準点Oに対する超音波プローブ5の画面内における位置情報、すなわち基準点Oから走査平面のy軸方向の距離ynを算出する(ステップS34)。
 その後、内視鏡画像G1において制御部9により設定されたxy座標系における基準点Oからの距離ynと、超音波断層像G2とを対応付けて記憶部7に記憶し(ステップS35)、記憶動作が終了したか否かを判断し(ステップS36)、記憶動作を継続する場合にはステップS31からの工程を繰り返し、記憶動作を終了する場合にはステップS4を実行する。
 さらに、処置ステップS6においては、図10に示されるように、内視鏡3により内視鏡画像G1を取得し(ステップS61)、取得した内視鏡画像G1を位置検出部8により処理してナイフ6の先端位置を検出する(ステップS62)。そして、制御部9によりナイフ6の先端位置に対応する超音波断層像G2が記憶部7から読み出され(ステップS63)、画像処理部10により内視鏡画像G1と超音波断層像G2とを関連させて表示部11に表示する(ステップS64)。その後、処置動作が終了したか否かを判断し(ステップS65)、処置動作を継続する場合にはステップS61からの工程を繰り返し、処置動作を終了する場合にはステップS7を実行する。
 これにより、位置検出部8によるナイフ6の位置の検出が所定のサンプリング周期で逐次行われれば、図5および図6に示されるように、内視鏡画像G1上においてナイフ6が移動する都度にナイフ6の先端を通過する走査平面に沿う超音波断層像G2が表示部11に更新して表示される。したがって、ナイフ6によって切開を行う際に、超音波プローブ5を使用していなくても、切開を行う場所の正確な内部構造を迅速に確認することができるという利点がある。これにより、超音波プローブ5とナイフ6とを抜き差しして観察と処置とを交互に行う必要がなく、手間を省いて肝臓Cの切開を容易にかつ正確に行うことができる。
 なお、本実施形態においては、画像処理部10が内視鏡画像G1と超音波断層像G2とを並列に配置した合成画像を生成することとしたが、これに代えて、内視鏡画像G1と超音波断層像G2とは別々の画面に表示してもよい。
 また、本実施形態においては、画像処理部10が、制御部9から超音波断層像G2の位置の情報を受け取って、図7に示されるように、超音波の走査平面を示す直線LA(指示表示)を、内視鏡画像G1上に重畳した合成画像を生成してもよい。これにより、内視鏡画像G1に並列して表示されている超音波断層像G2が、内視鏡画像G1に表示されている肝臓Cに対してどの方向に沿っているのかを直線LAによって明確に視認することができるという利点がある。すなわち、超音波断層像G2において病変部が見つかった場合、その直線LAに沿って切開することにより病変部により正確に到達することができる。
 また、本実施形態においては、制御部9が、内視鏡画像G1の中心位置を基準点Oとする直交座標系xyを設定したが、これに代えて、x方向に交差する任意の方向にy座標を設定してもよい。これによっても、ナイフ6の先端位置に対して一義的に超音波断層像G2を対応付けることができる。
 また、内視鏡画像G1の特徴点に基づいて基準点Oを設定することにより、処置中に内視鏡3が移動した場合においても、移動の前後の内視鏡画像G1における基準点Oを一致させることができる。
 あるいは、内視鏡3の移動量を検出することにより、内視鏡3の移動の前後の内視鏡画像G1における基準点Oを一致させてもよい。
 これにより、超音波プローブ5により超音波断層像の取得を行う際の内視鏡3の視野と、ナイフ6により処置を行う際の内視鏡3の視野が異なる場合であっても、ナイフ6の位置に対応した超音波断層像を読み出すことができる。
 また、超音波プローブ5と処置具であるナイフ6とを同じトロッカ4を経由して抜き差しする場合の他、別々のトロッカ4を経由して両方挿入可能な場合に適用してもよい。この場合であっても、超音波プローブ5による超音波断層像G2の取得と処置具であるナイフ6による処置とを交互に行う必要がないという利点がある。
 1 外科手術システム
 3 内視鏡
 5 超音波プローブ
 6 ナイフ(処置具)
 7 記憶部
 8 位置検出部
 9 制御部(断層像読み出し部)
 11 表示装置(表示部)
 30 プロセッサ
 C 肝臓(対象組織)
 G1 内視鏡画像
 G2 超音波断層像
 O 基準点
 S3 断層像記憶ステップ
 S6 処置ステップ

Claims (16)

  1.  体腔内に挿入され、対象組織の表面の内視鏡画像を取得可能な内視鏡と、
     前記体腔内に挿入され、前記対象組織の超音波断層像を取得可能な超音波プローブと、
     前記体腔内に挿入される処置具と、
     前記超音波プローブによって取得された前記超音波断層像を表示可能な表示装置と、
     メモリおよびプロセッサを有し、前記内視鏡、前記超音波プローブおよび前記表示装置に接続された制御装置とを備える外科手術システムであって、
     前記プロセッサは、
     前記体腔内に前記超音波プローブが挿入され、前記超音波断層像が取得された際に、
     前記内視鏡によって取得された前記内視鏡画像に基づいて前記超音波プローブの位置を検出し、
     前記超音波断層像を前記超音波プローブの位置と対応づけて前記メモリに記憶し、
     前記体腔内に前記処置具が挿入されている状態において、前記内視鏡によって取得された前記内視鏡画像に基づいて前記処置具の位置を検出し、検出された前記処置具の位置に基づいて前記メモリに記憶されている前記超音波断層像を読み出し、読み出した前記超音波断層像を前記表示装置に表示させる外科手術システム。
  2.  前記プロセッサは、前記体腔内に前記超音波プローブが挿入され、前記超音波断層像が取得された際に、
     前記内視鏡によって取得された前記内視鏡画像に基づいて前記超音波プローブの超音波の走査平面に交差する方向の位置を検出する請求項1に記載の外科手術システム。
  3.  前記プロセッサは、前記内視鏡画像上に基準点を設定し、
     前記基準点と超音波の走査平面との距離から前記超音波プローブの位置を検出する請求項2に記載の外科手術システム。
  4.  前記プロセッサは、前記体腔内に前記処置具が挿入されている状態において、前記内視鏡によって取得された前記内視鏡画像に基づいて前記処置具の先端の位置を検出する請求項1に記載の外科手術システム。
  5.  前記プロセッサは、前記内視鏡画像上に基準点を設定し、
     前記基準点と前記処置具の先端との距離から前記処置具の位置を検出する請求項4に記載の外科手術システム。
  6.  前記プロセッサは、前記内視鏡画像上に基準点を設定し、該基準点と前記超音波プローブおよび前記処置具との距離を算出することによって前記超音波プローブおよび前記処置具の位置を検出する請求項1に記載の外科手術システム。
  7.  前記プロセッサは、前記内視鏡画像および前記超音波断層像を前記表示装置に表示させるとともに、前記表示装置に表示された前記超音波断層像を取得した際の前記超音波プローブの位置を示す指示表示を前記内視鏡画像上に重畳して表示させる請求項6に記載の外科手術システム。
  8.  前記プロセッサは、前記指示表示として、超音波の走査平面に沿う直線を前記表示装置に表示させる請求項7に記載の外科手術システム。
  9.  前記プロセッサは、検出された前記処置具の位置と同じ位置で前記超音波プローブによって取得された前記超音波断層像を前記メモリから読み出す請求項1に記載の外科手術システム。
  10.  断層像記憶ステップと、
     処置ステップとを含み、
     前記断層像記憶ステップが、体腔内に内視鏡および超音波プローブを挿入して、対象組織の表面の内視鏡画像を取得しつつ、超音波プローブにより前記対象組織の複数の超音波断層像を取得し、取得された複数の前記超音波断層像と、各該超音波断層像を取得した際の前記内視鏡画像を処理して検出した前記超音波プローブの位置とを対応づけて記憶部に記憶し、
     前記処置ステップが、前記超音波プローブに代えて前記体腔内に処置具を挿入して、前記対象組織の表面の前記内視鏡画像を取得しつつ、前記処置具の位置を前記内視鏡画像を処理して検出し、検出された前記処置具の位置に基づいて、前記記憶部に記憶されている前記超音波断層像を読み出し、読み出された前記超音波断層像を表示する外科手術方法。
  11.  対象組織の表面の内視鏡画像を取得する内視鏡と、
     体腔内に挿入された超音波プローブにより取得された前記対象組織の複数の超音波断層像と、各該超音波断層像を取得した際の前記内視鏡画像を処理して検出した前記超音波プローブの位置とを対応づけて記憶する記憶部と、
     前記体腔内に挿入された処置具の位置を前記内視鏡画像を処理して検出する位置検出部と、
     該位置検出部により検出された前記処置具の位置に基づいて、前記記憶部に記憶されている前記超音波断層像を読み出す断層像読み出し部と、
     該断層像読み出し部により読み出された前記超音波断層像を表示する表示部とを備える外科手術システム。
  12.  前記超音波プローブの位置が、該超音波プローブによる超音波の走査平面に交差する方向の位置である請求項11に記載の外科手術システム。
  13.  前記処置具の位置が、該処置具の先端の位置である請求項11に記載の外科手術システム。
  14.  前記位置検出部が、前記内視鏡画像において基準点を設定し、該基準点からの距離を算出することによって前記超音波プローブの位置および前記処置具の位置を検出する請求項11に記載の外科手術システム。
  15.  前記表示部が、前記内視鏡画像および前記超音波断層像を表示するとともに、該超音波断層像の位置を示す指示表示を前記内視鏡画像上に重畳して表示する請求項14に記載の外科手術システム。
  16.  前記指示表示が、超音波の走査平面に沿う直線である請求項15に記載の外科手術システム。
PCT/JP2020/008841 2020-03-03 2020-03-03 外科手術システムおよび外科手術方法 WO2021176550A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202080096162.3A CN115087384A (zh) 2020-03-03 2020-03-03 外科手术系统及外科手术方法
PCT/JP2020/008841 WO2021176550A1 (ja) 2020-03-03 2020-03-03 外科手術システムおよび外科手術方法
JP2022504805A JP7284868B2 (ja) 2020-03-03 2020-03-03 外科手術システム
US17/874,690 US20220370155A1 (en) 2020-03-03 2022-07-27 Surgical system and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/008841 WO2021176550A1 (ja) 2020-03-03 2020-03-03 外科手術システムおよび外科手術方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/874,690 Continuation US20220370155A1 (en) 2020-03-03 2022-07-27 Surgical system and information processing method

Publications (1)

Publication Number Publication Date
WO2021176550A1 true WO2021176550A1 (ja) 2021-09-10

Family

ID=77614490

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/008841 WO2021176550A1 (ja) 2020-03-03 2020-03-03 外科手術システムおよび外科手術方法

Country Status (4)

Country Link
US (1) US20220370155A1 (ja)
JP (1) JP7284868B2 (ja)
CN (1) CN115087384A (ja)
WO (1) WO2021176550A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008005923A (ja) * 2006-06-27 2008-01-17 Olympus Medical Systems Corp 医用ガイドシステム
JP2008220802A (ja) * 2007-03-15 2008-09-25 Hitachi Medical Corp 医用画像診断装置
JP2012235983A (ja) * 2011-05-13 2012-12-06 Olympus Medical Systems Corp 医療用画像表示システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008005923A (ja) * 2006-06-27 2008-01-17 Olympus Medical Systems Corp 医用ガイドシステム
JP2008220802A (ja) * 2007-03-15 2008-09-25 Hitachi Medical Corp 医用画像診断装置
JP2012235983A (ja) * 2011-05-13 2012-12-06 Olympus Medical Systems Corp 医療用画像表示システム

Also Published As

Publication number Publication date
US20220370155A1 (en) 2022-11-24
JPWO2021176550A1 (ja) 2021-09-10
CN115087384A (zh) 2022-09-20
JP7284868B2 (ja) 2023-05-31

Similar Documents

Publication Publication Date Title
JP4220780B2 (ja) 手術システム
JP4698966B2 (ja) 手技支援システム
KR101258912B1 (ko) 복강경의 초음파 로보트 수술 시스템
JP4875416B2 (ja) 医用ガイドシステム
JP5011060B2 (ja) 医療装置
JP2006218129A (ja) 手術支援システム
US20210186556A1 (en) Systems and methods for dynamic trajectory control
JP2008245839A (ja) 内視鏡装置の処置具位置制御装置
JP4835245B2 (ja) 循環器用画像診断装置
JP3850217B2 (ja) 気管支用内視鏡位置検出装置
JP2000189441A (ja) 医療技術的装置
KR20150113914A (ko) 의료용 화상 진단 장치
JP2020531099A (ja) 手術処置中に関心地点を空間的に場所特定する方法
EP3733047A1 (en) Surgical system, image processing device, and image processing method
WO2016014444A1 (en) System and method for laparoscopic nerve identification, nerve location marking, and nerve location recognition
WO2016185912A1 (ja) 画像処理装置および画像処理方法、並びに手術システム
JP2005021353A (ja) 手術支援装置
WO2021176550A1 (ja) 外科手術システムおよび外科手術方法
US20050234326A1 (en) Medical procedure support system and method
JP2006198031A (ja) 手術支援システム
CN111770716B (zh) 医疗系统和医疗系统的控制方法
JP2006218239A (ja) 手技支援システム
JP2003153876A (ja) 外科手術支援装置
EP3933481A1 (en) Medical observation system and method, and medical observation device
JP2023508213A (ja) 内部カメラを有するナビゲーショントロカール

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20923133

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022504805

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20923133

Country of ref document: EP

Kind code of ref document: A1