WO2021161708A1 - 手術用ロボット - Google Patents

手術用ロボット Download PDF

Info

Publication number
WO2021161708A1
WO2021161708A1 PCT/JP2021/000899 JP2021000899W WO2021161708A1 WO 2021161708 A1 WO2021161708 A1 WO 2021161708A1 JP 2021000899 W JP2021000899 W JP 2021000899W WO 2021161708 A1 WO2021161708 A1 WO 2021161708A1
Authority
WO
WIPO (PCT)
Prior art keywords
endoscope
display
tip
treatment tool
surgical robot
Prior art date
Application number
PCT/JP2021/000899
Other languages
English (en)
French (fr)
Inventor
雅夫 金澤
靖志 田中
Original Assignee
リバーフィールド株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by リバーフィールド株式会社 filed Critical リバーフィールド株式会社
Priority to EP21753547.5A priority Critical patent/EP4101409A4/en
Priority to CN202180014028.9A priority patent/CN115087412A/zh
Publication of WO2021161708A1 publication Critical patent/WO2021161708A1/ja
Priority to US17/884,993 priority patent/US20220378530A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00149Holding or positioning arrangements using articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/302Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Definitions

  • This disclosure relates to surgical robots used in endoscopic surgery.
  • Endoscopic surgery such as laparoscopic surgery is performed according to the following procedure.
  • a practitioner such as a doctor makes two or more small holes in the operated person and inserts a tubular trocar into each of the holes.
  • the trocar is also called a trocar.
  • the practitioner inserts an endoscope, forceps, an electric knife, etc. into each trocar, and performs surgery while looking at the images taken by the endoscope.
  • the forceps are tools for grasping and pulling organs and the like, and can be remotely controlled.
  • tools used for procedures such as forceps and electric scalpels performed during surgery are referred to as treatment tools.
  • the present disclosure discloses an example of a surgical robot that the practitioner can easily deal with even when the tip position of the treatment tool is out of the imaging range.
  • the surgical robot used for endoscopic surgery has, for example, at least one of the following constituent requirements.
  • the constituent requirements include a position information calculation unit that calculates information on the tip position of a treatment tool used for endoscopic surgery and information on the tip position of the endoscope, and a calculation result of the position information calculation unit. It is a first display unit that displays the relative positional relationship between the tip of the treatment tool and the tip of the endoscope, and a second display unit that displays an image taken by the endoscope.
  • the surgical robot may have the following configuration, for example.
  • the full circular protractor based on the position of the tip of the endoscope is displayed on the first display unit together with the above positional relationship. As a result, the practitioner can easily grasp the position of the tip of the treatment tool.
  • a symbol indicating the tip of the endoscope is displayed in the center of the display screen, and further, according to changes in the positional relationship, It is desirable that the display form of the symbol indicating the treatment tool or the display position of the symbol changes. As a result, the practitioner can easily grasp the position of the tip of the treatment tool.
  • the vertical direction of the display screen matches the vertical direction. As a result, the practitioner can easily grasp the position of the tip of the treatment tool.
  • the display angle of the camera icon with respect to the display screen changes according to the rotation angle of the endoscope.
  • At least one member or part described with a reference numeral is provided unless otherwise specified such as “one”. That is, if there is no notice such as "one", two or more of the members may be provided.
  • the surgical robots shown in the present disclosure include at least components such as members or parts described with reference numerals, and the illustrated structural parts.
  • Surgical robot configuration> This embodiment is an example of a surgical robot used for endoscopic surgery.
  • the surgical robot 1 includes a control device 5, an arm drive device 9, a first display unit 19, and a second display unit 25, as shown in FIG. 2, in addition to the robot arm 3 (see FIG. 1).
  • the robot arm 3 is an example of an arm device that holds the treatment tool 7.
  • the robot arm 3 is a link mechanism having a plurality of joints, and is composed of a link mechanism capable of changing the position of the pivot.
  • the pivot is a position that becomes a fixed point when the robot arm 3 operates, regardless of the state of the robot arm 3.
  • the treatment tool 7 is a tool used for treatment performed at the time of surgery such as forceps and electric scalpel.
  • the treatment tool 7 shown in FIG. 1 is forceps. At the tip of the forceps, a hand portion for gripping or pulling an organ or the like is provided.
  • the robot arm 3 is covered with a tubular drape 20.
  • the drape 20 is a flexible non-woven fabric covering member.
  • the endoscope 27 (see FIG. 2) is gripped by the second robot arm.
  • the treatment tool 7 and the endoscope 27 are collectively referred to as a surgical tool. That is, the surgical tool is a tool used for endoscopic surgery such as an endoscope, forceps, and an electric knife.
  • the arm drive device 9 is an example of a drive device that drives the robot arm 3.
  • the arm drive device 9 according to the present embodiment includes a plurality of electric motors, a pneumatic cylinder, and a pressure generator.
  • Each electric motor drives each joint.
  • the pneumatic cylinder exerts tension on the wire that drives the treatment tool 7 (eg, the hand portion of the forceps).
  • the pressure generator supplies compressed air to the pneumatic cylinder.
  • the second robot arm is driven by the second arm driving device.
  • the second arm drive device has the same configuration as the arm drive device 9.
  • the operation of the second arm drive device is controlled by the same method as that of the arm drive device 9.
  • the control device 5 includes a fixed point setting device 11, a drive control device 13, a first display processing unit 21A, a second display processing unit 21B, a third display processing unit 29, and a captured image processing unit 25A. Etc. at least.
  • the fixed point setting device 11 the position of the portion trocar 15 at the time of surgery (see FIG. 1) is inserted (hereinafter, also referred to as the incision position.) Recognizes the stores position in which the recognized as a pivot P 1.
  • fixed point setting a series of operations from recognition of the incision position by the fixed point setting device 11 to memory of the position and the like are referred to as fixed point setting.
  • the state in which the fixed point setting can be executed is called the fixed point setting mode.
  • the trocar 15 is a tubular member that is inserted into a hole incised by the operated person. That is, the surgical tool such as the treatment tool 7 endoscope 27 such as forceps is inserted into the body of the operated person through the trocar 15 inserted at the incision site.
  • the drive control unit 13 controls the operation of the arm driving device 9 by using the position of the pivot P 1. Specifically, the drive control device 13 receives a command signal output from the input operation device on the master side, and operates the arm drive device 9 according to the command signal.
  • the drive control device 13 portions corresponding to the pivot P 1 of the treatment tool 7 such that the immobile, actuates the arm driving device 9.
  • the input operation device on the master side is an example of an input device directly operated by a practitioner such as a doctor.
  • the operation of the second arm drive device is controlled by the second drive control device.
  • the second drive controller causes the incision to the endoscope 27 is inserted actuate the second robot arm as a pivot P 1.
  • the pivot is a fixed point set by the second fixed point setting device. Since the second fixed point setting device is the same as the fixed point setting device 11, detailed description of the second fixed point setting device is omitted in the present specification.
  • the surgical robot according to the present embodiment transmits a command signal to the second arm driving device by using the input operating device for the robot arm 3 (in other words, the arm driving device 9).
  • the surgical robot is provided with a changeover switch.
  • the changeover switch can switch between the case where the output destination of the command signal is the arm drive device 9 and the case where the output destination is the second arm drive device.
  • the changeover switch By operating the changeover switch, the practitioner switches between the case of operating the robot arm 3 and the case of operating the second robot arm.
  • the fixed point setting device 11 can exhibit a position recognition function and a storage function. Then, the fixed point setting device 11 stores a fixed point the position of the pivot P 1 by using the position recognition and memory functions.
  • the position recognition function is a function of recognizing the tip position of the treatment tool 7 held by the robot arm 3.
  • Storage function stores the recognized the tip position by a position recognition function as a pivot P 1.
  • the pivot P 1 stored by the storage function may be a position identified for example by the position recognition function.
  • the position recognized by the position recognition function is not limited to the tip position of the treatment tool 7.
  • the position recognized by the position recognition function may be, for example, an incision position which is a position of a site where the trocar 15 is inserted during surgery.
  • the position recognition function recognizes the tip position of the treatment tool 7 by acquiring or calculating the coordinates indicating the tip position of the treatment tool 7 from the posture of the robot arm 3.
  • Storage function stores the coordinates as a pivot P 1.
  • a surgical tool equivalent product When setting the fixed point, a surgical tool equivalent product may be used instead of the treatment tool 7.
  • the surgical tool equivalent is a member having the same shape as the treatment tool 7.
  • a rod-shaped or pipe-shaped member corresponds to a surgical tool equivalent product.
  • the endoscope 27 corresponds to a surgical instrument equivalent product.
  • the position recognition function and the storage function according to the present embodiment are realized by software, programs constituting the software, and a microcomputer.
  • the microcomputer has at least a CPU, ROM, RAM, and the like for executing the software.
  • the software is stored in advance in the non-volatile storage unit.
  • the surgical robot 1 has a setting button 17A, a freely displaceable button 17B, and the like.
  • the setting button 17A and the freely displaceable button 17B are provided on at least one of the robot arm 3 and the control device 5.
  • the robot arm 3 corresponds to an example of a slave device
  • the control device 5 corresponds to an example of a master side device.
  • the setting button 17A is an example of a setting operation unit operated by the user.
  • the user is a person who performs the work of setting the fixed point. Specifically, it is a practitioner or a person who assists surgery. Then, when the setting button 17A is operated, the fixed point setting mode starts or ends.
  • the fixed point setting mode is started.
  • the fixed point setting mode ends.
  • the fixed point setting mode is started.
  • the position recognition function can be executed.
  • the setting button 17A is pressed for less than a predetermined time (for example, 2 seconds)
  • the position recognition function is executed and then the storage function is executed.
  • the pivot P 1 is stored as a fixed point, the fixed point setting mode ends.
  • the freely displaceable button 17B is an example of an operation unit operated by the user.
  • the arm drive device 9 is put into the freely displaceable mode.
  • the free displacement mode is a mode in which the robot arm 3 can be freely displaced according to an external force acting on the robot arm 3.
  • the user can freely displace the robot arm 3 by pushing and pulling the robot arm 3. That is, in the free displacement mode, the user can align the tip of the treatment tool 7 with the incision position by pushing and pulling the robot arm 3 without operating the input operation device on the master side.
  • the free displacement mode ends when "the free displacement button 17B is operated in the free displacement mode" or "when the fixed point setting mode ends".
  • the robot arm 3 is not displaced even if an external force acts on the robot arm 3.
  • FIG. 3 shows a control example of the control device 5 executed in the fixed point setting mode.
  • the control device 5 determines whether or not the setting button 17A is continuously pressed for a predetermined time (for example, 3 seconds) (S1).
  • a predetermined time for example, 3 seconds
  • S1 a predetermined time
  • control device 5 determines whether or not the arm drive device 9 is in the free displacement mode (S1: YES). S3).
  • the control device 5 determines that the arm drive device 9 is not in the free displacement mode (S3: NO)
  • the control device 5 uses a notification means such as a voice (for example, a buzzer) or a warning light to notify the user.
  • a notification means such as a voice (for example, a buzzer) or a warning light to notify the user.
  • the operation of the freely displaceable button 17B is prompted (S5).
  • control device 5 determines that the arm drive device 9 is in the free displacement mode (S3: YES), whether or not the setting button 17A is pressed for less than a predetermined time (for example, 2 seconds). Is determined (S7).
  • control device 5 determines that the setting button 17A has been pressed for less than a predetermined time (S7: YES)
  • the control device 5 executes the position recognition function (S9) and then executes the storage function (S11).
  • the position recognition function and the storage function are substantially inoperable.
  • control device 5 stores the pivot P 1 as a fixed point, then terminates the fixed point setting mode and the free displacement mode, and notifies the user that the pivot P 1 is stored as a fixed point.
  • the first display unit 19 and the second display unit 25 shown in FIG. 2 are monitors that transmit information such as character information and image information to the user.
  • Information about the surgical robot 1 (hereinafter, referred to as state information) and the like are displayed on the first display unit 19.
  • An image taken by the endoscope 27 is displayed on the second display unit 25.
  • the endoscope 27 is composed of a camera such as a stereo camera capable of three-dimensionally photographing an object.
  • the captured image processing unit 25A is a processing unit for displaying a three-dimensional image on the second display unit 25.
  • the first display processing unit 21A and the second display processing unit 21B cause the first display unit 19 to display information.
  • the first display processing unit 21A is dissected position, i.e. to display the relative positional relationship between the tip position of the pivot P 1 and the treatment tool 7 on the first display unit 19.
  • the first display processing unit 21A causes the display unit 19 to display the relative positional relationship with image information such as a symbol (for example, an icon).
  • image information such as a symbol (for example, an icon).
  • Each icon is a symbol indicating each end position of the pivot P 1 and the treatment instrument 7.
  • FIG. 4A shows a case where the tip position St of the treatment tool 7 is positioned within the body relative to the pivot P 1.
  • 4B shows a case where the tip position St of the instrument 7 is located outside the body relative to the pivot P 1.
  • FIG. 4C shows a state in which the fixed point setting has not yet been made.
  • the second display processing unit 21B causes the first display unit 19 to display the detection result of the drape detection unit 23 (see FIG. 2).
  • the drape detection unit 23 detects whether or not the drape 20 is attached to the robot arm 3.
  • the drape detection unit 23 is provided on the robot arm 3.
  • the second display processing unit 21B causes the display unit 19 to display information to that effect (see, for example, FIG. 5A).
  • the second display processing unit 21B causes the display unit 19 to display information to that effect (see, for example, FIG. 5B).
  • the third display processing unit 29 causes the first display unit 19 to display the relative positional relationship between the tip position of the treatment tool 7 and the tip position of the endoscope 27. That is, the third display processing unit 29 can exert at least three functions.
  • the first function is a function of acquiring information regarding the tip position of the treatment tool 7.
  • the second function is a position information calculation function for calculating information regarding the tip position of the endoscope 27.
  • the third function is a function of displaying information on the tip position of the treatment tool 7 and information on the tip position of the endoscope 27 on the first display unit 19.
  • the third display processing unit 29 realizes the first function and the second function by utilizing the above-mentioned position recognition function.
  • the third display processing unit 29 displays the relative positional relationship between the tip of the treatment tool 7 and the tip of the endoscope 27 by using the calculation result of the position information calculation function.
  • the first display unit 19 has a symbol (for example, an icon) 29B showing the tip of the treatment tool 7 and a symbol (for example, an icon) showing the tip of the endoscope 27.
  • At least 29A is displayed.
  • the full circle protractor 29C based on the position of the tip of the endoscope 27 is displayed together with the two types of icons 29A and 29B.
  • the full circle protractor 29C is displayed in a state where the center of the full circle protractor 29C coincides with the center of the display screen of the first display unit 19.
  • the center of the display screen of the first display unit 19 means the center of the physical display screen when only the second state information is displayed on the first display unit 19, and the first display unit 19 has a second display screen.
  • other information for example, the first state information
  • it means the center of the display area of the second state information.
  • the center of the display area of the second state information coincides with the center of the physical display screen. Therefore, even when a plurality of types of state information are displayed, the center of the full-circle protractor 29C coincides with the center of the physical display screen.
  • the icon (hereinafter, the camera icon) 29A indicating the tip of the endoscope 27 is displayed in the center of the display screen.
  • the display form of the icon 29B indicating the treatment tool 7 or the display position of the Eincon 29B changes according to a change in the relative positional relationship between the tip position of the treatment tool 7 and the tip position of the endoscope 27.
  • the display form of the icon 29B is, for example, a specific design of the icon 29B, that is, a shape, a pattern, a color of the icon 29B or a combination thereof, or a method of displaying the specific design (for example, blinking display and constant lighting). Display) etc.
  • the vertical direction of the display screen or display area coincides with the vertical direction.
  • the display angle of the camera icon 29A with respect to the display screen changes according to the rotation angle of the endoscope 27. That is, when the endoscope 27 rotates, the camera icon 29A also rotates in conjunction with the rotation of the endoscope 27.
  • the center position of the camera icon 29A always coincides with the center of the display screen (in other words, the center of the full circular protractor 29C) regardless of the physical position of the endoscope 27.
  • a monitor for displaying state information and a monitor for displaying an image taken by the endoscope 27 are separately provided. This makes it easier for the practitioner to perform surgery.
  • the monitor on which the status information is displayed corresponds to an example of the configuration as the first display unit 19, and the monitor displaying the image taken by the endoscope 27 corresponds to an example of the configuration as the second display unit 25. do.
  • the status information is also displayed on the second display unit 25, the display of the status information is a part of the captured image. It makes it difficult for the practitioner to perform surgery because it hides the image.
  • the full circular protractor 29C based on the position of the tip of the endoscope 27 is displayed on the first display unit 19 together with the positional relationship between the two types of icons 29A and 29B.
  • the practitioner can easily grasp the position of the tip of the treatment tool 7.
  • the icon 29A indicating the tip of the endoscope 27 is displayed at the center of the display screen.
  • the display form of the icon 29B indicating the treatment tool 7 or the display position of the icon 29B changes according to the change in the positional relationship. As a result, the practitioner can easily grasp the position of the tip of the treatment tool 7.
  • the vertical direction of the display screen coincides with the vertical direction.
  • the first display unit 19 displays the relative positional relationship between the portion where the trocar 15 is inserted and the tip position of the treatment tool 7 at the time of surgery. As a result, the practitioner can confirm "whether or not the treatment tool 7 is moving so that the portion of the treatment tool 7 corresponding to the incision portion is immobile".
  • the surgical robot 1 it is easy for the practitioner to determine whether or not the surgical robot 1 "recognizes the site where the trocar 15 is inserted as an immovable point", that is, whether or not the surgical robot 1 is in a state where the operation can be performed. And it can be recognized reliably.
  • the first display processing unit 21A uses the position stored in the fixed point setting device 11 as a portion into which the trocar 15 is inserted. As a result, the practitioner can easily and surely recognize whether or not the fixed point setting device 11 stores the incision position as the fixed point.
  • the detection result of the drape detection unit 23 is displayed on the first display unit 19.
  • the practitioner can easily and surely recognize whether or not the operation by the surgical robot 1 is in a feasible state.
  • the position of the portion trocar 15 is inserted at the time of surgery, that recognizes the incision position, stores the position the recognition as a pivot P 1.
  • the surgical robot 1 it may be possible to easily carry out the positioning operation between the position and the incision of the pivot P 1.
  • the arm drive device 9 can execute the free displacement mode.
  • the user can execute the position recognition function and the memory function after aligning the tip of the treatment tool 7 with the incised portion. Therefore, the alignment work between the position and the incision of the pivot P 1 may be made with certainty.
  • a robot arm 3 for holding the treatment tool 7 and a second robot arm for holding the endoscope 27 are provided.
  • the present disclosure is not limited to the configuration in which the second robot arm is provided.
  • the present disclosure is, for example, a configuration in which the second robot arm is abolished and the endoscope 27 is held by an assistant, or a configuration including a plurality of robot arms 3 holding a plurality of treatment tools 7. May be good.
  • the full circular protractor 29C based on the position of the tip of the endoscope 27 is displayed on the first display unit 19.
  • the present disclosure is not limited to the configuration in which the full circle protractor 29C is displayed on the first display unit 19. That is, the present disclosure may be configured such that the full circle protractor 29C is not displayed, for example.
  • the vertical direction of the display screen coincides with the vertical direction
  • the display form of the icon 29B indicating the treatment tool 7 or the display position of the icon 29B changes according to the change in the positional relationship.
  • the present disclosure has a configuration in which the vertical direction of the display screen coincides with the vertical direction, and the display form of the icon 29B indicating the treatment tool 7 or the display position of the icon 29B changes according to the change in the positional relationship. Not limited to.
  • the robot arm 3 according to the above-described embodiment was configured by a link mechanism capable of changing the position of the pivot.
  • the present disclosure is not limited to the robot arm 3 having a link mechanism capable of changing the position of the pivot. That is, the present disclosure may be, for example, a configuration in which the pivot (also referred to as a fixed point) is immovable with respect to the robot body, in other words, a configuration that cannot be changed.
  • the second display processing unit 21B is provided.
  • the present disclosure is not limited to those provided with the second display processing unit 21B. That is, the present disclosure may be, for example, a configuration in which the second display processing unit 21B is abolished.
  • the control device 5 when the arm driving device 9 is not in the free displacement mode (S7: NO), the control device 5 is in a state in which the position recognition function and the storage function cannot be executed.
  • the present disclosure is not limited to the control device 5 in which the position recognition function and the storage function cannot be executed when the arm drive device 9 is not in the free displacement mode.
  • the present disclosure may be configured so that the position recognition function and the storage function can be executed even when the free displacement mode is not set.
  • the tip of the treatment tool 7 may be aligned with the incision position by using the input operation device on the master side.
  • the fixed point setting device 11 acquires the coordinates indicating the tip position of the treatment tool 7 from the posture of the robot arm 3 and recognizes the tip position.
  • the present disclosure is not limited to the device in which the fixed point setting device 11 acquires the coordinates indicating the tip position of the treatment tool 7 from the posture of the robot arm 3 and recognizes the tip position. That is, the present disclosure may be configured to recognize the tip position by an image analysis technique using, for example, a 3D camera such as a stereo camera or a depth camera.
  • the user recognizes the incision position by recognizing the tip of the treatment tool 7 or the surgical tool equivalent product in a state where the tip is aligned with the incision position.
  • the present disclosure is not limited to the configuration in which the user recognizes the incision position by recognizing the tip of the treatment tool 7 or the surgical tool equivalent product in a state where the tip is aligned with the incision position. That is, the present disclosure may be configured such that, for example, the incision position is irradiated with a laser beam and the irradiation position is recognized by an image analysis technique.
  • the mode shifts to the freely displaceable mode.
  • the present disclosure is not limited to the configuration in which the freely displaceable button 17B shifts to the freely displaceable mode when the button 17B is operated. That is, the present disclosure may be configured to automatically shift to the free displacement mode at the same time as shifting to the fixed point setting mode, for example.
  • the present disclosure is not limited to the above-described embodiment as long as it conforms to the purpose of the disclosure described in the above-described embodiment. Therefore, either the configuration in which at least two embodiments of the plurality of embodiments described above are combined, or the configuration requirements shown in the illustration or the configuration requirements described with reference numerals in the above-described embodiment are abolished. It may be a configured configuration.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Robotics (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Manipulator (AREA)
  • Endoscopes (AREA)
  • Surgical Instruments (AREA)

Abstract

処置具の先端位置が撮影範囲から外れた場合であっても、施術者が容易に対処可能とすべく、内視鏡下外科手術に用いられる手術用ロボット(1)において、内視鏡下外科手術に用いられる処置具(7)の先端位置に関する情報、及び内視鏡の先端位置に関する情報を算出する位置情報算出部と、前記位置情報算出部の算出結果を利用して処置具の先端と内視鏡の先端との相対的な位置関係を表示する第1表示部(19)と、内視鏡により撮影された画像を表示する第2表示部(27)と、を備えるように構成した。

Description

手術用ロボット 関連出願の相互参照
 本国際出願は、2020年2月12日に日本国特許庁に出願された日本国特許出願第2020-021630号に基づく優先権を主張するものであり、日本国特許出願第2020-021630号の全内容を本国際出願に参照により援用する。
 本開示は、内視鏡下外科手術に用いられる手術用ロボットに関する。
 腹腔鏡手術等の内視鏡下外科手術は、次のような手順で施術される。
 すなわち、医師などの施術者は、被手術者に対して2つ以上の小さな穴を切開し、当該穴それぞれに筒状のトロッカーを挿入する。なお、トロッカーはトラカールとも称される。
 次に、施術者は、各トロッカーに内視鏡及び鉗子や電気メス等を挿入し、内視鏡で撮影された画像を見ながら手術を行う。なお、鉗子は、臓器等を把持したり牽引したりする道具であって、遠隔操作可能である。以下、鉗子及び電気メス等の手術時に行われる処置に用いられる道具を処置具という。
特許第4999012号公報
 内視鏡下外科手術では、医師などの施術者は、内視鏡で撮影された画像を見ながら手術を行うので、処置具の先端位置が撮影範囲から外れると、施術者が処置具を見失ってしまい、手術が滞ってしまう。
 本開示は、上記点に鑑み、処置具の先端位置が撮影範囲から外れた場合であっても、施術者が容易に対処可能な手術用ロボットの一例を開示する。
 内視鏡下外科手術に用いられる手術用ロボットは、例えば、以下の構成要件のうち少なくとも1つを備えることが望ましい。
 すなわち、当該構成要件は、内視鏡下外科手術に用いられる処置具の先端位置に関する情報、及び内視鏡の先端位置に関する情報を算出する位置情報算出部と、位置情報算出部の算出結果を利用して処置具の先端と内視鏡の先端との相対的な位置関係を表示する第1表示部と、内視鏡により撮影された画像を表示する第2表示部とである。
 これにより、当該手術用ロボットでは、処置具の先端位置が撮影範囲から外れた場合であっても、施術者が容易に対処可能となり得る。
 なお、当該手術用ロボットは、例えば、以下の構成であってもよい。
 すなわち、内視鏡の先端部の位置を基準とした全円分度器が、上記位置関係と共に第1表示部に表示されることが望ましい。これにより、施術者は容易に処置具の先端位置を把握でき得る。
 全円分度器の中心が第1表示部の表示画面の中心と一致した状態で、当該表示画面の中心に内視鏡の先端部を示す図柄が表示され、さらに、位置関係の変化に応じて、処置具を示す図柄の表示形態又は当該図柄の表示位置が変化することが望ましい。これにより、施術者は容易に処置具の先端位置を把握でき得る。
 表示画面の上下方向は、鉛直方向と一致していることが望ましい。これにより、施術者は容易に処置具の先端位置を把握でき得る。
 内視鏡の先端部を示す図柄をカメラアイコンとしたとき、表示画面に対するカメラアイコンの表示角度は、当該内視鏡の回転角度に応じて変化することが望ましい。
第1実施形態に係る手術用ロボットの外観図である。 第1実施形態に係る手術用ロボットのブロック図である。 第1実施形態に係る手術用ロボットの不動点設定モードの制御を示すフローチャートである。 図4A、図4B、図4Cは、第1の状態表示の表示例を示す図である。 図5A、図5Bは、第1の状態表示の表示例を示す図である。 第2の状態表示の表示例である。
 1…手術用ロボット、3…ロボットアーム、5…制御装置、7…処置具、9…アーム駆動装置、11…不動点設定装置、13…駆動制御装置、15…トロッカー、17A…設定ボタン、17B…自在変位可能ボタン、19…第1表示部、20…ドレープ、21A…第1表示処理部、21B…第2表示処理部、23…ドレープ検出部、25…第2表示部、25A…撮影画像処理部、27…内視鏡、29…第3表示処理部。
 以下、実施形態の一例を示す。
 なお、各図に付された方向を示す矢印及び斜線等は、各図相互の関係及び各部材又は部位の形状を理解し易くするために記載されている。したがって、本開示に示された手術用ロボット等の構成は、各図に付された方向に限定されない。斜線が付された図は、必ずしも断面図を示すものではない。
 少なくとも符号が付されて説明された部材又は部位は、「1つの」等の断りがされた場合を除き、少なくとも1つ設けられている。つまり、「1つの」等の断りがない場合には、当該部材は2以上設けられていてもよい。本開示に示された手術用ロボットは、少なくとも符号が付されて説明された部材又は部位等の構成要素、並びに図示された構造部位を備える。
 (第1実施形態)
 <1.手術用ロボットの構成>
 本実施形態は、内視鏡下外科手術に用いられる手術用ロボットの一例である。
 手術用ロボット1は、ロボットアーム3(図1参照)に加えて、図2に示されるように、制御装置5、アーム駆動装置9、第1表示部19及び第2表示部25を備える。
 <ロボットアーム>
 ロボットアーム3は、図1に示されるように、処置具7を保持するアーム装置の一例である。具体的には、ロボットアーム3は、複数の関節を有するリンク機構であって、ピボットの位置を変更可能なリンク機構にて構成されている。
 ピボットは、ロボットアーム3が稼働した際に、ロボットアーム3の状態によらず、不動点となる位置である。処置具7は、鉗子及び電気メス等の手術時に行われる処置に用いられる道具である。
 図1に示された処置具7は、鉗子である。当該鉗子の先端には、臓器等を把持したり牽引したりするためのハンド部が設けられている。ロボットアーム3は、管状のドレープ20により覆われている。ドレープ20は、可撓性を有する不織布状の覆い部材である。
 なお、内視鏡27(図2参照)は、第2のロボットアームにより把持されている。以下、処置具7及び内視鏡27を総称して術具という。つまり、術具とは、内視鏡、鉗子及び電気メス等の内視鏡下外科手術に用いられる道具である。
 <アーム駆動装置>
 アーム駆動装置9は、ロボットアーム3を駆動する駆動装置の一例である。本実施形態に係るアーム駆動装置9は、複数の電動モータ、空気圧シリンダー、及び圧力発生装置を有する。
 各電動モータは、各関節部を駆動する。空気圧シリンダーは、処置具7(例えば、鉗子のハンド部)を駆動するワイヤーに張力を作用させる。圧力発生装置は、当該空気圧シリンダーに圧搾空気を供給する。
 なお、第2のロボットアームは、第2のアーム駆動装置により駆動される。第2のアーム駆動装置は、アーム駆動装置9と同一な構成である。当該第2のアーム駆動装置の作動は、アーム駆動装置9と同様な手法により制御される。
 <制御装置>
 制御装置5は、図2に示されるように、不動点設定装置11、駆動制御装置13、第1表示処理部21A、第2表示処理部21B、第3表示処理部29及び撮影画像処理部25A等を少なくとも有する。
 不動点設定装置11は、手術時にトロッカー15(図1参照)が挿入される部位の位置(以下、切開位置ともいう。)を認識するとともに、当該認識した位置をピボットPとして記憶する。
 以下、不動点設定装置11による切開位置の認識から当該位置の記憶等に至る一連の作動を不動点設定という。不動点設定が実行可能な状態を不動点設定モードという。
 トロッカー15は、被手術者に切開された穴に挿入される筒状の部材である。つまり、鉗子などの処置具7内視鏡27等の術具は、切開箇所に挿入されたトロッカー15を通して被手術者の身体内に挿入される。
 <駆動制御装置>
 図2に示すように、駆動制御装置13は、ピボットPの位置を利用してアーム駆動装置9の作動を制御する。具体的には、駆動制御装置13は、マスター側の入力操作装置から出力される指令信号を受信し、指令信号に従ってアーム駆動装置9を作動させる。
 このとき、駆動制御装置13は、処置具7のうちピボットPに対応する部位が不動となるように、アーム駆動装置9を作動させる。マスター側の入力操作装置とは、医師などの施術者が直接的に操作する入力デバイスの一例である。
 なお、第2のアーム駆動装置の作動は、第2の駆動制御装置により制御される。第2の駆動制御装置は、内視鏡27が挿入される切開箇所をピボットPとして第2のロボットアームを作動させる。
 当該ピボットは、第2の不動点設定装置により設定された不動点である。第2の不動点設定装置は、不動点設定装置11と同一であるので、本明細書では、第2の不動点設定装置の詳細説明は省略されている。
 因みに、本実施形態に係る手術用ロボットは、ロボットアーム3(言い換えると、アーム駆動装置9)用の入力操作装置を利用して第2のアーム駆動装置に指令信号を送信する。具体的には、手術用ロボットには、切替スイッチが設けられている。
 切替スイッチは、上記指令信号の出力先をアーム駆動装置9とする場合と第2のアーム駆動装置とする場合とを切り替えることができる。施術者は、当該切替スイッチを操作することにより、ロボットアーム3を作動させる場合と第2のロボットアームを作動させる場合とを切り替える。
 <2.不動点設定装置の詳細>
 本実施形態に係る不動点設定装置11は、位置認識機能及び記憶機能を発揮可能である。そして、不動点設定装置11は、位置認識機能及び記憶機能を利用してピボットPの位置を不動点として記憶する。
 位置認識機能は、ロボットアーム3により保持された処置具7の先端位置を認識する機能である。記憶機能は、位置認識機能により認識された当該先端位置をピボットPとして記憶する。なお、記憶機能により記憶されるピボットPは、例えば位置認識機能により認識された位置であればよい。また、位置認識機能により認識される位置は、処置具7の先端位置に限定されない。位置認識機能により認識される位置は、例えば、手術時にトロッカー15が挿入される部位の位置である切開位置であってもよい。
 本実施形態に係る位置認識機能は、ロボットアーム3の姿勢から処置具7の先端位置を示す座標等を取得、あるいは演算することにより、処置具7の先端位置を認識する。記憶機能は、当該座標をピボットPとして記憶する。
 なお、不動点設定を行う際には、処置具7に代えて術具相当品を用いてもよい。術具相当品とは、処置具7と同様な形状の部材である。具体的には、例えば、棒状又はパイプ状の部材等が術具相当品に該当する。因みに、第2の不動点設定装置の場合は、内視鏡27が術具相当品に該当する。
 本実施形態に係る位置認識機能及び記憶機能は、ソフトウェア、ソフトウェアを構成するプログラム及びマイクロコンピュータにより実現されている。マイクロコンピュータは、当該ソフトウェアを実行するためのCPU、ROM及びRAM等を少なくとも有する。なお、当該ソフトウェアは、不揮発性記憶部に予め記憶されている。
 手術用ロボット1は、図2に示されるように、設定ボタン17A及び自在変位可能ボタン17B等を有している。設定ボタン17A及び自在変位可能ボタン17Bは、ロボットアーム3及び制御装置5のうち少なくとも一方に設けられている。なお、ロボットアーム3がスレーブ装置の一例に相当し、制御装置5がマスター側装置の一例に相当する。
 設定ボタン17Aは、利用者により操作される設定操作部の一例である。なお、利用者とは、不動点設定の作業を行う者である。具体的には、施術者又は手術の補助を行う者である。そして、設定ボタン17Aが操作されると、不動点設定モードが開始又は終了する。
 つまり、不動点設定モード時ではないときに設定ボタン17Aが操作されると、不動点設定モードが開始される。不動点設定モード時に設定ボタン17Aが操作されると、不動点設定モードが終了する。
 具体的には、設定ボタン17Aが予め決められた時間(例えば、3秒)を越えて押下された場合には、不動点設定モード開始される。不動点設定モードが開始されると、位置認識機能が実行可能な状態となる。
 そして、設定ボタン17Aが予め決められた時間(例えば、2秒)未満だけ押下された時に、位置認識機能が実行された後、記憶機能が実行される。その後、ピボットPが不動点として記憶された後、不動点設定モードが終了する。
 自在変位可能ボタン17Bは、利用者により操作される操作部の一例である。自在変位可能ボタン17Bが操作されると、アーム駆動装置9は自在変位モード状態となる。自在変位モードは、ロボットアーム3に作用する外力に応じて当該ロボットアーム3が自在変位可能となるモードである。
 このため、自在変位モード時においては、利用者は、ロボットアーム3を押し引きすることにより、当該ロボットアーム3を自在に変位させることができる。つまり、自在変位モード時においては、利用者は、マスター側の入力操作装置を操作することなく、ロボットアーム3を押し引きすることにより、処置具7の先端を切開位置に合致させることができる。
 なお、自在変位モードは、「自在変位モード時に自在変位可能ボタン17Bが操作された時」、又は「不動点設定モードが終了した時」に終了する。自在変位モードが実行されていない状態では、ロボットアーム3に外力が作用しても当該ロボットアーム3は変位しない。
 <不動点設定モード時の制御>
 図3は、不動点設定モード時に実行される制御装置5の制御例を示している。制御装置5は、設定ボタン17Aが予め決められた時間(例えば、3秒)を越えて連続押下されたか否かを判断する(S1)。なお、「(S1)」等は、図3に示された制御ステップ番号を示す。
 制御装置5は、設定ボタン17Aが予め決められた時間を越えて連続押下されたと判断した場合には(S1:YES)、アーム駆動装置9が自在変位モードになっているか否かを判断する(S3)。
 制御装置5は、アーム駆動装置9が自在変位モードになっていないと判断した場合には(S3:NO)、音声(例えば、ブザー)又は警告灯等の報知手段を用いて利用者に対して自在変位可能ボタン17Bの操作を促す(S5)。
 制御装置5は、アーム駆動装置9が自在変位モードになっていると判断した場合には(S3:YES)、設定ボタン17Aが予め決められた時間(例えば、2秒)未満だけ押下されたか否かを判断する(S7)。
 制御装置5は、設定ボタン17Aが予め決められた時間未満だけ押下されたと判断した場合には(S7:YES)、位置認識機能を実行した後(S9)、記憶機能を実行する(S11)。
 つまり、本実施形態では、アーム駆動装置9が自在変位モードになっていない場合には(S3:NO)、位置認識機能及び記憶機能は、実質的に作動不可な状態となる。
 そして、制御装置5は、ピボットPを不動点として記憶した後、不動点設定モード及び自在変位モードを終了させるとともに、ピボットPが不動点として記憶された旨を利用者に報知する。
 <3.情報の報知>
 図2に示された第1表示部19及び第2表示部25は、文字情報や画像情報等の情報を利用者に伝達するモニターである。第1表示部19には、手術用ロボット1に関する情報(以下、状態情報という。)などが表示される。第2表示部25には、内視鏡27により撮影された画像が表示される。
 なお、本実施形態に係る内視鏡27は、ステレオカメラ等の三次元的に対象物を撮影可能なカメラにて構成されている。撮影画像処理部25Aは、第2表示部25に立体的な画像を表示するための処理部である。
 <第1の状態情報の表示>
 第1表示処理部21A及び第2表示処理部21Bは、第1表示部19に情報を表示させる。第1表示処理部21Aは、切開位置、つまりピボットPと処置具7の先端位置との相対位置関係を第1表示部19に表示させる。
 本実施形態に係る第1表示処理部21Aは、図柄(例えば、アイコン)等の画像情報にて当該相対位置関係を表示部19に表示させる。なお、各アイコンは、ピボットP及び処置具7の先端位置それぞれを示す図柄である。
 すなわち、例えば、図4Aは、ピボットPに対して処置具7の先端位置Stが体内に位置している場合を示す。図4Bは、ピボットPに対して処置具7の先端位置Stが体外に位置している場合を示す。図4Cは、不動点設定が未だされていない状態を示す。
 第2表示処理部21Bは、ドレープ検出部23(図2参照)の検出結果を第1表示部19に表示させる。ドレープ検出部23は、ドレープ20がロボットアーム3に装着されているか否かを検出する。なお、ドレープ検出部23は、ロボットアーム3に設けられている。
 そして、第2表示処理部21Bは、ドレープ20が装着されている場合には、その旨の情報(例えば、図5A参照)を表示部19に表示させる。第2表示処理部21Bは、ドレープ20が装着されていない場合には、その旨の情報(例えば、図5B参照)を表示部19に表示させる。
 <第2の状態情報の表示>
 第3表示処理部29は、処置具7の先端位置と内視鏡27の先端位置との相対的な位置関係を第1表示部19に表示させる。つまり、第3表示処理部29は、少なくとも3つの機能を発揮可能である。
 すなわち、第1の機能は、処置具7の先端位置に関する情報の取得機能である。第2の機能は、内視鏡27の先端位置に関する情報を算出する位置情報算出機能である。第3の機能は、処置具7の先端位置に関する情報及び内視鏡27の先端位置に関する情報を第1表示部19に表示させる機能である。なお、本実施形態に係る第3表示処理部29は、上記の位置認識機能を利用して第1の機能及び第2の機能を実現する。
 そして、第3表示処理部29は、位置情報算出機能の算出結果を利用して処置具7の先端と内視鏡27の先端との相対的な位置関係を表示する。具体的には、図6に示されるように、第1表示部19には、処置具7の先端を示す図柄(例えば、アイコン)29B及び内視鏡27の先端を示す図柄(例えば、アイコン)29Aが少なくとも表示される。
 さらに、第1表示部19には、2種類のアイコン29A、29Bと共に、内視鏡27の先端部の位置を基準とした全円分度器29Cが表示される。全円分度器29Cは、当該全円分度器29Cの中心が第1表示部19の表示画面の中心と一致した状態で表示される。
 第1表示部19の表示画面の中心とは、第1表示部19に第2の状態情報のみが表示されているときには、物理的な表示画面の中心を意味し、第1表示部19に第2の状態情報に加えて他の情報(例えば、第1の状態情報)も表示されているときには、第2の状態情報の表示領域の中心を意味する。
 なお、本実施形態に係る手術用ロボット1では、第2の状態情報の表示領域の中心が物理的な表示画面の中心と一致している。このため、複数種類の状態情報表示されている場合であっても、全円分度器29Cの中心が物理的な表示画面の中心と一致する。
 内視鏡27の先端部を示すアイコン(以下、カメラアイコンも記載する。)29Aは、当該表示画面の中心に表示されている。処置具7を示すアイコン29Bの表示形態又は当該アインコン29Bの表示位置は、処置具7の先端位置と内視鏡27の先端位置との相対的な位置関係の変化に応じて変化する。
 アイコン29Bの表示形態とは、例えば、アイコン29Bの具体的な意匠、つまりアイコン29Bの形状、模様、色彩若しくはこれらの組み合わせ、又はそれら具体的な意匠の表示の仕方(例えば、点滅表示と常時点灯表示)等をいう。
 なお、表示画面又は表示領域の上下方向は、鉛直方向と一致している。表示画面に対するカメラアイコン29Aの表示角度は、内視鏡27の回転角度に応じて変化する。つまり、内視鏡27が回転すると、内視鏡27の回転に連動してカメラアイコン29Aも回転する。なお、カメラアイコン29Aの中心位置は、内視鏡27の物理的な位置によらず、常に、表示画面の中心(言い換えると全円分度器29Cの中心)と一致する。
 <4.本実施形態に係る手術用ロボットの特徴>
 本実施形態に係る手術用ロボット1では、処置具7の先端と内視鏡27の先端との相対的な位置関係が第1表示部19に表示される。これにより、当該手術用ロボット1では、処置具7の先端位置が撮影範囲から外れた場合であっても、施術者が容易に対処可能となり得る。
 本実施形態では、状態情報が表示されるモニターと、内視鏡27により撮影された画像を表示するモニターとが別々に設けられている。これにより、施術者は手術をし易くなる。なお、状態情報が表示されるモニターが第1表示部19としての構成の一例に相当し、内視鏡27により撮影された画像を表示するモニターが第2表示部25としての構成の一例に相当する。
 なお仮に、内視鏡27により撮影された画像(以下、撮影画像という。)に加えて状態情報も第2表示部25に表示される構成であると、状態情報の表示が撮影画像の一部を隠すので、施術者は手術をし難くなる。
 本実施形態では、2種類のアイコン29A、29Bの位置関係と共に、内視鏡27の先端部の位置を基準とした全円分度器29Cが第1表示部19に表示される。これにより、施術者は容易に処置具7の先端位置を把握でき得る。
 本実施形態では、全円分度器29Cの中心が第1表示部19の表示画面の中心と一致した状態で、当該表示画面の中心に内視鏡27の先端部を示すアイコン29Aが表示され、当該位置関係の変化に応じて、処置具7を示すアイコン29Bの表示形態又は当該アイコン29Bの表示位置が変化する。これにより、施術者は容易に処置具7の先端位置を把握でき得る。
 本実施形態では、表示画面の上下方向は、鉛直方向と一致している。これにより、施術者は容易に処置具7の先端位置を把握でき得る。
 本実施形態に係る手術用ロボット1では、手術時にトロッカー15が挿入される部位と処置具7の先端位置との相対位置関係を第1表示部19に表示させる。これにより、「処置具7のうち切開箇所に対応する部位が不動となるように当該処置具7が移動しているか否か」を施術者が確認可能となり得る。
 つまり、手術用ロボット1が「トロッカー15が挿入される部位を不動点として認識したか否か」、つまり、手術用ロボット1による手術が実行可能な状態になったか否かを施術者が容易、かつ、確実に認識でき得る。
 第1表示処理部21Aは、不動点設定装置11に記憶された位置をトロッカー15が挿入される部位として利用する。これにより、不動点設定装置11が切開位置を不動点として記憶されているか否かを施術者が容易、かつ、確実に認識でき得る。
 本実施形態に係る手術用ロボット1では、ドレープ検出部23の検出結果を第1表示部19に表示させる。これにより、施術者は、手術用ロボット1による手術が実行可能な状態になったか否かを容易、かつ、確実に認識でき得る。
 本実施形態に係る手術用ロボット1は、手術時にトロッカー15が挿入される部位の位置、つまり切開位置を認識するとともに、当該認識した位置をピボットPとして記憶する。これにより、当該手術用ロボット1では、ピボットPの位置と切開箇所との位置合わせ作業を容易に実施することが可能となり得る。
 アーム駆動装置9は自在変位モードを実行可能である。これにより、当該手術用ロボット1では、利用者が処置具7の先端を切開箇所に合わせた後、位置認識機能及び記憶機能を実行させることが可能となる。したがって、ピボットPの位置と切開箇所との位置合わせ作業が確実に行われ得る。
 (その他の実施形態)
 上述の実施形態では、処置具7を保持するためのロボットアーム3及び内視鏡27を保持するための第2のロボットアームが備えられていた。しかし、本開示は第2のロボットアームが備えられる構成に限定されない。
 すなわち、本開示は、例えば、第2のロボットアームが廃止され、内視鏡27が補助者により保持される構成、又は複数の処置具7を保持する複数のロボットアーム3を備える構成であってもよい。
 上述の実施形態では、内視鏡27の先端部の位置を基準とした全円分度器29Cが第1表示部19に表示された。しかし、本開示は、全円分度器29Cが第1表示部19に表示される構成に限定されない。すなわち、本開示は、例えば、全円分度器29Cが表示されない構成であってもよい。
 上述の実施形態では、表示画面の上下方向は、鉛直方向と一致し、かつ、位置関係の変化に応じて、処置具7を示すアイコン29Bの表示形態又は当該アイコン29Bの表示位置が変化する構成であった。しかし、本開示は、表示画面の上下方向が、鉛直方向と一致し、かつ、位置関係の変化に応じて、処置具7を示すアイコン29Bの表示形態又は当該アイコン29Bの表示位置が変化する構成に限定されない。
 上述の実施形態に係るロボットアーム3は、ピボットの位置を変更可能なリンク機構にて構成されていた。しかし、本開示は、ロボットアーム3がピボットの位置を変更可能なリンク機構により構成されるものに限定されない。すなわち、本開示は、例えば、ピボット(不動点とも記載する)がロボット本体に対して不動な構成、言い換えると変更できない構成であってもよい。
 上述の実施形態では、第2表示処理部21Bが備えられていた。しかし、本開示は第2表示処理部21Bを備えられるものに限定されない。すなわち、本開示は、例えば、第2表示処理部21Bが廃止された構成等であってもよい。
 上述の実施形態では、アーム駆動装置9が自在変位モードになっていない場合には(S7:NO)、制御装置5は、位置認識機能及び記憶機能を実行不可な状態とした。しかし、本開示はアーム駆動装置9が自在変位モードになっていない場合に、位置認識機能及び記憶機能が実行不可となる制御装置5に限定されない。
 すなわち、本開示は、例えば、自在変位モードになっていない場合にも位置認識機能及び記憶機能を実行可能な状態となる構成であってもよい。なお、この場合には、マスター側の入力操作装置を用いて処置具7の先端を切開位置に合致させてもよい。
 上述の実施形態に係る不動点設定装置11は、ロボットアーム3の姿勢から処置具7の先端位置を示す座標を取得して当該先端位置を認識した。しかし、本開示は不動点設定装置11が、ロボットアーム3の姿勢から処置具7の先端位置を示す座標を取得して当該先端位置を認識するものに限定されない。すなわち、本開示は、例えば、ステレオカメラや深度カメラ等の3Dカメラを用いた画像解析技術にて当該先端位置を認識する構成であってもよい。
 上述の実施形態では、利用者が処置具7又は術具相当品の先端を切開位置に合致させた状態で当該先端を認識することにより、切開位置を認識する構成であった。しかし、本開示は、利用者が処置具7又は術具相当品の先端を切開位置に合致させた状態で当該先端を認識することにより、切開位置を認識する構成に限定されない。すなわち、本開示は、例えば、切開位置にレーザ光を照射し、当該照射位置を画像解析技術にて認識する構成であってもよい。
 上述の実施形態では、自在変位可能ボタン17Bが操作されたときに自在変位モードに移行する構成であった。しかし、本開示は自在変位可能ボタン17Bが操作されたときに自在変位モードに移行する構成に限定されない。すなわち、本開示は、例えば、不動点設定モードに移行すると同時に自動的に自在変位モードに移行する構成であってもよい。
 さらに、本開示は、上述の実施形態に記載された開示の趣旨に合致するものであればよく、上述の実施形態に限定されない。したがって、上述した複数の実施形態のうち少なくとも2つの実施形態が組み合わせられた構成、又は上述の実施形態において、図示された構成要件もしくは符号を付して説明された構成要件のうちいずれかが廃止された構成であってもよい。

Claims (5)

  1.  内視鏡下外科手術に用いられる手術用ロボットにおいて、
     内視鏡下外科手術に用いられる処置具の先端位置に関する情報、及び内視鏡の先端位置に関する情報を算出する位置情報算出部と、
     前記位置情報算出部の算出結果を利用して処置具の先端と内視鏡の先端との相対的な位置関係を表示する第1表示部と、
     内視鏡により撮影された画像を表示する第2表示部と
     を備える手術用ロボット。
  2.  内視鏡の先端部の位置を基準とした全円分度器が、前記位置関係と共に前記第1表示部に表示される請求項1に記載の手術用ロボット。
  3.  前記全円分度器の中心が前記第1表示部の表示画面の中心と一致した状態で、当該表示画面の中心に内視鏡の先端部を示す図柄が表示され、
     さらに、前記位置関係の変化に応じて、前記処置具を示す図柄の表示形態又は当該図柄の表示位置が変化する請求項2に記載の手術用ロボット。
  4.  前記表示画面の上下方向は、鉛直方向と一致している請求項3に記載の手術用ロボット。
  5.  内視鏡の先端部を示す図柄をカメラアイコンとしたとき、
     前記表示画面に対する前記カメラアイコンの表示角度は、当該内視鏡の回転角度に応じて変化する請求項3又は4に記載の手術用ロボット。
PCT/JP2021/000899 2020-02-12 2021-01-13 手術用ロボット WO2021161708A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP21753547.5A EP4101409A4 (en) 2020-02-12 2021-01-13 SURGICAL ROBOT
CN202180014028.9A CN115087412A (zh) 2020-02-12 2021-01-13 手术用机器人
US17/884,993 US20220378530A1 (en) 2020-02-12 2022-08-10 Surgical robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020021630A JP6754150B1 (ja) 2020-02-12 2020-02-12 手術用ロボット
JP2020-021630 2020-02-12

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/884,993 Continuation US20220378530A1 (en) 2020-02-12 2022-08-10 Surgical robot

Publications (1)

Publication Number Publication Date
WO2021161708A1 true WO2021161708A1 (ja) 2021-08-19

Family

ID=72333571

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/000899 WO2021161708A1 (ja) 2020-02-12 2021-01-13 手術用ロボット

Country Status (5)

Country Link
US (1) US20220378530A1 (ja)
EP (1) EP4101409A4 (ja)
JP (1) JP6754150B1 (ja)
CN (1) CN115087412A (ja)
WO (1) WO2021161708A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022142902A (ja) * 2021-03-17 2022-10-03 ソニーグループ株式会社 力計測装置及び力計測方法、手術装置、及び手術システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002306509A (ja) * 2001-04-10 2002-10-22 Olympus Optical Co Ltd 遠隔手術支援システム
JP2008018257A (ja) * 2007-08-27 2008-01-31 Olympus Corp 医療装置
JP4999012B2 (ja) 2005-06-06 2012-08-15 インチュイティブ サージカル,インコーポレイテッド 腹腔鏡超音波ロボット外科手術システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002253574A (ja) * 2001-03-01 2002-09-10 Hitachi Ltd 手術支援装置
JP2005224528A (ja) * 2004-02-16 2005-08-25 Olympus Corp 内視鏡
US9615772B2 (en) * 2004-02-20 2017-04-11 Karl Storz Imaging, Inc. Global endoscopic viewing indicator
US10258425B2 (en) * 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US8668638B2 (en) * 2010-02-11 2014-03-11 Intuitive Surgical Operations, Inc. Method and system for automatically maintaining an operator selected roll orientation at a distal tip of a robotic endoscope
US8591401B2 (en) * 2010-08-18 2013-11-26 Olympus Corporation Endoscope apparatus displaying information indicating gravity direction on screen
EP2805669A4 (en) * 2012-05-23 2015-11-18 Olympus Corp ELECTRONIC ENDOSCOPY SYSTEM
KR102655083B1 (ko) * 2014-10-27 2024-04-08 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 브레이크 해제가 능동적으로 제어되는 의료 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002306509A (ja) * 2001-04-10 2002-10-22 Olympus Optical Co Ltd 遠隔手術支援システム
JP4999012B2 (ja) 2005-06-06 2012-08-15 インチュイティブ サージカル,インコーポレイテッド 腹腔鏡超音波ロボット外科手術システム
JP2008018257A (ja) * 2007-08-27 2008-01-31 Olympus Corp 医療装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4101409A4

Also Published As

Publication number Publication date
CN115087412A (zh) 2022-09-20
EP4101409A4 (en) 2023-08-02
EP4101409A1 (en) 2022-12-14
US20220378530A1 (en) 2022-12-01
JP6754150B1 (ja) 2020-09-09
JP2021126231A (ja) 2021-09-02

Similar Documents

Publication Publication Date Title
JP6311046B2 (ja) ステープル又は血管シール器具におけるナイフ位置のインジケータ
JP5017076B2 (ja) マニピュレータシステム及びマニピュレータの制御方法
KR102105142B1 (ko) 입력 장치의 오퍼레이터가 볼 수 있는 디스플레이 영역으로 기구가 진입할 때 기구의 제어를 입력 장치로 전환하는 방법
JP7405432B2 (ja) 追跡カメラ技術を有するロボット手術デバイスならびに関連するシステムおよび方法
US20130103197A1 (en) Method for graphically providing continuous change of state directions to a user of medical robotic system
JP2000300579A (ja) 多機能マニピュレータ
US11033347B2 (en) Surgical system
EP3788977B1 (en) Surgical system
US11432889B2 (en) Robotic surgical instrument, method of assembling the same, and robotic surgical system
US11490972B2 (en) Driver interface, robotic surgical system, and method of detecting attachment of drape to driver interface
US20220378518A1 (en) Surgical robot
WO2021161708A1 (ja) 手術用ロボット
JP2020096923A (ja) 手術システム
US20220378531A1 (en) Surgical robot
KR101241809B1 (ko) 수술용 로봇
JP2021171345A (ja) 滅菌ドレープおよび手術支援ロボット
US20220395346A1 (en) Sterile drape, surgical robot, and method of attaching sterile drape
WO2024052969A1 (ja) 医療用装置
KR20120039281A (ko) 수술기구 및 이를 포함하는 수술용 로봇 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21753547

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021753547

Country of ref document: EP

Effective date: 20220909