WO2021153973A1 - 관절치환 로봇수술 정보 제공 장치 및 제공 방법 - Google Patents

관절치환 로봇수술 정보 제공 장치 및 제공 방법 Download PDF

Info

Publication number
WO2021153973A1
WO2021153973A1 PCT/KR2021/001038 KR2021001038W WO2021153973A1 WO 2021153973 A1 WO2021153973 A1 WO 2021153973A1 KR 2021001038 W KR2021001038 W KR 2021001038W WO 2021153973 A1 WO2021153973 A1 WO 2021153973A1
Authority
WO
WIPO (PCT)
Prior art keywords
cutting
robot
surgery
surgical
information
Prior art date
Application number
PCT/KR2021/001038
Other languages
English (en)
French (fr)
Inventor
김봉오
도대국
김수종
Original Assignee
큐렉소 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 큐렉소 주식회사 filed Critical 큐렉소 주식회사
Priority to CN202180011972.9A priority Critical patent/CN115038400A/zh
Priority to EP21746937.8A priority patent/EP4098218A4/en
Priority to JP2022545843A priority patent/JP7542872B2/ja
Priority to US17/796,347 priority patent/US11701189B2/en
Publication of WO2021153973A1 publication Critical patent/WO2021153973A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/46Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor
    • A61F2/4603Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor for insertion or extraction of endoprosthetic joints or of accessories thereof
    • A61F2/461Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor for insertion or extraction of endoprosthetic joints or of accessories thereof of knees
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/252User interfaces for surgical systems indicating steps of a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/258User interfaces for surgical systems providing specific settings for specific users
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/46Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor
    • A61F2002/4632Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor using computer-controlled surgery, e.g. robotic surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/46Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor
    • A61F2002/4632Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor using computer-controlled surgery, e.g. robotic surgery
    • A61F2002/4633Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor using computer-controlled surgery, e.g. robotic surgery for selection of endoprosthetic joints or for pre-operative planning

Definitions

  • the present invention relates to an apparatus and method for providing information on robotic surgery, and more particularly, to an apparatus and method for providing information on surgical progress in the course of performing artificial joint replacement surgery through a robot.
  • robotic surgery can improve the accuracy of surgery and patient satisfaction, and it is reported that complications that may occur after surgery are reduced. is expected to be
  • Robotic surgery can be largely divided into passive robotic surgery, semi-active robotic surgery, and active robotic surgery.
  • passive robotic surgery the operator directly manipulates the robot in the entire surgical procedure.
  • semi-active robotic surgery the operator uses a robot to perform cutting, but in the above process, the robot uses haptic feedback to operate. It plays a role of limiting the movement of the surgical tool according to a predetermined path.
  • active robotic surgery is a method in which a robot automatically performs surgery according to a pre-operative plan without operator intervention.
  • active robotic surgery excludes the intervention of the operator.
  • the conventional surgical robot system does not provide surgical information at all, or even provides very limited information such as a bone image after cutting is complete, and it is possible to understand the current or future progress of the robot as a whole. Information is not provided.
  • the present invention has been proposed to solve the above problems, and provides an apparatus and method for providing surgical information through which an operator can grasp the surgical path of the robot or the state of the robot in the course of joint replacement robotic surgery. purpose is to provide.
  • the above object is to provide an apparatus for providing information on joint replacement robot surgery according to an aspect of the present invention, comprising: a memory unit for storing surgical plan information set before surgery, including a cutting path of a bone to be operated; a target acquisition unit for acquiring positions of a plurality of cutting target points constituting the cutting path based on the operation plan information; a robot position calculator for calculating the current cutting position of the surgical robot between the cutting target points in response to the operation progress through the surgical robot; a GUI providing unit for graphically generating operation progress information including the position of the cutting target point and the current cutting position of the surgical robot on a virtual bone model corresponding to the bone to be operated; and a display unit for displaying the virtual bone model and the operation progress information.
  • the surgical robot may further include a view switching unit for switching a view of the virtual bone model displayed through the display unit according to the portion of the bone to be operated on to be cut by the surgical robot.
  • the target acquisition unit, the position of the cutting target point according to the first coordinate system based on the implant to be substituted for the bone to be operated on to the position according to the second coordinate system based on the virtual bone model performs coordinate transformation can do.
  • the robot position calculator may estimate the current cutting position of the surgical robot based on the cutting speed of the surgical robot according to the surgical plan information and the distance between the cutting target points.
  • a notification unit for providing a notification further comprising can do.
  • the robot position calculator may calculate the current cutting position of the surgical robot based on information received from a tracking device for tracking the position of the surgical robot.
  • the GUI providing unit may determine whether to display the operation progress information through the display unit in response to an on-off state of the operation of the surgical robot.
  • the GUI providing unit may generate a figure corresponding to each of the plurality of cutting target points, a cutting line formed by connecting the cutting target points, and a figure corresponding to the current cutting position of the surgical robot.
  • the GUI providing unit graphically generates a cutting line formed by connecting the cutting target points, but based on the current cutting position of the surgical robot calculated through the robot position calculating unit, the surgical robot has already passed through the The cutting line and the cutting line currently passing may be generated to be distinguished from each other.
  • the above object is a joint replacement robot surgery information providing method in which each step according to another aspect of the present invention is performed through a joint replacement robotic surgery information providing device that provides joint replacement robot surgery information, a bone to be operated on Storing the surgical plan information set before the operation, including the cutting path of the; acquiring positions of a plurality of cutting target points constituting the cutting path based on the operation plan information; calculating a current cutting position of the surgical robot between the cutting target points in response to the surgical progress through the surgical robot; Graphically generating operation progress information including the position of the cutting target point and the current cutting position of the surgical robot on a virtual bone model corresponding to the bone to be operated; and displaying the virtual bone model and the operation progress information on a display unit.
  • the joint replacement robot surgery information providing method includes the steps of switching a view for the virtual bone model displayed through the display unit according to the part of the bone to be operated on to be cut by the surgical robot. may include more.
  • the calculating of the current cutting position of the surgical robot may include estimating the current cutting position of the surgical robot based on the cutting speed of the surgical robot according to the surgical plan information and the distance between the cutting target points.
  • the step of generating the surgical progress information graphically includes a figure corresponding to each of a plurality of the cutting target points, a cutting line formed by connecting the cutting target points, and a figure corresponding to the current cutting position of the surgical robot.
  • the step of generating the surgical progress information graphically includes graphically generating a cutting line formed by connecting the cutting target points, and the cutting through which the surgical robot has already passed based on the current cutting position of the surgical robot.
  • a line and the cutting line currently passing may be generated to be distinguished from each other.
  • the user by providing the user with the surgical progress information regarding the cutting path planned before surgery and the position in which the surgical robot is currently passing on the cutting path, and the status information of the surgical robot, the user can perform the surgery. It helps you to be aware of your progress and monitor the progress of your surgery.
  • FIG. 1 is a configuration diagram showing a schematic configuration of a joint replacement robot surgery system including a joint replacement robot surgery information providing device according to an embodiment of the present invention
  • Figure 2 is a block diagram showing the detailed configuration of the joint replacement robot surgery information providing apparatus according to an embodiment of the present invention
  • Figure 3 is a reference diagram for explaining the cutting path of the surgical plan according to an embodiment of the present invention.
  • FIG. 4 is a reference diagram for explaining an example in which the position of the cutting target point is obtained through the target acquisition unit according to an embodiment of the present invention
  • FIG. 5 is an example of a screen for explaining an operation of a view switching unit according to an embodiment of the present invention.
  • Figure 6 is a flowchart showing a method for providing joint replacement robot surgery information according to an embodiment of the present invention
  • 7 and 8 are examples of screens displayed when the surgical robot cuts the distal portion of the femur
  • 10 is an example of a screen displayed when the surgical robot cuts the anterior portion of the femur.
  • robotic joint replacement surgery described in this specification includes knee joint replacement robotic surgery and hip joint replacement robotic surgery.
  • robot joint replacement knee surgery will be described as an example among robot joint replacement surgery.
  • FIG. 1 is a configuration diagram showing a schematic configuration of a joint replacement robotic surgery system 1 including an apparatus for providing information on joint replacement robotic surgery according to an embodiment of the present invention.
  • the joint replacement robot surgery system (1) disposed in the operation site is bone markers (BM1, BM2) fixed to the operation target bones (B1, B2), the surgical robot 100, the tracking device 200 , and a joint replacement robot surgery information providing device 300 .
  • Bone to be operated refers to a bone to be operated on by robot
  • FIG. 1 shows a femur (Femur) (B1) and a tibia (B2) as an example.
  • the femur (B1) and tibia (B2) are fixed with bone markers (BM1, BM2), which are the basis for tracking the position of the femur (B1) and tibia (B2) during surgery, respectively.
  • the surgical robot 100 is a robot that performs surgery for joint replacement, and is composed of a robot base 101 and a robot arm 103, and the end effector, which is an end of the robot arm 103, includes a bur Various surgical tools (103a) for performing the cutting, etc. may be combined.
  • the surgical robot 100 may be equipped with various sensors capable of sensing the state information of the surgical robot 100, such as a load applied to the combined surgical tool, the operation speed of the robot.
  • a robot marker RM is fixed to the base 101 of the surgical robot 100 when tracking the position of the surgical robot 100 during surgery.
  • a passive or active type optical marker may be applied.
  • the optical marker includes a plurality of bar members branching in different directions with respect to a central point, and a ball marker may be formed at an end of each bar. This is only an example of the shape of the optical marker, and of course, it may be implemented in a variety of known shapes.
  • the tracking device 200 is for tracking the position and posture of the bone markers BM1 and BM2 fixed to the surgery target bones B1 and B2 and the robot marker RM fixed to the surgical robot 100.
  • OTS optical tracking system
  • the optical tracking system is a device capable of tracking a position and posture in a three-dimensional space in real time by tracking a marker by two infrared cameras and converting the distance by triangulation. Since the tracking principle of such an optical tracking system is widely known, a detailed description thereof will be omitted for the sake of simplicity.
  • the joint replacement robot surgery information providing device 300 (hereinafter, 'surgery information providing device') generates and provides surgical progress information when surgery is performed on the surgery target bones B1 and B2 through the surgical robot 100 . do.
  • the surgical progress information includes a cutting path through which the surgery target bones B1 and B2 are cut through the surgical robot 100 , a cutting position currently being cut by the surgical robot 100 , and state information of the surgical robot 100 .
  • the surgical information providing apparatus 300 may be implemented including a computer (processor) and a display.
  • the surgical information providing device 300 is physically separated from the surgical robot 100 and is illustrated as being implemented as a separate device, but in some cases, the processor of the surgical information providing device 300 is the surgical robot 100 .
  • the display is connected to the tracking device 200 and installed together, of course, it can be implemented to transmit and receive various types of information through the communication module.
  • the apparatus 300 for providing surgical information according to an embodiment of the present invention includes a signal receiving unit 310 , a display unit 320 , a memory unit 330 , and a control unit 340 .
  • the signal receiving unit 310 is for receiving a signal or various data from the outside, for example, an HDMI (High Definition Multimedia Interface) connector for connection with an external device, a D-sub connector, or an Internet network. It may include a communication module for connecting to a wired / wireless network including.
  • the signal receiving unit 310 transmits and receives various information from the surgical robot 100 and the tracking device 200 .
  • the signal receiver 310 may receive various robot state information sensed by the surgical robot 100 , and the position of the surgery target bones B1 and B2 and the surgical robot 100 tracked from the tracking device 200 . and receive information about posture.
  • the display unit 320 is for displaying various information including images and graphics on the screen, and may be implemented as a liquid crystal display (LCD) panel, a light emitting diode (LED) panel, an organic light emitting diode (OLED) panel, and the like.
  • the display unit 320 displays surgery progress information and a virtual bone model while the robotic surgery is in progress.
  • the virtual bone model refers to a 2/3D bone model reconstructed based on a medical image, for example, a CT image, an MRI image, an X-ray image, etc. of a bone to be operated on acquired before surgery.
  • the memory unit 330 is implemented as a memory element such as RAM, and can store various operating systems (OS), middleware, platforms, and various applications of the surgical information providing apparatus 300, program codes and signal-processed image signals, It is possible to store a voice signal and various data.
  • the memory unit 330 stores a patient medical image obtained before surgery, a virtual bone model reconstructed based on the medical image, and surgical plan information set before surgery.
  • the surgical plan can be established based on the patient's medical image, and the surgical plan information includes information on the type, shape, size, implant installation location, installation direction, cutting path of the bone to be operated, cutting speed, etc. is included
  • the cutting path may be variously defined as a straight line, a curved line, or a shape combining them. In this case, the cutting path or cutting speed may be integrated or individually planned for each cutting surface.
  • FIG 3 is a view for explaining the cutting path of the surgical plan according to an embodiment of the present invention, and shows the cutting surfaces of the femur (B1) and the tibia (B2) during total knee joint replacement robot surgery.
  • the surgical plan may be individually set for each cutting surface as a cutting path for each cutting surface and a cutting speed in each cutting path. may be set to
  • the controller 340 controls the overall operation of the surgical information providing apparatus 300 according to a user command input through a user input unit (not shown) or an internal program.
  • the control unit 340 may be implemented by including a program code for signal processing and control and a processor executing the program.
  • the controller 340 generates and provides surgical progress information graphically in response to the progress of the robotic surgery, so that the user can recognize and monitor the surgical process by the surgical robot 100 .
  • the control unit 340 includes a target acquisition unit 341 , a robot position calculation unit 343 , a GUI providing unit 345 , and a view switching unit 347 . and a notification unit 349 .
  • the control unit 340 is functionally divided into detailed components for convenience of explanation, the control unit 340 includes detailed components such as the target acquisition unit 341, the robot position calculation unit 343, the GUI providing unit 345, and the view.
  • the conversion unit 347 and the notification unit 349 may be implemented as a software program including instructions for performing each function and a processor executing the same.
  • the target acquisition unit 341 acquires the positions of a plurality of cutting target points constituting the cutting path based on the operation plan information stored in the memory unit 330 .
  • the cutting path may be set as a set of positional coordinates of a plurality of cutting target points corresponding to the plurality of points.
  • the cutting path is set in the implant coordinate system based on the origin of the implant. Therefore, as will be described later, in order to display the cutting path set during surgery on the virtual bone model, the position coordinates of the cutting target point according to the surgical plan are converted into position coordinates according to the bone model coordinate system based on the origin of the virtual bone model. conversion processing is required.
  • the target acquisition unit 341 performs coordinate transformation by multiplying the transformation matrix between the bone model coordinate system and the implant coordinate system by the position coordinates of the target point defined in the implant coordinate system.
  • the coordinate transformation method for expressing the coordinates of a point expressed in one coordinate system to the coordinates of another coordinate system is a well-known technique, and thus, a detailed description thereof will be omitted for the sake of simplification of the description.
  • the target acquisition unit 341 may determine the number of acquired cutting target points differently according to the shape or shape of the cutting path.
  • FIG. 4 is a reference diagram for explaining an example in which the position of the cutting target point is obtained through the target acquisition unit 341 according to an embodiment of the present invention.
  • FIG. 4 an example in which a cutting path is configured by a combination of straight lines is shown in FIG. 4 (a), and an example configured in a curved shape is shown in (b).
  • the target acquisition unit 341 corresponds to two points as the starting point of one straight path and the ending point of the corresponding straight path ending. It is possible to obtain the position of the cutting target point. For example, when a cutting path is composed of a combination of five straight lines as shown in FIG. It is possible to obtain the positions of p1 to p6 corresponding to . At this time, since the straight lines constituting the cutting path are connected to each other, it can be seen that p2, p3, p4, and p5 are the end points of one straight line and the start points of another straight line connected at the same time.
  • the cutting path may be composed of a plurality of separated straight lines, or a combination of a plurality of separated straight lines.
  • the target acquisition unit 341 is the starting point and ending point of the curve according to the curvature of the curve, the rate of change of the curvature, and the direction change. It is possible to obtain a larger number of cutting target point positions compared to that of the present invention. For example, when the curvature or the rate of change of the curvature is large, it may be implemented to obtain a larger number.
  • FIG. 4B shows an example in which 14 positions are obtained as p10 to p23.
  • the robot position calculation unit 343 calculates the current cutting position of the surgical robot 100 between the cutting target points obtained through the target acquisition unit 341 in response to the operation progress through the surgical robot 100 .
  • the current cutting position of the surgical robot 100 may be an estimated position, or may be an actual position where the surgical robot 100 is currently actually cutting through a surgical tool.
  • the robot position calculation unit 343 calculates the cutting speed of the surgical robot 100 according to the operation plan information stored in the memory unit 330 , the time the surgical robot 100 performs cutting, and the target acquisition unit 341 .
  • the current cutting position of the surgical robot 100 may be estimated based on the obtained distance between the cutting target points. For example, when the cutting tool of the surgical robot 100 is turned on and the cutting operation is started at t1 and the current time is t2, assuming that the cutting speed of the surgical robot 100 according to the surgical plan information is v , the distance traveled by the surgical robot 100 will be (t2-t1)*v. Based on this, it is possible to estimate where the current cutting position of the surgical robot 100 is between the plurality of cutting target points. At this time, if the cutting speed of the surgical robot 100 according to the surgical plan information is planned differently depending on the cutting position, the current cutting position should be estimated by applying the planned cutting speed corresponding to the corresponding cutting position.
  • the robot position calculator 343 is operated based on the information about the position of the surgical robot 100 received from the tracking device 200, the robot calibration performed before the operation, and the virtual bone model that is an image and the spatial registration of the robot.
  • the current cutting position may be calculated by grasping the actual position on the virtual bone model of the robot 100 .
  • the robot position calculating unit 343 may calculate either one of the above-described estimated cutting position and the actual cutting position, but may also calculate both.
  • the robot position calculator 343 calculates and updates the current cutting position changed in real time.
  • the GUI providing unit 345 graphically generates operation progress information on a virtual bone model for a bone to be operated on. That is, the GUI providing unit 345 proceeds with surgery including the position of the cutting target point obtained through the target obtaining unit 341 and the current cutting position of the surgical robot 100 calculated through the robot position calculating unit 343 . Generate information graphically. The generated surgical progress information is displayed overlaid on the virtual bone model through the display unit 320 .
  • the GUI providing unit 345 may be implemented by including a graphic card for transmitting the generated data to the display unit 320 .
  • the GUI providing unit 345 is a cutting line ( straight line or curve), and graphically generates a figure corresponding to the current cutting position of the surgical robot 100 calculated through the robot position calculation unit 343 . Based on the current cutting position of the surgical robot 100, the cutting line that the surgical robot 100 has already passed and the cutting line currently passing through may be generated to be graphically distinguished from each other. For example, the color, transparency, whether the line is flickering, the type of the line, etc. of the cutting line that has already passed and the cutting line that is currently passed may be different.
  • the robot position calculation unit 343 calculates both the estimated cutting position and the actual cutting position
  • the shape and color for displaying the two positions are displayed to be distinguished from each other so that the user can visually observe the distance difference between the two positions. can be identified to facilitate monitoring of the surgical progress.
  • the GUI providing unit 345 may determine whether or not to display the operation progress information through the display unit 320 in response to the operation on-off state of the surgical robot 100 and the display mode. For example, when the surgical tool for cutting of the surgical robot 100 is turned on, the surgical progress information is superimposed on the virtual bone model and displayed, and when the surgical tool is turned off, the surgical progress information is not displayed. there is. Alternatively, even when the surgical tool is turned off, the operation progress information is displayed, and it may be displayed in a color with relatively low visibility, such as gray, or displayed in a lighter color by increasing the transparency.
  • Status information such as on/off information of the surgical tool, the load applied to the surgical tool, and the speed of the surgical robot 100 may be displayed on the display unit 320 as well as the operation progress information through the GUI providing unit 345 .
  • the speed of the surgical robot 100 may be a speed according to a surgical plan, or an actual speed based on a value sensed in the cutting process.
  • the view switching unit 347 switches a view of the virtual bone model displayed through the display unit 320 according to the region of the bone to be operated on to be cut by the surgical robot 100 .
  • FIG. 5 is an example of a screen for explaining the operation of the view switching unit 347 according to an embodiment of the present invention.
  • the view is set so that the center of the distal is located in front of the screen so that the corresponding part can be seen clearly, and the anterior of the femur as shown in (b) is set.
  • the view can be switched so that the anterior center is in front of the screen.
  • the view switching unit 347 receives a user input regarding which part of the bone to be operated on is currently being cut through a user input unit (not shown) that receives a user input such as a keyboard or mouse, and performs view switching based on this. can be done Alternatively, position information of the surgical robot 100 tracked through the tracking device 200 or information sensed from the surgical robot 100 is received, and the robot arm of the surgical robot 100 moves in any direction or It may also be implemented to automatically change the view by recognizing whether it moves to a position or the state of a change of direction of a surgical tool.
  • the view switching unit 347 may rotate the virtual bone model or change the view by applying Euler Angle, Rotation Matrix, Quaternion, etc. which improved the gimbal lock problem. .
  • Euler Angle Rotation Matrix
  • Quaternion Quaternion
  • the view switching unit 347 may enlarge or reduce the virtual bone model by a predetermined magnification in response to the size of the cutting surface and the number of cutting target points displayed on the cutting surface of the virtual bone model along with the view change.
  • the size of the cutting surface is relatively small, the size of the virtual bone model can be enlarged and displayed so that it appears larger, and even when the number of cutting target points to be overlapped on the virtual bone model is large, the user It will be possible to enlarge the virtual bone model so that the points can be easily distinguished.
  • the notification unit 349 provides a notification to the user when the cutting is performed outside the cutting path according to the surgical plan information through the surgical robot 100 .
  • the notification unit 349 may be implemented including a speaker to provide a notification through a sound such as a warning sound, or may provide a notification as a visual indication by displaying a message through the display unit 320 .
  • the notification unit 349 is the surgical robot 100 in which the actual cutting position of the surgical robot 100 is estimated through the robot position calculation unit 343 based on the position information of the surgical robot 100 received from the tracking device 200 . ) can provide a notification when more than a predetermined distance away from the current cutting position. In addition, when the actual cutting position calculated based on the information received from the tracking device 200 deviates from the cutting path according to the operation plan information by more than a predetermined criterion, it may be possible to provide a notification.
  • the surgical information providing apparatus 300 through the above-described configuration by displaying the cutting path information according to the surgical plan on the virtual bone model, the current cutting position of the surgical robot 100, surgical progress information such as the robot state, etc. It helps the user to recognize the operation progress and to monitor the operation progress.
  • FIG. 6 is a flowchart illustrating a method for providing joint replacement robot surgery information according to an embodiment of the present invention.
  • an organic operation of the configuration of the apparatus 300 for providing surgical information will be described. A description that overlaps with the above-described embodiment will be omitted.
  • the method for providing information on joint replacement robotic surgery is premised on storing the surgical plan information prepared through pre-operative planning in the memory unit 330 (S10).
  • Preoperative planning may be performed based on patient medical images taken before surgery using various well-known planning software. Cutting according to implant type, shape, size, implant installation location/direction/angle to be installed on the bone to be operated through pre-surgery planning, the cutting path to cut the bone to be operated on to install the implant, and the bone density of the part to be cut Surgery plan information such as speed is generated.
  • a robot calibration operation for establishing the correlation between the vision sensor reference coordinate system of the tracking device 200 and the reference coordinate system of the robot by applying a known technology , registration of the medical image and the target bone to apply the surgical plan planned based on the medical image to the actual target bone, and robot matching to establish the correlation between the position/position of the robot and the position/position of the robot marker.
  • Robotic surgery is started according to the surgical plan.
  • the target acquisition unit 341 acquires the positions of a plurality of cutting target points constituting the cutting path based on the stored operation plan information (S11).
  • the cutting path according to the surgical plan information is defined based on the implant coordinate system, in order to display it on the virtual bone model, the coordinate transformation is performed from the position coordinate value according to the implant coordinate system to the position coordinate value according to the virtual bone model coordinate system.
  • the number of the obtained cutting target points may be differently determined according to the shape or shape of the cutting path.
  • the robot position calculator 343 calculates the current cutting position of the surgical robot 100 between the cutting target points in response to the operation progress through the surgical robot (S13).
  • the current cutting position is an estimated position estimated based on the cutting operation time of the surgical robot 10 and the cutting speed according to the surgical plan, or the position information of the surgical robot 100 tracked by the tracking device 200 . It may also be an actual position on the virtual bone model calculated based on it.
  • the GUI providing unit 345 generates a graphic representing the operation progress information based on the data obtained in the above step (S15).
  • the cutting target points are connected to each other according to the figures corresponding to the plurality of cutting target points obtained through the target acquisition unit 341 on the virtual bone model corresponding to the bone to be operated on, and the cutting order of the surgical robot 100 .
  • a figure corresponding to the current cutting position of the surgical robot 100 calculated through the cutting line (straight line or curved line) formed by the operation and the robot position calculating unit 343 may be graphically generated.
  • the display unit 320 displays the surgical progress information generated graphically from the GUI providing unit 345 and the state information sensed by the surgical robot 100 on the virtual bone model (S17).
  • 7 to 10 are examples of screens displayed on the display unit 320 according to an embodiment of the present invention.
  • FIGS. 7 and 8 a screen displayed when the surgical robot 100 cuts the distal portion of the femur in a state in which the surgical tool of the surgical robot 100 is turned on is shown.
  • FIG. 8 shows a state in which cutting is further advanced as compared to that shown in FIG. 7 .
  • the current cutting position (C) of the surgical robot 100 is displayed in a spherical shape, and the plurality of cutting target points (P) shows an example in which the size is relatively smaller than the current cutting position (C) in a spherical shape.
  • the spherical shape indicating the current cutting position C is colored in red
  • the spherical shape corresponding to the cutting target point P is colored in yellow, so that they can be expressed to be distinguished from each other.
  • the cutting line Lp through which the surgical robot 100 has already passed is yellow, and the currently passing cutting line Lc is red, etc.
  • the display unit 320 reflects the change in the cutting position and moves the current cutting position (C) along the cutting line (L) in real time. is displayed as
  • Cutting: 0n is displayed on the upper left of the screen to show that the surgical tool of the surgical robot 100 is turned on. They are displayed together as a unit.
  • the cutting speed may be a planned speed or an actual cutting speed according to the operation plan information.
  • FIG. 9 shows a screen displayed in a state in which the operation of the surgical tool of the surgical robot 100 is turned off.
  • FIG. 9 it can be seen that only off state information is displayed in the upper left, and other state information or operation progress information is not displayed.
  • This is an example, and as described above, although the above information is displayed, it is of course also possible to display the information so that it is on and off by different colors or transparency.
  • FIG. 10 shows a screen displayed when the surgical robot 10 cuts the anterior portion of the femur.
  • the display of the current cutting position (C), the cutting line (L), the plurality of cutting target points (P), and the surgical robot state information are the same.
  • FIG. 7 or FIG. 8 which shows the state in which the distal part is cut, it can be seen that the viewpoint of the viewpoint is changed and displayed so that the anterior part is clearly visible on the screen.
  • the view switching unit 347 may delete the previously displayed surgical progress information and switch the view to another viewpoint when the surgical robot 100 ends cutting of a specific site and starts cutting for another site. there is.
  • each step of the method described with reference to FIG. 6 may be appropriately added or changed as needed.
  • the actual cutting position of the surgical robot 100 is more than a predetermined distance from the estimated current cutting position of the surgical robot 100 in the process of cutting, or the actual cutting position of the surgical robot 100 is
  • a step of providing a notification by the notification unit 349 may be further added when it deviates from the cutting path according to the predetermined criterion or more.
  • the surgical progress regarding the planned cutting path and the current surgical robot 100 passing through the cutting path before surgery is provided.
  • the user can recognize the operation progress and monitor the operation progress.
  • the embodiments described above may be implemented by a hardware component, a software component, and/or a combination of a hardware component and a software component.
  • the apparatus, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions.
  • the processing device may execute an operating system (OS) and one or more software applications running on the operating system.
  • the processing device may also access, store, manipulate, process, and generate data in response to execution of the software.
  • OS operating system
  • the processing device may also access, store, manipulate, process, and generate data in response to execution of the software.
  • the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.
  • the software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device.
  • the software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave.
  • the software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
  • the method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium.
  • the computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination.
  • the program instructions recorded on the computer readable medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software.
  • Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks.
  • - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
  • the hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Transplantation (AREA)
  • Pathology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Cardiology (AREA)
  • Vascular Medicine (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Manipulator (AREA)
  • Surgical Instruments (AREA)

Abstract

본 발명은 관절치환 로봇수술 정보 제공 장치 및 제공 방법에 관한 것으로, 본 발명에 따른 관절치환 로봇수술 정보 제공 장치는 수술대상 뼈의 절삭 경로를 포함하여 수술 전 설정된 수술계획 정보를 저장하는 메모리부; 상기 수술계획 정보를 기초로 상기 절삭 경로를 구성하는 복수의 절삭 타깃 지점의 위치를 획득하는 타깃획득부; 상기 수술로봇을 통한 수술 진행에 대응하여 상기 절삭 타깃 지점 사이에서의 상기 수술로봇의 현재 절삭 위치를 산출하는 로봇위치 산출부; 수술대상 뼈에 대응하는 가상 뼈 모델 상에 상기 절삭 타깃 지점의 위치와 상기 수술로봇의 현재 절삭 위치를 포함하는 수술 진행 정보를 그래픽으로 생성하는 GUI 제공부; 및 상기 가상 뼈 모델과 상기 수술 진행 정보를 표시하는 디스플레이부를 포함하는 것을 특징으로 한다. 이와 같이, 수술 전 계획된 절삭 경로와 현재 수술로봇이 절삭 경로 상 어느 위치를 지나가고 있는지에 관한 수술 진행 정보, 및 수술로봇의 상태정보를 사용자에게 제공함으로써 사용자가 수술 진행 상황을 인지하고, 수술 진행을 모니터링할 수 있도록 도와준다.

Description

관절치환 로봇수술 정보 제공 장치 및 제공 방법
본 발명은 로봇수술 정보 제공 장치 및 제공 방법에 관한 것으로, 더욱 상세하게는, 로봇을 통한 인공관절 치환수술이 수행되는 과정에서 수술 진행에 관한 정보를 제공하는 장치 및 방법에 관한 것이다.
1994년에 ROBODOC을 이용한 로봇수술이 처음 수행된 이래, 최근 무릎관절 치환술, 고관절 치환술 등의 인공관절 치환수술을 비롯하여 정형외과 분야에서 수술로봇이 다양하게 활용되고 있으며, 이를 위한 로봇 시스템도 지속적으로 개발되고 있다.
로봇수술은 의사에 의한 직접수술에 비하여 수술의 정확도 및 환자의 만족도를 향상시킬 수 있을 뿐 아니라, 수술 후 발생할 수 있는 합병증이 감소되는 것으로 보고되고 있어 향후 정형외과 분야에서 로봇수술의 비중은 점차 확대될 것으로 전망된다.
로봇수술은 크게 수동형(Passive) 로봇수술, 반능동형(Semi-active) 로봇수술, 및 능동형(Active) 로봇수술로 구분될 수 있다. 수동형 로봇수술은 전체 수술과정에서 수술자가 로봇을 직접적으로 조작하여 수술하는 방법이고, 반능동형 로봇수술은 수술자가 로봇을 이용하여 절삭 등의 과정을 진행하지만 위 과정에서 햅틱 피드백 등을 통하여 로봇이 수술자에 의한 수술 도구의 움직임을 미리 정해진 경로에 맞게 제한하는 역할을 수행하게 된다. 한편, 능동형 로봇수술은 수술자의 개입 없이 수술 전 계획에 따라 로봇이 자동으로 수술을 진행하는 방법이다.
이처럼, 수동형 또는 반능동형 로봇수술과 달리 능동형 로봇수술에서는 수술자의 개입이 배제되기 때문에 현재 로봇이 수술 전 계획된 경로에 따라 정확하게 진행하고 있는지 여부나 로봇이 현재 동작하는 속도, 및 로봇이 받는 부하 등 수술자가 수술 진행 상황을 모니터링할 수 있는 수술정보가 부재한다는 문제점이 존재한다. 이로 인하여, 뼈 절삭을 위하여 로봇이 이동할 경로 상에 수술자가 위치하는 경우 수술자의 심한 부상을 야기할 수 있으며, 로봇이 잘못된 경로를 따라 진행되고 있더라도 수술자가 이를 신속하게 파악하기 어려워 환자에 큰 위험을 초래할 수 있다.
그러나, 종래 수술로봇 시스템은 수술정보를 전혀 제공하지 않거나, 제공하더라도 절삭이 완료된 후의 뼈 영상 등 지극히 제한적인 정보 제공에만 그치고 있을 뿐이며, 로봇의 현재 진행 상황, 또는 앞으로 진행될 상황 등을 전체적으로 파악할 수 있는 정보는 제공하지 못하고 있다.
이에, 수술이 진행되는 과정에서 수술자가 로봇이 진행하는 수술 경로나 로봇의 상태를 신속하게 파악할 수 있는 수술정보의 제공이 필요한 실정이다. 특히, 수술자의 개입이 배제되는 능동형 로봇수술에서는 이러한 수술정보의 제공이 더욱 절실하다.
본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 제안된 것으로, 관절 치환 로봇수술이 진행되는 과정에서 수술자가 로봇이 진행하는 수술 경로나 로봇의 상태를 파악할 수 있는 수술정보를 제공하는 장치 및 방법을 제공하는 것에 목적이 있다.
상기한 목적은 본 발명의 일 양태에 따른 관절치환 로봇수술 정보 제공 장치에 있어서, 수술대상 뼈의 절삭 경로를 포함하여 수술 전 설정된 수술계획 정보를 저장하는 메모리부; 상기 수술계획 정보를 기초로 상기 절삭 경로를 구성하는 복수의 절삭 타깃 지점의 위치를 획득하는 타깃획득부; 상기 수술로봇을 통한 수술 진행에 대응하여 상기 절삭 타깃 지점 사이에서의 상기 수술로봇의 현재 절삭 위치를 산출하는 로봇위치 산출부; 수술대상 뼈에 대응하는 가상 뼈 모델 상에 상기 절삭 타깃 지점의 위치와 상기 수술로봇의 현재 절삭 위치를 포함하는 수술 진행 정보를 그래픽으로 생성하는 GUI 제공부; 및 상기 가상 뼈 모델과 상기 수술 진행 정보를 표시하는 디스플레이부를 포함하는 것을 특징으로 하는 관절치환 로봇수술 정보 제공 장치에 의해서 달성될 수 있다.
여기서, 상기 수술로봇에 의하여 절삭이 진행되는 상기 수술대상 뼈의 부위에 따라 상기 디스플레이부를 통하여 표시되는 상기 가상 뼈 모델에 대한 시점(View)을 전환하는 뷰 전환부를 더 포함할 수 있다.
한편, 상기 타깃획득부는, 상기 수술대상 뼈에 치환될 임플란트를 기준으로 한 제1 좌표계에 따른 상기 절삭 타깃 지점의 위치를 상기 가상 뼈 모델을 기준으로 한 제2 좌표계에 따른 위치로 좌표변환을 수행할 수 있다.
그리고, 상기 로봇위치 산출부는, 상기 수술계획 정보에 따른 상기 수술로봇의 절삭속도와 상기 절삭 타깃 지점 간 거리를 기초로 상기 수술로봇의 현재 절삭 위치를 추정할 수 있다.
여기서, 상기 수술로봇의 위치를 추적하는 트랙킹 장치로부터 수신된 정보에 기초한 상기 수술로봇의 실제 절삭 위치가 추정된 상기 수술로봇의 현재 절삭 위치로부터 미리 결정된 거리 이상 떨어진 경우 알림을 제공하는 알림부를 더 포함할 수 있다.
또한, 상기 로봇위치 산출부는, 상기 수술로봇의 위치를 추적하는 트랙킹 장치로부터 수신한 정보를 기초로 상기 수술로봇의 현재 절삭 위치를 산출할 수 있다.
한편, 상기 수술로봇으로부터 상기 수술로봇의 상태정보를 수신하는 신호수신부를 더 포함하고, 상기 디스플레이부는, 상기 수술로봇의 상태정보를 표시할 수 있다.
그리고, 상기 GUI 제공부는, 상기 수술로봇의 동작 온오프 상태에 대응하여 상기 디스플레이부를 통한 상기 수술 진행 정보의 표시여부를 결정할 수 있다.
아울러, 상기 GUI 제공부는, 복수의 상기 절삭 타깃 지점에 각각 대응하는 도형, 상기 절삭 타깃 지점을 연결하여 형성되는 절삭 라인, 및 상기 수술로봇의 현재 절삭 위치에 대응하는 도형을 생성할 수 있다.
또한, 상기 GUI 제공부는, 상기 절삭 타깃 지점을 연결하여 형성되는 절삭 라인을 그래픽으로 생성하되, 상기 로봇위치 산출부를 통해 산출된 상기 수술로봇의 현재 절삭 위치를 기초로 상기 수술로봇이 이미 통과한 상기 절삭 라인과 현재 통과하고 있는 상기 절삭 라인이 서로 구분되도록 생성할 수 있다.
뿐만 아니라, 상기한 목적은 본 발명의 또 다른 양태에 따른 각 단계가 관절치환 로봇수술 정보를 제공하는 관절치환 로봇수술 정보 제공 장치를 통하여 수행되는 관절치환 로봇수술 정보 제공 방법에 있어서, 수술대상 뼈의 절삭 경로를 포함하여 수술 전 설정된 수술계획 정보를 저장하는 단계; 상기 수술계획 정보를 기초로 상기 절삭 경로를 구성하는 복수의 절삭 타깃 지점의 위치를 획득하는 단계; 상기 수술로봇을 통한 수술 진행에 대응하여 상기 절삭 타깃 지점 사이에서의 상기 수술로봇의 현재 절삭 위치를 산출하는 단계; 수술대상 뼈에 대응하는 가상 뼈 모델 상에 상기 절삭 타깃 지점의 위치와 상기 수술로봇의 현재 절삭 위치를 포함하는 수술 진행 정보를 그래픽으로 생성하는 단계; 및 상기 가상 뼈 모델과 상기 수술 진행 정보를 디스플레이부에 표시하는 단계를 포함하는 것을 특징으로 하는 관절치환 로봇수술 정보 제공 방법에 의하여 달성될 수도 있다.
여기서, 상기 관절치환 로봇수술 정보 제공 방법은, 상기 수술로봇에 의하여 절삭이 진행되는 상기 수술대상 뼈의 부위에 따라 상기 디스플레이부를 통하여 표시되는 상기 가상 뼈 모델에 대한 시점(View)을 전환하는 단계를 더 포함할 수 있다.
한편, 상기 수술로봇의 현재 절삭 위치를 산출하는 단계는, 상기 수술계획 정보에 따른 상기 수술로봇의 절삭속도와 상기 절삭 타깃 지점 간 거리를 기초로 상기 수술로봇의 현재 절삭 위치를 추정할 수 있다.
또한, 상기 수술 진행 정보를 그래픽으로 생성하는 단계는, 복수의 상기 절삭 타깃 지점에 각각 대응하는 도형, 상기 절삭 타깃 지점을 연결하여 형성되는 절삭 라인, 및 상기 수술로봇의 현재 절삭 위치에 대응하는 도형을 생성할 수 있다.
아울러, 상기 수술 진행 정보를 그래픽으로 생성하는 단계는, 상기 절삭 타깃 지점을 연결하여 형성되는 절삭 라인을 그래픽으로 생성하되, 상기 수술로봇의 현재 절삭 위치를 기초로 상기 수술로봇이 이미 통과한 상기 절삭 라인과 현재 통과하고 있는 상기 절삭 라인이 서로 구분되도록 생성할 수 있다.
이상에서 설명된 바와 같이, 본 발명에 따르면, 수술 전 계획된 절삭 경로와 현재 수술로봇이 절삭 경로 상 어느 위치를 지나가고 있는지에 관한 수술 진행 정보, 및 수술로봇의 상태정보를 사용자에게 제공함으로써 사용자가 수술 진행 상황을 인지하고, 수술 진행을 모니터링할 수 있도록 도와준다.
도 1은 본 발명의 실시예에 따른 관절치환 로봇수술 정보 제공 장치를 포함하는 관절치환 로봇수술 시스템의 개략적인 구성을 나타내는 구성도;
도 2는 본 발명의 실시예에 따른 관절치환 로봇수술 정보 제공 장치의 세부 구성을 나타낸 블록도;
도 3은 본 발명의 실시예에 따른 수술 계획의 절삭 경로를 설명하기 위한 참고도;
도 4는 본 발명의 실시예에 따른 타깃획득부를 통하여 절삭 타깃 지점의 위치가 획득되는 예를 설명하기 위한 참고도;
도 5는 본 발명의 실시예에 따른 뷰 전환부의 동작을 설명하기 위한 화면의 예;
도 6은 본 발명의 실시예에 따른 관절치환 로봇수술 정보 제공 방법을 나타낸 흐름도;
도 7 및 도 8은 수술로봇이 대퇴골의 distal 부분을 절삭할 때 표시되는 화면의 예;
도 9는 수술로봇의 수술도구의 작동이 오프된 상태에서 표시되는 화면의 예; 및
도 10은 수술로봇이 대퇴골의 Anterior 부분을 절삭할 때 표시되는 화면의 예이다.
이하, 도면을 참조하여 본 발명의 구체적인 실시예들에 대하여 설명하기로 한다. 다만 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.
참고로, 본 명세서에서 기재하는 관절치환 로봇수술은 무릎 관절치환 로봇수술 및 고관절치환 로봇수술을 포함한다. 이하에서는, 관절치환 로봇수술 중 무릎 관절치환 로봇수술을 일 예로 들어 설명하기로 한다.
도 1은 본 발명의 실시예에 따른 관절치환 로봇수술 정보 제공 장치를 포함하는 관절치환 로봇수술 시스템(1)의 개략적인 구성을 나타내는 구성도이다.
도 1을 참조하면, 수술현장 내에 배치되는 관절치환 로봇수술 시스템(1)은 수술대상 뼈(B1, B2)에 고정된 뼈 마커(BM1, BM2), 수술로봇(100), 트랙킹 장치(200), 및 관절치환 로봇수술 정보 제공 장치(300)를 포함한다.
수술대상 뼈(B1, B2)는 로봇수술의 대상이 되는 뼈를 의미하는 것으로, 도 1에서는 일 예로서 대퇴골(Femur)(B1)과 경골(Tibia)(B2)을 보여준다. 대퇴골(B1)과 경골(B2)에는 수술 중 대퇴골(B1)과 경골(B2)의 위치추적시 그 기준이 되는 뼈 마커(BM1, BM2)가 각각 고정된다.
수술로봇(100)은 관절치환을 위한 수술을 수행하는 로봇으로서 로봇 베이스(101)와 로봇암(103)으로 구성되며, 로봇암(103)의 끝단인 엔드이펙터에는 버(bur)를 포함하여 뼈의 절삭 등을 수행하기 위한 각종 수술도구(103a)가 결합될 수 있다. 또한, 수술로봇(100)에는 결합된 수술도구에 가해지는 부하, 로봇의 동작속도 등 수술로봇(100)의 상태정보를 센싱할 수 있는 각종 센서들이 장착될 수 있다. 수술로봇(100)의 베이스(101)에는 수술 중 수술로봇(100)의 위치추적시 그 기준이 되는 로봇마커(RM)가 고정된다.
참고로, 뼈 마커(BM1, BM2)와 로봇마커(RM)로는 수동(Passive) 또는 능동(Active) 타입의 광학식 마커가 적용될 수 있다. 광학식 마커는 중심점을 기준으로 서로 다른 방향으로 분기되는 가지 형태의 복수의 바(Bar) 부재를 포함하고, 각 바의 단부에는 볼마커가 형성될 수 있다. 이는 광학식 마커 형상의 일 예시일 뿐이며, 이 외에도 공지된 다양한 형상으로 구현될 수 있음은 물론이다.
트랙킹 장치(200)는 수술대상 뼈(B1, B2)에 고정된 뼈 마커(BM1, BM2) 및 수술로봇(100)에 고정된 로봇마커(RM)의 위치와 자세(Pose)를 추적하기 위한 것으로, 광학식 추적 시스템(Optical Tracking System, OTS)으로 구현될 수 있다. 참고로, 광학식 추적 시스템은 마커를 2대의 적외선 카메라에 의하여 추적하고, 삼각측량법으로 그 거리를 환산함으로써 3차원 공간상에서의 위치 및 자세를 실시간으로 추적할 수 있는 장비이다. 이러한 광학식 추적 시스템의 추적 원리는 널리 알려져 있으므로 설명의 간략화를 위하여 구체적인 설명은 생략하기로 한다.
관절치환 로봇수술 정보 제공 장치(300)(이하, '수술정보 제공 장치')는 수술로봇(100)을 통하여 수술대상 뼈(B1, B2)에 대한 수술이 진행될 때, 수술 진행 정보를 생성하여 제공한다. 여기서, 수술 진행 정보는, 수술로봇(100)을 통하여 수술대상 뼈(B1, B2)가 절삭되는 절삭 경로, 수술로봇(100)이 현재 절삭하고 있는 절삭 위치, 및 수술로봇(100)의 상태정보를 포함한다.
수술정보 제공 장치(300)는 컴퓨터(프로세서)와 디스플레이를 포함하여 구현될 수 있다. 도 1에서는 수술정보 제공 장치(300)가 수술로봇(100)과 물리적으로 분리되어 별도의 장치로 구현되는 것으로 도시되었으나, 경우에 따라서는 수술정보 제공 장치(300)의 프로세서는 수술로봇(100) 내에, 또한, 디스플레이는 트랙킹 장치(200)에 연결되어 함께 설치되고, 통신모듈을 통하여 각종 정보들을 송수신하도록 구현될 수 있음은 물론이다.
도 2는 본 발명의 실시예에 따른 수술정보 제공 장치(300)의 세부 구성을 나타낸 블록도이다. 도 2를 참조하면, 본 발명의 실시예에 따른 수술정보 제공 장치(300)는 신호수신부(310), 디스플레이부(320), 메모리부(330), 및 제어부(340)를 포함한다.
신호수신부(310)는 외부로부터 신호나 각종 데이터를 수신하기 위한 것으로, 예컨대, 외부기기와의 연결을 위한 HDMI(High Definition Multimedia Interface) 커넥터, 디-서브(D-sub) 커넥터, 또는 인터넷 망을 비롯한 유/무선 네트워크와 연결하기 위한 통신모듈을 포함할 수 있다. 신호수신부(310)는 수술로봇(100)과 트랙킹 장치(200)로부터 각종 정보를 송수신한다. 예컨대, 신호수신부(310)는 수술로봇(100)에서 센싱된 각종 로봇 상태정보를 수신할 수 있으며, 트랙킹 장치(200)로부터 추적된 수술대상 뼈(B1, B2)와 수술로봇(100)의 위치와 자세에 관한 정보를 수신한다.
디스플레이부(320)는 영상, 그래픽 등을 포함한 각종 정보를 화면에 표시하기 위한 것으로, 액정 디스플레이(LCD) 패널, 발광 다이오드(LED) 패널, 유기 발광 다이오드(OLED) 패널 등으로 구현될 수 있다. 디스플레이부(320)는 로봇수술이 진행되는 동안 수술 진행 정보와 가상 뼈 모델 등을 표시한다. 가상 뼈 모델은 수술 전 획득된 수술 대상 뼈에 관한 의료영상, 예컨대, CT 영상, MRI 영상, X-ray 영상 등을 기초로 재구성된 2/3차원 뼈 모델을 의미한다.
메모리부(330)는 RAM 등의 메모리 소자로 구현되어, 수술정보 제공 장치(300)의 다양한 운영체제(OS), 미들웨어, 플랫폼, 및 각종 어플리케이션을 저장할 수 있으며, 프로그램 코드 및 신호처리된 영상신호, 음성신호, 및 각종 데이터를 저장할 수 있다. 메모리부(330)는 수술 전 획득된 환자 의료영상, 의료영상을 기초로 재구성된 가상 뼈 모델, 수술 전 설정된 수술 계획 정보 등을 저장한다. 수술 계획은 환자 의료영상을 기초로 수립될 수 있으며, 수술 계획 정보에는 수술대상 뼈에 설치될 임플란트 종류, 형상, 크기, 임플란트 설치 위치, 설치 방향, 수술대상 뼈의 절삭 경로, 절삭 속도 등에 관한 정보가 포함된다. 절삭 경로는 직선, 곡선, 또는 이들이 결합된 형상으로 다양하게 정의될 수 있다. 이때, 절삭 경로나 절삭 속도는 각 절삭면에 대하여 통합적으로 또는 개별적으로 계획될 수 있다.
도 3은 본 발명의 실시예에 따른 수술 계획의 절삭 경로를 설명하기 위한 도면으로서, 총 무릎관절 치환 로봇수술시 대퇴골(B1)과 경골(B2)의 절삭면을 보여준다.
도 3을 참조하면, 수술시 대퇴골은 6면을 절삭하고, 경골은 3면을 절삭하게 된다. 이와 같이 복수의 절단면에 대한 절삭이 이루어질 때, 수술 계획은 각 절단면에 대한 절삭 경로와 각 절삭 경로에서의 절삭 속도로서 각각의 절단면에 대해서 개별적으로 설정될 수도 있으며, 이와 달리 모든 절삭면에 대하여 통합적으로 설정될 수도 있다.
제어부(340)는 사용자 입력부(미도시)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 수술정보 제공 장치(300)의 전반적인 동작을 제어한다. 제어부(340)는 신호 처리 및 제어를 위한 프로그램 코드 및 프로그램을 실행하는 프로세서를 포함하여 구현될 수 있다. 제어부(340)는 로봇수술의 진행 과정에 대응하여 수술 진행 정보를 그래픽으로 생성하여 제공함으로써 사용자로 하여금 수술로봇(100)에 의한 수술 진행 과정을 인지하고 모니터링할 수 있도록 한다.
도 2를 참조하면, 제어부(340)는 타깃획득부(341), 로봇위치 산출부(343), GUI 제공부(345), 뷰 전환부(347). 및 알림부(349)를 포함한다. 참고로, 설명의 편의상 제어부(340)를 기능적으로 세부 구성으로 구분하였으나, 제어부(340)는 세부 구성인 타깃획득부(341), 로봇위치 산출부(343), GUI 제공부(345), 뷰 전환부(347), 및 알림부(349)의 각 기능을 수행하기 위한 명령어를 포함하여 작성된 소프트웨어 프로그램과 이를 실행하는 프로세서로 구현될 수 있다.
타깃획득부(341)는 메모리부(330)에 저장된 수술계획 정보를 기초로 절삭 경로를 구성하는 복수의 절삭 타깃 지점의 위치를 획득한다. 절삭 경로는 복수의 점에 대응하는 복수의 절삭 타깃 지점들의 위치 좌표의 집합으로 설정될 수 있다.
참고로, 수술 계획시 임플란트의 형상, 크기, 및 임플란트의 위치 및 방향에 관한 계획이 선행되고 임플란트 계획에 따라 절삭 경로가 결정되기 때문에, 절삭 경로는 임플란트의 원점을 기준으로 한 임플란트 좌표계에서 설정된다. 따라서, 후술되는 바와 같이, 수술 계획시 설정된 절삭 경로를 가상 뼈 모델 상에 표시하기 위해서는 수술 계획에 따른 절삭 타깃 지점의 위치 좌표를 가상 뼈 모델의 원점을 기준으로 한 뼈 모델 좌표계에 따른 위치 좌표로 변환하는 프로세싱이 필요하다.
이에, 타깃획득부(341)는 뼈 모델 좌표계와 임플란트 좌표계 간 변환행렬을 임플란트 좌표계에서 정의된 타깃 지점의 위치좌표에 곱하여 좌표변환을 수행한다. 이와 같이, 하나의 좌표계에서 나타낸 어떤 점의 좌표를 다른 좌표계의 좌표로 나타내기 위한 좌표변환 방법은 널리 공지된 기술이므로 설명의 간략화를 위하여 구체적인 설명은 생략하기로 한다.
타깃획득부(341)는 복수의 절삭 타깃 지점의 위치 획득시, 절삭 경로의 형상 내지 형태에 따라 획득하는 절삭 타깃 지점의 개수를 달리 결정할 수 있다.
도 4는 본 발명의 실시예에 따른 타깃획득부(341)를 통하여 절삭 타깃 지점의 위치가 획득되는 예를 설명하기 위한 참고도이다.
도 4를 참조하면, 도 4의 (a)에는 절삭 경로가 직선들의 조합으로 구성되는 예시가 도시되어 있고, (b)에는 곡선의 형상으로 구성되는 예시가 도시되어 있다.
타깃획득부(341)는 도 4의 (a)와 같이 절삭 경로가 직선, 또는 직선들의 조합으로 구성된 경우에는 하나의 직선 경로가 시작되는 시점, 해당 직선 경로가 종결되는 종점으로 2개의 지점에 대응하는 절삭 타깃 지점의 위치를 획득하도록 할 수 있다. 예컨대, 도 4의 (a)와 같이 절삭 경로가 5개의 직선들의 조합으로 구성될 때, 타깃획득부(341)는 하나의 직선에서 다른 직선으로 경로가 전환되는 것에 대응하여 각 직선의 시점과 종점에 해당하는 p1~p6의 위치를 획득할 수 있다. 이때, 절삭 경로를 구성하는 직선이 서로 연결되어 있으므로 p2, p3, p4, p5는 하나의 직선의 종점임과 동시에 연결되는 또 다른 직선의 시점에 해당하게 됨을 알 수 있다.
참고로, 도 4의 (a)에서는 복수의 직선이 서로 연결되어 있는 형태가 예시되어 있으나, 절삭 경로는 분리된 복수의 직선 형태, 또는 분리된 복수의 직선의 조합 등으로 구성될 수도 있음은 물론이다.
한편, 도 4의 (b)와 같이 절삭 경로가 곡선의 형태를 취하고 있을 때에는 타깃획득부(341)는 곡선의 곡률, 곡률의 변화율, 및 방향 전환에 따라 곡선의 시점과 종점 뿐 아니라 직선 경로에 비하여 더 많은 개수의 절삭 타깃 지점 위치를 획득할 수 있다. 예컨대, 곡률이나 곡률의 변화율이 큰 경우 더 많은 개수를 획득할 수 있도록 구현될 수 있다. 참고로, 도 4의 (b)에서는 p10~p23으로서 14개의 위치가 획득된 예를 보여주고 있다.
로봇위치 산출부(343)는 수술로봇(100)을 통한 수술 진행에 대응하여 타깃획득부(341)를 통해 획득된 절삭 타깃 지점 사이에서의 수술로봇(100)의 현재 절삭 위치를 산출한다. 여기서, 수술로봇(100)의 현재 절삭 위치는 추정된 위치가 될 수도 있고, 수술로봇(100)이 수술도구를 통해 현재 실제로 절삭하는 실제 위치가 될 수도 있다.
즉, 로봇위치 산출부(343)는 메모리부(330)에 저장된 수술계획 정보에 따른 수술로봇(100)의 절삭속도, 수술로봇(100)이 절삭을 수행한 시간, 타깃획득부(341)를 통하여 획득된 절삭 타깃 지점 간 거리를 기초로 수술로봇(100)의 현재 절삭 위치를 추정할 수 있다. 예컨대, 수술로봇(100)의 절삭도구가 온(on)이 되어 절삭동작이 시작된 시간이 t1이며 현재 시간이 t2일 때, 수술계획 정보에 따른 수술로봇(100)의 절삭속도가 v라고 가정하면, 수술로봇(100)이 이동한 거리는 (t2-t1)*v가 될 것이다. 이를 기초로, 복수의 절삭 타깃 지점 사이에서 수술로봇(100)의 현재 절삭 위치가 어느 곳인지 추정할 수 있다. 이때, 수술계획 정보에 따른 수술로봇(100)의 절삭속도가 절삭 위치에 따라 상이하게 계획된 경우, 해당 절삭 위치에 대응하는 계획된 절삭속도를 적용하여 현재 절삭 위치를 추정해야 할 것이다.
또한, 로봇위치 산출부(343)는 트랙킹 장치(200)로부터 수신한 수술로봇(100)의 위치에 관한 정보, 수술전 수행하는 로봇 캘리브레이션, 영상인 가상 뼈 모델과 로봇의 공간 정합을 기초로 수술로봇(100)의 가상 뼈 모델 상 실제 위치를 파악하여 현재 절삭 위치를 산출할 수 있다.
로봇위치 산출부(343)는 전술된 추정 절삭 위치와 실제 절삭 위치 중 어느 하나만을 산출할 수도 있지만, 둘을 모두 산출할 수도 있다.
수술이 진행되는 과정에서 수술로봇(100)의 절삭 위치는 시시각각 변화되므로, 로봇위치 산출부(343)는 실시간으로 변화되는 현재 절삭 위치를 산출하여 업데이트한다.
GUI 제공부(345)는 수술대상 뼈에 대한 가상 뼈 모델 상에 수술 진행 정보를 그래픽으로 생성한다. 즉, GUI 제공부(345)는 타깃획득부(341)를 통하여 획득된 절삭 타깃 지점의 위치와 로봇위치 산출부(343)를 통하여 산출된 수술로봇(100)의 현재 절삭 위치를 포함하는 수술 진행 정보를 그래픽으로 생성한다. 생성된 수술 진행 정보는 디스플레이부(320)를 통하여 가상 뼈 모델 상에 중첩되어 표시된다. GUI 제공부(345)는 생성된 데이터를 디스플레이부(320)에 전달하기 위한 그래픽 카드(graphic card)를 포함하여 구현될 수 있다.
GUI 제공부(345)는 타깃획득부(341)를 통하여 획득된 복수의 절삭 타깃 지점에 각각 대응하는 도형, 수술로봇(100)의 절삭 순서에 따라 절삭 타깃 지점을 서로 연결하여 형성되는 절삭 라인(직선 또는 곡선), 로봇위치 산출부(343)를 통하여 산출된 수술로봇(100)의 현재 절삭 위치에 대응하는 도형을 그래픽으로 생성한다. 수술로봇(100)의 현재 절삭 위치를 기초로 수술로봇(100)이 이미 통과한 절삭 라인과 현재 통과하고 있는 절삭 라인이 그래픽적으로 서로 구분되도록 생성될 수 있을 것이다. 예컨대, 이미 통과한 절삭 라인과 현재 통과하고 있는 절삭 라인의 색상, 투명도, 라인의 깜빡임 여부, 라인의 종류 등을 달리할 수 있을 것이다.
또한, 로봇위치 산출부(343)가 추정 절삭 위치와 실제 절삭 위치를 모두 산출하는 경우 두 위치를 표시하기 위한 형상, 색상 등을 달리하여 서로 구분되도록 표시함으로써 사용자가 두 위치의 거리 차이 등을 육안으로 식별하여 수술 진행 상황을 쉽게 모니터링하도록 할 수 있다.
한편, GUI 제공부(345)는 수술로봇(100)의 동작 온오프 상태에 대응하여 디스플레이부(320)를 통한 수술 진행 정보의 표시여부 및 표시양태를 결정할 수 있다. 예컨대, 수술로봇(100)의 절삭을 위한 수술도구가 온이 된 경우에는 수술 진행 정보가 가상 뼈 모델 상에 중첩되어 표시되도록 하고, 수술도구가 오프된 경우에는 수술진행 정보가 표시되지 않도록 할 수 있다. 또는, 수술도구가 오프된 경우에도 수술진행 정보가 표시되되, 회색과 같이 시인성이 상대적으로 낮은 색상으로 표시하거나 투명도를 높여 연하게 보이도록 할 수도 있을 것이다.
디스플레이부(320)에는 GUI 제공부(345)를 통한 수술 진행 정보 뿐 아니라 절수술도구의 온오프 정보, 수술도구에 가해지는 부하, 수술로봇(100)의 속도 등의 상태정보가 함께 표시될 수 있다. 이때, 수술로봇(100)의 속도는 수술 계획에 따른 속도일 수도 있고, 또는 절삭과정에서 센싱되는 값을 기초로 한 실제 속도일 수도 있다.
뷰 전환부(347)는 수술로봇(100)에 의하여 절삭이 진행되는 수술대상 뼈의 부위에 따라 디스플레이부(320)를 통하여 표시되는 가상 뼈 모델에 대한 시점(View)을 전환한다.
도 5는 본 발명의 실시예에 따른 뷰 전환부(347)의 동작을 설명하기 위한 화면의 예시이다. 도 5의 (a)와 같이 수술로봇(100)이 대퇴골의 distal을 절삭할 때에는 해당 부분이 잘 보이도록 distal 중심이 화면의 정면에 위치하도록 뷰를 설정하고, (b)와 같이 대퇴골의 anterior를 절삭할 때에는 anterior 중심이 화면에 정면에 위치하도록 뷰를 전환할 수 있다.
뷰 전환부(347)는 키보드, 마우스 등과 같이 사용자의 입력을 받는 사용자 입력부(미도시)를 통하여 현재 수술대상 뼈의 어떤 부분이 절삭이 이루어지고 있는지에 관한 사용자 입력을 받아 이를 기초로 뷰 전환을 수행할 수 있다. 또는, 트랙킹 장치(200)를 통해 추적된 수술로봇(100)의 위치정보 또는 수술로봇(100)으로부터 센싱된 정보를 수신하고, 수술로봇(100)의 로봇암이 수술대상 뼈에 대해서 어떠한 방향 또는 위치로 이동하는지, 또는 수술도구의 방향전환 상태를 파악하여 자동으로 뷰를 전환하도록 구현될 수도 있다.
뷰 전환부(347)는 오일러각(Euler Angle), 회전행렬(Rotation Matrix), 짐벌락(Gimbal Lock) 문제를 개선한 쿼터니언(Quaternion) 등을 적용하여 가상 뼈 모델을 회전하거나 뷰를 변경할 수 있다. 이와 같이, 화면 상에 표시되는 객체를 회전 처리하거나 뷰 방향을 변경하는 것은 공지된 다양한 연산에 의할 수 있는 것이므로 설명의 간략화를 위하여 상세한 설명은 생략하기로 한다.
또한, 뷰 전환부(347)는 뷰 전환과 함께 절삭면의 크기, 가상 뼈 모델의 절삭면 상에 표시되는 절삭 타깃 지점의 개수에 대응하여 소정의 배율로 가상 뼈 모델을 확대 또는 축소시킬 수 있다. 예컨대, 절삭면의 크기가 상대적으로 작은 경우 가상 뼈 모델의 크기를 확대하여 크게 보이도록 표시할 수 있으며, 가상 뼈 모델 상에 중첩 표시되어야 하는 절삭 타깃 지점의 개수가 많은 경우에도 사용자가 각 절삭 타깃 지점을 쉽게 구분할 수 있도록 가상 뼈 모델을 확대 표시할 수 있을 것이다.
알림부(349)는 수술로봇(100)를 통하여 수술계획 정보에 따른 절삭 경로를 벗어나 절삭이 이루어지고 있는 경우 사용자에게 알림을 제공한다. 알림부(349)는 스피커를 포함하여 구현되어 경고음 등의 소리를 통하여 알림을 제공할 수 있으며, 또는 디스플레이부(320)를 통하여 메시지를 표시함으로써 시각적인 표시로 알림을 제공할 수도 있다.
알림부(349)는 트랙킹 장치(200)로부터 수신된 수술로봇(100)의 위치 정보를 기초로 수술로봇(100)의 실제 절삭 위치가 로봇위치 산출부(343)를 통하여 추정된 수술로봇(100)의 현재 절삭 위치로부터 미리 결정된 거리 이상 떨어진 경우 알림을 제공할 수 있다. 또한, 트랙킹 장치(200)로부터 수신된 정보를 기초로 산출된 실제 절삭 위치가 수술계획 정보에 따른 절삭 경로로부터 미리 결정된 기준 이상으로 벗어난 경우 알림을 제공할 수도 있을 것이다.
전술된 구성을 통하여 본 발명에 따른 수술정보 제공 장치(300)는 가상 뼈 모델 상에 수술계획에 따른 절삭 경로 정보와 수술로봇(100)의 현재 절삭 위치, 로봇 상태 등의 수술 진행 정보를 표시함으로써 사용자로 하여금 수술 진행 상황을 인지하고, 수술 진행을 모니터링할 수 있도록 도와준다.
도 6은 본 발명의 실시예에 따른 관절치환 로봇수술 정보 제공 방법을 나타낸 흐름도이다. 이하, 도 6을 참조하여, 전술된 수술정보 제공 장치(300) 구성의 유기적인 동작을 살펴본다. 앞서 설명된 실시예와 중복되는 설명은 생략하기로 한다.
도 6을 참조하면, 본 발명의 실시예에 따른 관절치환 로봇수술 정보 제공 방법은 수술 전 플래닝을 통하여 작성된 수술계획 정보를 메모리부(330)에 저장하는 것이 전제된다(S10). 수술 전 플래닝은 공지된 다양한 플래닝 소프트웨어를 이용하여 수술 전 촬영된 환자 의료영상 기반으로 이루어질 수 있다. 수술 전 플래닝을 통하여 수술대상 뼈에 설치될 임플란트 종류, 형상, 크기, 임플란트 설치 위치/방향/각도, 해당 임플란트를 설치하기 위하여 수술대상 뼈를 절삭할 절삭 경로, 절삭할 부분의 뼈 밀도에 따른 절삭 속도 등의 수술계획 정보가 생성된다.
수술현장 내에 전술된 관절치환 로봇수술 시스템(1)의 구성이 마련되면, 공지된 기술을 적용하여 트랙킹 장치(200)의 비전 센서 기준 좌표계와 로봇의 기준 좌표계의 상관관계를 정립하기 위한 로봇 캘리브레이션 작업, 의료영상을 기반으로 계획된 수술계획을 실제 수술대상 뼈에 적용하기 위한 의료영상과 수술대상 뼈의 정합, 로봇의 위치/자세와 로봇 마커의 위치/자세 간의 상관관계를 정립하기 위한 로봇 정합 등이 수행되고 수술계획에 따라 로봇수술이 개시된다.
로봇수술이 개시되면, 타깃획득부(341)는 저장된 수술계획 정보를 기초로 절삭 경로를 구성하는 복수의 절삭 타깃 지점의 위치를 획득한다(S11). 이때 수술계획 정보에 따른 절삭 경로는 임플란트 좌표계를 기준으로 정의되므로, 이를 가상 뼈 모델 상에 표시하기 위해서는 임플란트 좌표계에 따른 위치좌표값을 가상 뼈 모델 좌표계에 따른 위치좌표값으로 좌표변환을 수행하는 처리가 이루어져야 한다. 한편, 타깃획득부(341)가 복수의 절삭 타깃 지점의 위치 획득시, 절삭 경로의 형상 내지 형태에 따라 획득하는 절삭 타깃 지점의 개수를 달리 결정할 수 있음은 전술된 바와 같다.
이어서, 로봇위치 산출부(343)는 수술로봇을 통한 수술 진행에 대응하여 절삭 타깃 지점 사이에서의 수술로봇(100)의 현재 절삭 위치를 산출한다(S13). 여기서, 현재 절삭 위치는 수술로봇(10)의 절삭동작 시간, 수술계획에 따른 절삭속도를 기초로 추정된 추정 위치이거나, 또는 트랙킹 장치(200)에 의하여 추적된 수술로봇(100)의 위치 정보를 기초로 산출된 가상 뼈 모델 상 실제 위치일 수도 있다.
다음으로, GUI 제공부(345)는 위의 단계에서 얻어진 데이터를 기초로 수술 진행 정보를 나타내는 그래픽을 생성한다(S15). 이때, 수술대상 뼈에 대응하는 가상 뼈 모델 상에 타깃획득부(341)를 통하여 획득된 복수의 절삭 타깃 지점에 각각 대응하는 도형, 수술로봇(100)의 절삭 순서에 따라 절삭 타깃 지점을 서로 연결하여 형성되는 절삭 라인(직선 또는 곡선), 로봇위치 산출부(343)를 통하여 산출된 수술로봇(100)의 현재 절삭 위치에 대응하는 도형을 그래픽으로 생성될 수 있다.
디스플레이부(320)는 GUI 제공부(345)로부터 그래픽으로 생성된 수술 진행 정보 및 수술로봇(100)에서 센싱된 상태정보를 가상 뼈 모델 상에 표시한다(S17).
도 7 내지 도 10은 본 발명의 실시예에 따른 디스플레이부(320)에 표시되는 화면의 예이다.
도 7과 도 8을 참조하면, 수술로봇(100)의 수술도구가 온이 된 상태에서 수술로봇(100)이 대퇴골의 distal 부분을 절삭할 때 표시되는 화면을 보여준다. 참고로, 도 8은 도 7에 도시된 것에 비하여 절삭이 더 진행된 상태를 도시하고 있다.
수술로봇(100)의 현재 절삭 위치(C)는 구 형상으로 표시되어 있고, 복수의 절삭 타깃 지점(P)들은 현재 절삭 위치(C)보다 크기가 상대적으로 작은 구 형상으로 표시된 예를 보여준다. 그러나, 이는 표시의 한 예이므로 구 형상 외 다양한 형상, 크기 및 색상으로 표현될 수 있음은 물론이다. 예컨대, 현재 절삭 위치(C)를 나타내는 구 형상은 빨강색, 절삭 타깃 지점(P)에 대응하는 구 형상은 노랑색으로 색상을 달리함으로써 이들을 서로 구분되도록 표현할 수 있다.
또한, 도 7 및 도 8을 참조하면, 수술로봇(100)이 이미 통과한 절삭 라인(Lp)은 노랑색으로, 현재 통과하고 있는 절삭 라인(Lc)은 빨강색 등으로 색상을 달리 표시하거나 채도, 명도, 선의 굵기 등을 달리하여 서로 구분되도록 표시함으로써 사용자가 현재 절삭이 진행되고 있는 부분을 직관적으로 파악할 수 있도록 도와줄 수 있다.
한편, 처음부터 수술계획에 따른 절삭 경로 전체에 대한 복수의 절삭 타깃 지점(P)과 절삭 라인(L)들을 모두 표시할 수도 있으나, 도 7 및 도 8에 나타난 바와 같이, 수술로봇(100)의 절삭 진행에 맞추어 순차적으로 절삭 타깃 지점(P)과 절삭 라인(L)이 표시되도록 구현될 수도 있다.
절삭이 진행됨에 따라 수술로봇(100)의 절삭 위치가 계속 변경되므로, 디스플레이부(320)에는 이러한 절삭 위치의 변경을 반영하여 현재 절삭 위치(C)가 절삭 라인(L)을 따라 실시간으로 움직이는 동영상과 같이 표시된다.
한편, 화면 좌측 상단에는 Cutting: 0n 이 표시되어 수술로봇(100)의 수술도구가 온이 된 상태를 보여주고 있으며, 좌측 하단에는 수술도구에 가해지는 부하가 N 단위로, 절삭 속도가 mm/s 단위로 함께 표시되고 있다. 이때, 절삭 속도는 수술 계획 정보에 따른 계획 속도 또는 실제 절삭 속도가 될 수 있음은 전술된 바와 같다.
도 9는 수술로봇(100)의 수술도구의 작동이 오프된 상태에서 표시되는 화면을 보여준다. 도 9를 참조하면, 좌측 상단에 off 인 상태정보만 표시되고 그 외 상태정보나 수술 진행 정보는 표시되지 않음을 확인할 수 있다. 이는 하나의 예시이며, 앞서 설명된 바와 같이, 위 정보들을 표시하되, 색상이나 투명도 등을 달리하여 온일 때와 오프일 때가 구분되도록 표시할 수도 있음은 물론이다.
도 10은 수술로봇(10)이 대퇴골의 Anterior 부분을 절삭할 때 표시되는 화면을 보여준다. 도 10을 참조하면, 현재 절삭 위치(C), 절삭 라인(L), 복수의 절삭 타깃 지점(P), 수술로봇 상태정보가 표시된 것은 동일하다. 다만, distal 부분을 절삭하고 있는 상태를 도시하고 있는 도 7이나 도 8과 비교할 때, Anterior 부분이 화면에 잘 보이도록 뷰 포인트의 시점이 변경되어 표시된 것을 확인할 수 있다.
이와 같이, 뷰 전환부(347)는 수술로봇(100)이 특정 부위의 절삭을 종료하고, 다른 부위에 대한 절삭을 시작한 경우 기존에 디스플레이된 수술 진행 정보를 삭제하고 다른 시점으로 뷰를 전환할 수 있다.
한편, 도 6을 참조하여 설명된 방법의 각 단계는 필요에 따라 적절하게 추가되거나 변경될 수도 있다. 예컨대, 절삭이 진행되는 과정에서 수술로봇(100)의 실제 절삭 위치가 추정된 수술로봇(100)의 현재 절삭 위치로부터 미리 결정된 거리 이상 떨어진 경우나 수술로봇(100)의 실제 절삭 위치가 수술계획 정보에 따른 절삭 경로로부터 미리 결정된 기준 이상으로 벗어난 경우 알림부(349)가 알림을 제공하는 단계가 더 추가될 수 있을 것이다.
전술된 바와 같이, 본 발명에 따른 관절치환 로봇수술 정보 제공 장치(300) 및 제공 방법에 의하면, 수술 전 계획된 절삭 경로와 현재 수술로봇(100)이 절삭 경로 상 어느 위치를 지나가고 있는지에 관한 수술 진행 정보, 및 수술로봇(100)의 상태정보를 사용자에게 제공함으로써 사용자가 수술 진행 상황을 인지하고, 수술 진행을 모니터링할 수 있도록 도와준다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 비록 한정된 도면에 의해 실시예들이 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (15)

  1. 수술대상 뼈의 절삭 경로를 포함하여 수술 전 설정된 수술계획 정보를 저장하는 메모리부;
    상기 수술계획 정보를 기초로 상기 절삭 경로를 구성하는 복수의 절삭 타깃 지점의 위치를 획득하는 타깃획득부;
    상기 수술로봇을 통한 수술 진행에 대응하여 상기 절삭 타깃 지점 사이에서의 상기 수술로봇의 현재 절삭 위치를 산출하는 로봇위치 산출부;
    수술대상 뼈에 대응하는 가상 뼈 모델 상에 상기 절삭 타깃 지점의 위치와 상기 수술로봇의 현재 절삭 위치를 포함하는 수술 진행 정보를 그래픽으로 생성하는 GUI 제공부; 및
    상기 가상 뼈 모델과 상기 수술 진행 정보를 표시하는 디스플레이부를 포함하는 것을 특징으로 하는 관절치환 로봇수술 정보 제공 장치.
  2. 제1항에 있어서,
    상기 수술로봇에 의하여 절삭이 진행되는 상기 수술대상 뼈의 부위에 따라 상기 디스플레이부를 통하여 표시되는 상기 가상 뼈 모델에 대한 시점(View)을 전환하는 뷰 전환부를 더 포함하는 것을 특징으로 하는 관절치환 로봇수술 정보 제공 장치.
  3. 제1항에 있어서,
    상기 타깃획득부는,
    상기 수술대상 뼈에 치환될 임플란트를 기준으로 한 제1 좌표계에 따른 상기 절삭 타깃 지점의 위치를 상기 가상 뼈 모델을 기준으로 한 제2 좌표계에 따른 위치로 좌표변환을 수행하는 것을 특징으로 하는 관절치환 로봇수술 정보 제공 장치.
  4. 제1항에 있어서,
    상기 로봇위치 산출부는,
    상기 수술계획 정보에 따른 상기 수술로봇의 절삭속도와 상기 절삭 타깃 지점 간 거리를 기초로 상기 수술로봇의 현재 절삭 위치를 추정하는 것을 특징으로 하는 관절치환 로봇수술 정보 제공 장치.
  5. 제4항에 있어서,
    상기 수술로봇의 위치를 추적하는 트랙킹 장치로부터 수신된 정보에 기초한 상기 수술로봇의 실제 절삭 위치가 추정된 상기 수술로봇의 현재 절삭 위치로부터 미리 결정된 거리 이상 떨어진 경우 알림을 제공하는 알림부를 더 포함하는 것을 특징으로 하는 관절치환 로봇수술 정보 제공 장치.
  6. 제1항에 있어서,
    상기 로봇위치 산출부는,
    상기 수술로봇의 위치를 추적하는 트랙킹 장치로부터 수신한 정보를 기초로 상기 수술로봇의 현재 절삭 위치를 산출하는 것을 특징으로 하는 관절치환 로봇수술 정보 제공 장치.
  7. 제1항에 있어서,
    상기 수술로봇으로부터 상기 수술로봇의 상태정보를 수신하는 신호수신부를 더 포함하며,
    상기 디스플레이부는, 상기 수술로봇의 상태정보를 표시하는 것을 특징으로 하는 관절치환 로봇수술 정보 제공 장치.
  8. 제1항에 있어서,
    상기 GUI 제공부는,
    상기 수술로봇의 동작 온오프 상태에 대응하여 상기 디스플레이부를 통한 상기 수술 진행 정보의 표시여부를 결정하는 것을 특징으로 하는 관절치환 로봇수술 정보 제공 장치.
  9. 제1항에 있어서,
    상기 GUI 제공부는,
    복수의 상기 절삭 타깃 지점에 각각 대응하는 도형, 상기 절삭 타깃 지점을 연결하여 형성되는 절삭 라인, 및 상기 수술로봇의 현재 절삭 위치에 대응하는 도형을 생성하는 것을 특징으로 하는 관절치환 로봇수술 정보 제공 장치.
  10. 제1항에 있어서,
    상기 GUI 제공부는,
    상기 절삭 타깃 지점을 연결하여 형성되는 절삭 라인을 그래픽으로 생성하되, 상기 로봇위치 산출부를 통해 산출된 상기 수술로봇의 현재 절삭 위치를 기초로 상기 수술로봇이 이미 통과한 상기 절삭 라인과 현재 통과하고 있는 상기 절삭 라인이 서로 구분되도록 생성하는 것을 특징으로 하는 관절치환 로봇수술 정보 제공 장치.
  11. 각 단계가 관절치환 로봇수술 정보를 제공하는 관절치환 로봇수술 정보 제공 장치를 통하여 수행되는 관절치환 로봇수술 정보 제공 방법에 있어서,
    수술대상 뼈의 절삭 경로를 포함하여 수술 전 설정된 수술계획 정보를 저장하는 단계;
    상기 수술계획 정보를 기초로 상기 절삭 경로를 구성하는 복수의 절삭 타깃 지점의 위치를 획득하는 단계;
    상기 수술로봇을 통한 수술 진행에 대응하여 상기 절삭 타깃 지점 사이에서의 상기 수술로봇의 현재 절삭 위치를 산출하는 단계;
    수술대상 뼈에 대응하는 가상 뼈 모델 상에 상기 절삭 타깃 지점의 위치와 상기 수술로봇의 현재 절삭 위치를 포함하는 수술 진행 정보를 그래픽으로 생성하는 단계; 및
    상기 가상 뼈 모델과 상기 수술 진행 정보를 디스플레이부에 표시하는 단계를 포함하는 것을 특징으로 하는 관절치환 로봇수술 정보 제공 방법.
  12. 제11항에 있어서,
    상기 수술로봇에 의하여 절삭이 진행되는 상기 수술대상 뼈의 부위에 따라 상기 디스플레이부를 통하여 표시되는 상기 가상 뼈 모델에 대한 시점(View)을 전환하는 단계를 더 포함하는 것을 특징으로 하는 관절치환 로봇수술 정보 제공 방법.
  13. 제11항에 있어서,
    상기 수술로봇의 현재 절삭 위치를 산출하는 단계는,
    상기 수술계획 정보에 따른 상기 수술로봇의 절삭속도와 상기 절삭 타깃 지점 간 거리를 기초로 상기 수술로봇의 현재 절삭 위치를 추정하는 것을 특징으로 하는 관절치환 로봇수술 정보 제공 방법.
  14. 제11항에 있어서,
    상기 수술 진행 정보를 그래픽으로 생성하는 단계는,
    복수의 상기 절삭 타깃 지점에 각각 대응하는 도형, 상기 절삭 타깃 지점을 연결하여 형성되는 절삭 라인, 및 상기 수술로봇의 현재 절삭 위치에 대응하는 도형을 생성하는 것을 특징으로 하는 관절치환 로봇수술 정보 제공 방법.
  15. 제11항에 있어서,
    상기 수술 진행 정보를 그래픽으로 생성하는 단계는,
    상기 절삭 타깃 지점을 연결하여 형성되는 절삭 라인을 그래픽으로 생성하되, 상기 수술로봇의 현재 절삭 위치를 기초로 상기 수술로봇이 이미 통과한 상기 절삭 라인과 현재 통과하고 있는 상기 절삭 라인이 서로 구분되도록 생성하는 것을 특징으로 하는 관절치환 로봇수술 정보 제공 방법.
PCT/KR2021/001038 2020-01-31 2021-01-26 관절치환 로봇수술 정보 제공 장치 및 제공 방법 WO2021153973A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202180011972.9A CN115038400A (zh) 2020-01-31 2021-01-26 用于提供关节置换机器人手术信息的装置及方法
EP21746937.8A EP4098218A4 (en) 2020-01-31 2021-01-26 INFORMATION PROVIDING DEVICE FOR ROBOTIC JOINT REPLACEMENT SURGERY AND PROVIDING METHOD THEREFOR
JP2022545843A JP7542872B2 (ja) 2020-01-31 2021-01-26 関節置換ロボット手術情報の提供装置及び提供方法
US17/796,347 US11701189B2 (en) 2020-01-31 2021-01-26 Device for providing joint replacement robotic surgery information and method for providing same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200011496A KR102349862B1 (ko) 2020-01-31 2020-01-31 관절치환 로봇수술 정보 제공 장치 및 제공 방법
KR10-2020-0011496 2020-01-31

Publications (1)

Publication Number Publication Date
WO2021153973A1 true WO2021153973A1 (ko) 2021-08-05

Family

ID=77079605

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/001038 WO2021153973A1 (ko) 2020-01-31 2021-01-26 관절치환 로봇수술 정보 제공 장치 및 제공 방법

Country Status (6)

Country Link
US (1) US11701189B2 (ko)
EP (1) EP4098218A4 (ko)
JP (1) JP7542872B2 (ko)
KR (1) KR102349862B1 (ko)
CN (1) CN115038400A (ko)
WO (1) WO2021153973A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240041681A (ko) * 2022-09-23 2024-04-01 큐렉소 주식회사 수술 로봇의 절삭 경로 플래닝 장치 및 그 방법
CN117814908A (zh) * 2022-09-28 2024-04-05 北京和华瑞博医疗科技有限公司 采样点提示装置、髋关节置换系统、电子设备和介质
US12073585B2 (en) * 2023-01-09 2024-08-27 Chengdu University Of Technology Pose estimation apparatus and method for robotic arm to grasp target based on monocular infrared thermal imaging vision
CN117653267B (zh) * 2024-01-31 2024-04-23 鑫君特(苏州)医疗科技有限公司 膝关节截骨规划装置、膝关节自动截骨装置和相关设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014028563A1 (en) * 2012-08-15 2014-02-20 Intuitive Surgical Operations, Inc. Phantom degrees of freedom in joint estimation and control
KR101480251B1 (ko) * 2013-10-14 2015-01-09 중앙대학교 산학협력단 수술계획 수립용 표준 골격 모형 및 수술계획 수립용 전자기기
KR20150125069A (ko) * 2014-04-29 2015-11-09 큐렉소 주식회사 로봇 수술 계획 조정 장치
WO2017151863A1 (en) * 2016-03-02 2017-09-08 Think Surgical, Inc. Automated arthroplasty planning
KR20190000940A (ko) * 2016-05-27 2019-01-03 마코 서지컬 코포레이션 수술 시스템을 위한 수술 전 계획 및 연관된 수술 중 등록
KR20190030414A (ko) * 2017-09-14 2019-03-22 울산대학교 산학협력단 의료 장치

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8010180B2 (en) * 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
WO2006091494A1 (en) * 2005-02-22 2006-08-31 Mako Surgical Corp. Haptic guidance system and method
KR100998182B1 (ko) 2008-08-21 2010-12-03 (주)미래컴퍼니 수술용 로봇의 3차원 디스플레이 시스템 및 그 제어방법
AU2011239570A1 (en) * 2010-04-14 2012-11-01 Smith & Nephew, Inc. Systems and methods for patient- based computer assisted surgical procedures
WO2013033566A1 (en) * 2011-09-02 2013-03-07 Stryker Corporation Surgical instrument including a cutting accessory extending from a housing and actuators that establish the position of the cutting accessory relative to the housing
CN104519822B (zh) * 2012-05-22 2017-10-24 玛口外科股份有限公司 软组织切割器械及使用方法
KR102304096B1 (ko) 2012-08-03 2021-09-24 스트리커 코포레이션 로봇 수술을 위한 시스템 및 방법
CN111329554B (zh) * 2016-03-12 2021-01-05 P·K·朗 用于手术的装置与方法
US10194990B2 (en) * 2016-04-27 2019-02-05 Arthrology Consulting, Llc Method for augmenting a surgical field with virtual guidance content
AU2017295728B2 (en) * 2016-07-15 2021-03-25 Mako Surgical Corp. Systems for a robotic-assisted revision procedure
US11154372B2 (en) * 2016-10-28 2021-10-26 Orthosoft Ulc Robotic cutting workflow
EP3554414A1 (en) * 2016-12-16 2019-10-23 MAKO Surgical Corp. Techniques for modifying tool operation in a surgical robotic system based on comparing actual and commanded states of the tool relative to a surgical site
EP3581121A1 (en) * 2018-06-15 2019-12-18 MAKO Surgical Corp. Techniques for patient-specific milling path generation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014028563A1 (en) * 2012-08-15 2014-02-20 Intuitive Surgical Operations, Inc. Phantom degrees of freedom in joint estimation and control
KR101480251B1 (ko) * 2013-10-14 2015-01-09 중앙대학교 산학협력단 수술계획 수립용 표준 골격 모형 및 수술계획 수립용 전자기기
KR20150125069A (ko) * 2014-04-29 2015-11-09 큐렉소 주식회사 로봇 수술 계획 조정 장치
WO2017151863A1 (en) * 2016-03-02 2017-09-08 Think Surgical, Inc. Automated arthroplasty planning
KR20190000940A (ko) * 2016-05-27 2019-01-03 마코 서지컬 코포레이션 수술 시스템을 위한 수술 전 계획 및 연관된 수술 중 등록
KR20190030414A (ko) * 2017-09-14 2019-03-22 울산대학교 산학협력단 의료 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4098218A4 *

Also Published As

Publication number Publication date
KR20210097909A (ko) 2021-08-10
US11701189B2 (en) 2023-07-18
CN115038400A (zh) 2022-09-09
US20230079638A1 (en) 2023-03-16
KR102349862B1 (ko) 2022-01-12
EP4098218A1 (en) 2022-12-07
EP4098218A4 (en) 2024-03-27
JP2023512006A (ja) 2023-03-23
JP7542872B2 (ja) 2024-09-02

Similar Documents

Publication Publication Date Title
WO2021153973A1 (ko) 관절치환 로봇수술 정보 제공 장치 및 제공 방법
US11717351B2 (en) Navigation surgical system, registration method thereof and electronic device
WO2010093152A2 (ko) 수술 로봇 시스템 및 그 제어 방법
KR101413920B1 (ko) 네비게이션 시스템의 검출장치의 배치위치를 결정하기 위한 방법, 및 네비게이션 시스템의 검출장치를 배치하기 위한 방법
WO2021206372A1 (ko) 2차원 의료영상 기반 척추 수술 플래닝 장치 및 방법
US20220061921A1 (en) Surgical object tracking template generation for computer assisted navigation during surgical procedure
CN112689483A (zh) 用于在机器人外科手术中使用的用户输入装置
US20140055489A1 (en) Rendering tool information as graphic overlays on displayed images of tools
WO2014077613A1 (ko) 정복 시술 로봇 및 그의 구동 제어 방법
WO2021045546A2 (ko) 로봇의 위치 가이드 장치, 이의 방법 및 이를 포함하는 시스템
KR20160133515A (ko) 원격동작 의료 시스템 내의 기구의 화면외 표시를 위한 시스템 및 방법
KR20200091943A (ko) 수술 시스템의 효율적인 쌍방향 출혈 검출 방법 및 시스템
JP2024051132A (ja) コンピュータ支援手術システムのためのカメラ制御システム及び方法
WO2021162287A1 (ko) 수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템
US20230078919A1 (en) Extended reality systems for visualizing and controlling operating room equipment
WO2021054659A2 (ko) 수술 내비게이션 장치 및 그 방법
WO2024006729A1 (en) Assisted port placement for minimally invasive or robotic assisted surgery
WO2019132166A1 (ko) 수술보조 영상 표시방법 및 프로그램
WO2024063539A1 (ko) 수술 로봇의 절삭 경로 플래닝 장치 및 그 방법
KR20220143893A (ko) 아암 설치 안내를 가진 스타디움 뷰를 제공하기 위한 로봇 수술 시스템 및 방법
Sun et al. Development of a Novel Hand-eye Coordination Algorithm for Robot Assisted Minimally Invasive Surgery
Wang et al. Augmented reality provision in robotically assisted minimally invasive surgery
US11969218B2 (en) Augmented reality surgery set-up for robotic surgical procedures
CN115624384B (zh) 基于混合现实技术的手术辅助导航系统、方法和存储介质
US20240296608A1 (en) Rendering Tool Information As Graphic Overlays On Displayed Images Of Tools

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21746937

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022545843

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021746937

Country of ref document: EP

Effective date: 20220831