WO2023062231A1 - Surgical system comprising haptics - Google Patents

Surgical system comprising haptics Download PDF

Info

Publication number
WO2023062231A1
WO2023062231A1 PCT/EP2022/078738 EP2022078738W WO2023062231A1 WO 2023062231 A1 WO2023062231 A1 WO 2023062231A1 EP 2022078738 W EP2022078738 W EP 2022078738W WO 2023062231 A1 WO2023062231 A1 WO 2023062231A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
virtual
computer
instrument
simulation
Prior art date
Application number
PCT/EP2022/078738
Other languages
German (de)
French (fr)
Inventor
Uwe KATZKY
Sabine REICHEL
Wolfgang Goetz
Original Assignee
Hightech Simulations Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE102021132665.6A external-priority patent/DE102021132665A1/en
Application filed by Hightech Simulations Gmbh filed Critical Hightech Simulations Gmbh
Publication of WO2023062231A1 publication Critical patent/WO2023062231A1/en

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • G09B23/285Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for injections, endoscopy, bronchoscopy, sigmoidscopy, insertion of contraceptive devices or enemas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/24Use of tools
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback

Definitions

  • the present invention relates to a computer-supported or computer-implemented method according to claim 1, a computer system according to claim 18 and a system according to claim 19 or according to the preambles or generic terms of these claims.
  • K-wires also known as Kirschner wires
  • fractures of the hand can lead to mechanical impairment and limited mobility of the hand. That is why surgeons often have to surgically treat and stabilize fractures of the hand.
  • K-wires also known as Kirschner wires
  • To fix the bone fragments specially developed, thin, sharp K-wires (also known as Kirschner wires) of different thicknesses are drilled through a small incision in the skin in a minimally invasive manner into the broken bone.
  • K-wires also known as Kirschner wires
  • Many years of experience as well as extensive theoretical knowledge and practical training are required for surgeons to carry out a minimally invasive hand operation correctly and safely. It is currently possible to train bores using synthetic and/or thawed cadaver bone.
  • An object of the present invention is to specify a further computer-aided method.
  • a computer system and a system are also to be specified.
  • the object according to the invention is achieved by a computer-aided or computer-implemented method having the features of claim 1 and by a computer system having the features of claim 18 . In addition, it is solved by a system with the features of claim 19 .
  • Reading geometric data of an object into a computing unit optional : assigning density values or hardnesses to volume sections of the object ;
  • Tracking the movement of the simulation device or the simulation instrument in real space e.g. B. by acquiring position values of a haptic arm, robot arm or parts thereof or the simulation instrument, by means of the optional tracking camera or in another way;
  • Methods can optionally be carried out in the above-mentioned order, with a time overlap or simultaneously.
  • the last four of the steps listed above may be performed multiple times and/or in a loop.
  • a computer system which comprises at least one data memory as mentioned herein and which, as disclosed herein, is stored with geometric data, a large number of objects, in particular a common object class and/or the like, the stored geometric data being obtained using a method according to the invention became.
  • Object classes can have a wide variety of classifications, they can classify coarser and finer structures.
  • Obj ect classes can, for example, reflect anatomical structures in a grossly simplified manner, such as body parts, e.g. B. hand, arm, joint, etc., but also be subdivided more finely, for example by tissue structure, such. B. certain bones, etc. or even finer, such as cartilage, periosteum, cortical bone, spongiosa, etc.
  • Object classes may include or be directed to bones with fracture surfaces, optionally subdivided into classified fractures such as Tossy I through III or other classifications particularly common in bone surgery. Further distinctions (injury of the young patient versus the older patient, with or without signs of osteoporosis, etc.) can also lead to object classes or subclasses.
  • a system which has a computer system according to the invention, a surgical robot and a control unit for controlling the surgical robot.
  • the surgical robot has a holder for a surgical instrument, which can be arranged, for example, in or on a robot arm of the surgical robot.
  • the control unit controls the surgical robot based on data stored in the data memory of the computer system, which was stored therein using the method according to the invention.
  • Embodiments according to the invention can have some, some or all of the following features in any combination, unless this is technically impossible for a person skilled in the art.
  • Advantageous developments of the present invention are also the subject matter of the dependent claims and embodiments.
  • the object according to the invention has one or more features in a specific embodiment, it is also disclosed herein that the object according to the invention expressly does not have this or these features in other embodiments that are also according to the invention, e.g. B. in the sense of a disclaimer.
  • the opposite embodiment for example formulated as a negation, is also disclosed.
  • the device according to the invention is configured in some embodiments to carry out one, several or all of these method steps in any combination, particularly if these are steps that can be carried out automatically, or to carry out corresponding devices which preferably by name to the designation of the respective
  • a signal or communication connection between two components can be understood to mean a connection that exists during use. This can also be understood to mean that there is a preparation for such a signal connection (wired, wireless or implemented in some other way), for example by coupling the two components, for example by means of pairing, etc.
  • Pairing is a process that occurs in the context of computer networks to establish an initial association between computing devices for the purpose of communication.
  • the most well-known example of this is the establishment of a Bluetooth connection, by means of which various devices (e.g. smartphone, headphones) are connected to one another. Pairing is also sometimes referred to as bonding.
  • the computer system has a control or regulating device. It may cause all or substantially all of the method steps to be performed, or any combination of method steps disclosed herein, in particular if these are carried out mechanically or automatically.
  • the method according to the invention can be carried out essentially or completely by the open-loop or closed-loop control device. It can be partially carried out by the control or regulation device.
  • a “display” can be a monitor, for example an autostereoscopic (AS), single-user 3D monitor (such as that sold by SeeFront GmbH, Hamburg, Germany, www.seefront.com), a display , a surgical microscope, a head-up display (HUD), for example in a visual aid or glasses, VR (Virtual Real! ty) glasses or the like.
  • AS autostereoscopic
  • 3D monitor such as that sold by SeeFront GmbH, Hamburg, Germany, www.seefront.com
  • HUD head-up display
  • VR Virtual Real! ty glasses or the like.
  • “geometric data” can be or include real or virtual data.
  • Recorded data of a real 3D object (hereinafter: real object), e.g. in the form of results of imaging methods, can also This includes virtual data of a calculated virtual object. It is irrelevant whether the calculated data is based on recorded data from a real 3D object or not.
  • “Geometric data” can be or include medical data.
  • this course is a course of the operation, in particular a pre-determined or inputted one, e.g Surgical history that has proven itself or is believed to work well in real-world operations, or "target surgical history” includes such history.
  • a "target operation history” have been recorded in real operations and/or in at least one simulation in which the surgeon has guided the simulation instrument or the virtual surgical instrument.
  • a "target operation history” is formed from available data from a collective of users of the present invention, who do not have to be experienced operators, but among whom there may well be such, extracted. The extracted data were preferably already during or evaluated, in particular positively, after the same has been saved The evaluation and/or the extraction can optionally have taken place using artificial intelligence (AI) or machine learning or deep learning.
  • AI artificial intelligence
  • a sequence can consist of a sequence of motion states or, in individual cases, just one motion state.
  • a sequence can be a data record which contains values for one or more parameters, which relating to the movement or guidance of the simulation instrument or the simulation device, includes, e.g. the position of the simulation device or its sections in space, the angle or angles of the robot arm segments of the simulation device to one another, which ultimately determines the position of the virtual surgical instrument when entering the virtual Obj ect accounts for the transition from one segment of the virtual obj ect to the next, the force that is required to arrive against the induced force feedback of the haptic or to overcome it, etc.
  • the haptic is not a hand-held device for manipulating/controlling a virtual robotic arm, particularly not during surgery on a patient (and therefore, e.g., not a sterile robotic arm, even in sections, not a robotic arm in a hospital operating room etc . ) .
  • a simulation instrument if used, is a real instrument manually operated in real space for the user's training, directly or indirectly. Its movement in real space serves as a template for guiding the virtual surgical instrument on the virtual object, i.e. on the display, e.g. B. the monitor .
  • a real surgical instrument in contrast, denotes an actual operation, e.g. B. a patient, real instrument used. It can later be guided by an operator at the operating table or by the operating robot.
  • the virtual surgical instrument is preferably a simulation of a real surgical instrument, as in z. B. inventively trained, surgical interventions will be used.
  • the virtual surgical instrument is preferably represented by polygonal data well known in the art of computer graphics.
  • the virtual surgical instrument is defined by a large number of points on its surface. In some embodiments, however, only an active area of the virtual surgical instrument is correspondingly provided with points in order to save computational effort.
  • the active area is the area of the virtual surgical instrument that comes into contact with the virtual object during the method according to the invention, ie z. B. the tip or cutting edge rather than a shaft or handle of the virtual surgical instrument.
  • the haptic referred to herein may be a force feedback device. It can be structured as known from US 2015/0325147 A1. Their disclosure in this regard is hereby also made the subject matter of the present disclosure by reference.
  • any complex process can be divided into a finite number of simple, logical states, which together are responsible for the behavior of the system.
  • So-called “virtual fixtures” can then be defined for the individual states and the transitions from one state to another.
  • Virtual fixtures are abstract sensory information that is superimposed on a remote environment (process or robot control from a safe distance) as sensory feedback
  • Rosenberg was first proposed by Rosenberg as an orientation method for the controlled guidance of robot controllers in a remote environment.
  • Virtual Fixtures interact only with the user and not the workspace, have no mass , no physical or mechanical limitations and can be easily created or modified Performance when guiding a robot can be significantly improved.
  • Virtual Fixtures may also describe herein virtual control mechanisms capable of constraining a user's movement along selected degrees of freedom. With the help of these restrictions, a complex task can be broken down into elementary subtasks so that it is safer and easier for the user to carry out. In this way, for example, a straight bore can be represented as a 3D displacement vector of the instrument position in the axial direction.
  • Virtual fixtures are implemented in some embodiments using proportional differential (PD) controllers.
  • a PD is a very fast and controllable control engineering algorithm that improves the stability of a computer controlled system.
  • the positional deviation and the angular orientation error between a reference setpoint (proxy) and the control point (CP) of the haptic arm are calculated as well as their derivatives and with the proportional (P) and derivative (D) gains factors (gains) are multiplied.
  • This generates the damping forces and torques that push the haptic arm to a desired setpoint until its position (the control point of the haptic arm) corresponds to the desired setpoint position. Since the force vectors act against the direction of movement of the haptic arm control point, the user cannot leave the target position of the proxy with the haptic arm.
  • Such an implementation is provided for in some embodiments.
  • the geometric data are or include medical data.
  • the force feedback changes as the virtual surgical instrument penetrates into the virtual object.
  • the change can, for example, take place continuously, repeatedly, in stages, under parameter control, as a function of the associated density values or hardnesses, or in some other way.
  • data relating to sequences of movement of the simulation instrument/the simulation device and/or the real object and/or the virtual surgical instrument and/or the virtual object are stored in the respective space, for example in a space provided and/or provided for this purpose and/or suitable data storage, recorded and/or stored.
  • data relative to movement sequences ie for example the simulation instrument relative to the real object or of the virtual surgical instrument relative to the virtual obj ect, recorded and/or stored.
  • data relating to the angle and effort required when the virtual surgical instrument enters the virtual object, distances covered, resistance to the force feedback overcome during a movement and the like can be of interest and stored.
  • a target course of surgery or sections for this is created and stored from a large number of recorded data relating to the sequences which simulate a virtual course of surgery on the virtual object and/or sections of a course of surgery.
  • the creation can include or require a selection and/or a qualitative evaluation.
  • a virtual surgical history can be given the "target surgical history" attribute if it is assigned a minimum score received (e.g. in the form of scores, school grades, etc.) .
  • a target operation history z. B. after a
  • Series of training simulations all of which may have been saved or temporarily saved, e.g. B. the best rated course of the operation can be collected, which can optionally be done automatically.
  • the target course of the operation is not an entire operation, as is the case with the instrumental operation of a patient, e.g. B. when treating a fracture, is common or necessary. Rather, the course of the target operation can optionally only include specific operation sequences or instrument deployments, particularly relevant instrument guidance, moments during the operation, etc. depict . It can be made up of a series of sequences that are each felt to be particularly worthy.
  • the z. B. were carried out or obtained on different days, in different training sessions, by different surgeons using the device according to the invention or the method according to the invention.
  • An evaluation as stated above can be carried out by a person in certain embodiments, e.g. B. the user, his academic teacher or a third party, alternatively or additionally, by comparing the simulated guidance of the real or virtual instrument or of the object by the user with a target operation history already stored. In order to avoid repetition, the above definition of a target Operation history referenced .
  • AI artificial intelligence
  • machine learning or Deep learning can be such an assessment basis for the system according to the invention, z. B. Create or optimize target surgical procedures from stored sequences.
  • a surgical task be subdivided into individual operation steps.
  • Each operation step can be evaluated after completion and e.g. B. are scored, for example as known from "Serious Games” or "Game Based Learning".
  • the maximum number of points and the experience points for a surgical step are specified, for example, by an expert in hand surgery using an evaluated questionnaire. It can be provided that a new surgical step can only be started after the previous surgical step has ended. After carrying out all the requested operational steps, e.g. B. a final score with a maximum number of points can be calculated. Points can e.g. B.
  • K-wires as examples of virtual surgical instruments, the number of attempts required for this, etc. Points can be awarded in comparison with a "gold standard", which includes e.g. the provision of a haptic corridor (see below), the orientation and the drilling depth of the K-wire, the damage to bones associated with the present Fracture not related, breaking of the K-wire due to excessive pressure from the simulation device and/or the like.
  • a drill guide is designed as an optical extension of the virtual surgical instrument, e.g. B. a K-wire, provided, it shows the chosen and / or the optimal or future drilling channel.
  • risk structures and/or bones can be visualized via the transparency of the skin.
  • a corticalis detector is provided. He can e.g. B. turn the representation of a hand bone green on the display when the K-wire tip makes contact with the cortex of a bone . In this way, the user can see which bone is currently being drilled, whether the K-wire tip is within the spongiosa, the cortical bone or the opposite cortical bone, etc.
  • Optional haptic corridors can also visually provide the "gold standard" for the position and location of the K-wires.
  • the "haptic corridor” can be a simple cylinder in Cartesian space, fully defined by its radius , length , directional vector , and entry point .
  • a haptic corridor represents a special type of "virtual fixture” and can be visualized on the display, e .g . by a cylinder .
  • the corridor is generated independently of the drilling simulation . It can also generate additional haptic feedback . It can be anywhere on of the ad are positioned and preferably does not interact with other world objects.
  • an exception to this may be provided: if the user moves the K-wire close to the haptic corridor, which represents the ideal drilling channel for the K-wire as determined by an expert, then the K-wire is slowly inserted via the haptic arm into this Ideal position and rotation drawn .
  • the color of the corridor changes, for example from orange to yellow, as soon as the K-wire tip dips into the haptic corridor.
  • the corridor continues to change color, e.g. B. turns green if the entire K-wire axis is also within the corridor, as the ideal position has thus been reached.
  • the simulated attractive force can optionally be calculated using a potential force model.
  • a potential force model has a first phase in which the force increases and a second phase in which the force decreases. So if the K-wire tip approaches the target point, the force of attraction increases steadily and leads the user in the direction of the ideal position until it is reached. In order to avoid vibrations around the target point, the force preferably decreases to zero with decreasing distance from the target point. Simplified and transferred to a one-dimensional (ID) problem, the attractive potential force can be calculated, for example, from a simplified Gaussian function.
  • a representation of the management of the virtual surgical instrument from the target operation course or the section thereof, in particular relative to a virtual obj ect on a display can be or include, for example, a monitor, an operating microscope, a head-up display, for example in a visual aid, virtual reality glasses and/or another type of projection .
  • the presentation of the guide can be in the form of a movie, a sequence of images, an augmented or mixed reality display, etc. take place .
  • the system is designed to visually superimpose a target operation course over a real operation scenario in real space, for example to show the operator an ideal path for the instrument.
  • levels with different levels of difficulty can be implemented here, which can or should be achieved during training, similar to e.g. B. "Serious Games” or “Game Based Learning” .
  • the display can, for example, be adapted more and more to a real operation scenario. This means, for example, that suitable drilling channels are still displayed at a lower level, but perhaps not at a higher level.
  • the surrounding tissue for example skin
  • appears transparent e.g. B. to reveal a bone layer and/or endangered tissue, e.g. B. Nerve pathways, display .
  • the geometric data is or includes real data, e.g. B. data on body geometry or anatomy (also briefly: patient data) of at least one real patient, which z. B. were obtained by computed tomography (CT) and / or magnetic resonance imaging (MRI).
  • CT computed tomography
  • MRI magnetic resonance imaging
  • the patient data may be or include values pertaining to a hand or a joint.
  • the geometric data are or preferably include data and/or values beyond human medicine, such as veterinary medicine, material processing (in particular if chip-removing).
  • the computer-assisted method according to the invention also has the step of acquiring the geometric data to be read in on or from a real object, e.g. B. by means of imaging methods and/or as disclosed herein.
  • a real object e.g. B.
  • the real object can be a patient or a part of a patient's body, for example.
  • the step of calculating a 3D model from 2D data sets that have been read in is also included in the present invention.
  • An object to be surgically treated which in the field of medicine can consist of several bones, is determined by the surfaces of its components and the spaces they enclose, which is why volume models with a large number of voxels are suitable for its mathematical description.
  • volume models with a large number of voxels are suitable for its mathematical description.
  • Density values can also indicate the hardness of the respective voxel and thus quantify the resistance that a specific voxel will offer to its manipulation with a virtual surgical instrument.
  • the method also has the step of segmenting the geometric data, with segmented volume data being generated. This preferably takes place automatically (Automated Component Segmentation, AOS), in particular by assigning density values (or hardnesses) to the generated volume segments.
  • AOS Automatic Component Segmentation
  • the segmentation preferably also allows individual components to be edited (rotating, moving, etc.).
  • the result of the segmentation in the case that the geometric data have or describe bony structures is preferably such that the bony structures which are present without bony contact with one another are present or separate from one another. were segmented accordingly.
  • the segmentation can result in groups of voxels, or in each case delimit those that differ from voxels of other or neighboring groups of voxels by the density value that the voxels of the groups under consideration have.
  • voxels which—e.g. B. all or most of them - have a density value of a first range of density values are combined in a common first group.
  • voxels which - e.g. B. all or in the majority - a density value of one Having a second range of density values can be combined in a common, second group.
  • the geometric data is or includes segmented, in particular automatically segmented, volume data.
  • the geometric data is or includes medical volume data in DICOM (Digital Imaging and Communications in Medicine) format.
  • DICOM Digital Imaging and Communications in Medicine
  • DICOM is generally recognized as an open standard for storing and exchanging information in medical image data management.
  • This information can be, for example, digital images, additional information such as segmentation, surface definitions or image registrations.
  • this format is used in the system according to the invention, calculation steps for changing or adapting data formats can advantageously be omitted.
  • the system according to the invention can thus be used with geometric data from all over the world without any adjustment effort.
  • Medical volume data in DICOM format represents, for example, the starting point for the model of the virtual hand used with the system according to the invention as an example of a virtual object.
  • DICOM data are recorded in a computed tomography (CT) and/or a magnetic resonance tomography (MRT) and as a result contain a 3D data set consisting of slice images of the human hand.
  • CT computed tomography
  • MRT magnetic resonance tomography
  • the computer-aided method according to the invention further has the step of augmenting the read-in geometric data or read-in data sets and/or data sets based at least partially on read-in geometric data.
  • storing the augmented data in a data memory of the computer system according to the invention is included in the present invention.
  • the geometric data is or includes augmented data.
  • the computer-assisted method according to the invention also has the step of storing a large number of target operation histories (see definition above) or sections thereof in a data memory of the computer system according to the invention.
  • the target course of the operation or the sections thereof can be or have been obtained from a large number of recorded data relating to sequences which show the virtual course of the operation or sections.
  • the method further comprises the step of providing data that was extracted from the data memory from the target surgical procedures or sections thereof and additionally the step of transmitting this data, e.g. B. in a memory device of a surgical robot, the selection of the data preferably fulfilling at least one predetermined criterion.
  • the extraction can be done using artificial intelligence (AI) or machine learning or Deep learning happen or have happened.
  • AI artificial intelligence
  • a predetermined criterion for the selection of the data can, for example, be a previous selection from a data pool, for example by setting a "marker", for example by the user, a second person, for example a supervisor or an experienced operator or surgeon, an algorithm, etc. and /or be or include a qualitative assessment of the course of the target operation or sections thereof.
  • This data can be, for example, data on position, movement,
  • Rotational speeds or the like of a Bohrinstruments and / or the like for or during an operation can change multiple times throughout the operation, e.g. B. the force can change depending on the penetration depth and / or bone density. Therefore, this data can be composite data, e.g. B. sequentially include the relevant data and parameters.
  • Data processing steps for example in order to bring the data into a suitable format for use in controlling a surgical robot, for example machine data, are also covered by the present invention.
  • image data After image data has been created, for example by x-raying the relevant body part such as the wrist in two planes, special recording techniques such as the Stecher recording and/or computed tomography (CT) or another imaging method can be used to determine of volume data, the image data, preferably DICOM data, are transformed into a virtual 3D model.
  • CT computed tomography
  • the bone fragments can be automatically repositioned there with the aid of the present invention. The result can be corrected manually if necessary.
  • the 3D model can, e.g. B. by means of Automated Component Segmentation, ACS, z. B. as disclosed herein, all necessary spatial data (x, y, z coordinates and vector data for the volume rendering) as well as the density data (voxel density) of the bones of interest, e.g. B. every single bone of the hand and preferably the (lower) arm included.
  • the location of the fracture and the Fracture elements can be found visually in the 3D model in the form of x, y, z coordinates and vector data. Based on this, the repositioned spatial data (x, y, z coordinates and vector data) are calculated and optionally displayed.
  • the storage or displacement of the body part to be operated on such as the patient's arm here, on a base, preferably in a - carries out pre-calculated position inside - optimally exactly.
  • the system can specify, e.g. B. arm and hand must be stored.
  • the data used for this purpose is z. B. determined using the image data, preferably DICOM data, and the calculated 3D model.
  • x, y, z coordinates of selected points (also known as markers) of the extremity or another part of the body, here the arm and the hand are used to reposition the fracture pieces.
  • the coordinates required for this purpose are recorded using suitable devices, e.g. B. by means of one or more tracking cameras of the system, which record the position of the arm and the hand, the control device, for example, as DICOM data accessible in order to arrive at the optimal, pre-calculated position.
  • suitable devices e.g. B. by means of one or more tracking cameras of the system, which record the position of the arm and the hand, the control device, for example, as DICOM data accessible in order to arrive at the optimal, pre-calculated position.
  • the robot of the system is preferably guided through the comparison of the coordinates and knows its position exactly. The verification is done by the system or the AI, which can be monitored by the doctor.
  • a robotic arm determines and/or marks the location for a skin incision. It can be calculated using the previously collected data. The skin incision can be made automatically using the robotic arm.
  • each instrument e.g. B. a scalpel
  • the path line of each instrument can be planned using a coordinate system (also using x, y and z coordinates) and corresponding vector data and optionally tracked or recorded using tracking cameras. be corrected via a target-actual comparison.
  • the force with which the skin has to be incised depends on the condition of the skin and can be individually corrected or increased in some versions. be customizable .
  • the robotic arm changes the set of instruments independently.
  • the robotic arm thus actuates a drill with a K wire that is drilled into the bone or bones to be repaired at a precalculated point and angle of entry and with a force that is also precalculated.
  • the robot arm has a position or Position determination sensors that determine the vector of the robot arm, the axis of the robot arm, for example, coincides with the K-wire vector.
  • the entry point of the drill is defined using the x, y, z coordinates of the K-wire tip and the entry point here as an example by hand.
  • the drilling force (in the unit [mN]) is in some way
  • Execution forms variable and is preferably regulated in comparison with the 3D model in order to take into account the bone density (cortical bone, spongiosa).
  • the x, y, z coordinates of the K-wire tip and the end point are continuously compared with the pre-calculated end point position in order to achieve an optimal penetration depth.
  • the K-wire is then pre-drilled into the bone and fixed there.
  • a cannulated drill can be used as an additional surgical instrument and drills the hole for the screw over the K-wire, e.g. B. to the subchondral lamella le of the bone of interest .
  • the vector of the robotic arm's cannulated drill matches the vector of the K-wire to ensure the correct entry angle of the drill.
  • the calculation of the vector can be taken over by the system in advance.
  • the correct positioning of the robot arm can also be determined using the built-in position or Position determination sensors and the tracking camera (s) are ensured.
  • the entry point of the cannulated drill is based on the current position of the K-wire in real space.
  • the drilling force (in the unit [mN]) is optionally set using the
  • Resistance measurement regulated in the robot arm A constant comparison can be made with the data of the created 3D model, for example to take into account the existing bone density (cortical bone, spongiosa).
  • the penetration depth of the cannulated drill is preferably also defined via the x, y and z coordinates and the vector data of the K-wire or oriented to them.
  • a comparison with a preferably current x-ray image can be carried out for this purpose in this step.
  • this is secured with a z.
  • the entry angle and the entry point of the screw are determined, for example, analogously to the determination of the entry angle and entry point of the drill.
  • a preferably variable torque (for example in the unit [Nm]) can take place by means of a torque measurement in the robot arm.
  • a constant comparison with the data of the created 3D model can also be carried out in order to take account of the existing bone density (cortical bone, spongiosa).
  • the penetration depth the end position of the screw end point is in some forms of execution z. B. via its x, y and z coordinates in comparison with the data of the vector of the K-wire.
  • the tip of the screw preferably reaches exactly the area of the subchondral lamella of the relevant bone. At this point, a comparison with the pre-calculated end point position can also take place.
  • a comparison with a preferably current X-ray image can also be carried out here, and the K-wire can be removed by the robot.
  • the method further comprises the step of recording data relating to sequences of movement of the simulation instrument/device and/or the real object in real space and/or the virtual surgical instrument and/or the virtual object in virtual Space, or sections thereof, which were carried out in the context of the method according to the invention.
  • a comparison of one or more properties of the recorded data relating to the sequence of the movement of the simulation instrument with at least one stored in the data memory provided can also be included in the target operation course or in sections thereof by the method according to the invention be .
  • the method also includes the step of evaluating the quality of the result of the comparison using predetermined criteria and outputting a statement about the quality for the user to take note of.
  • this additionally includes a user interface for the user to input control commands for controlling the surgical robot.
  • a user interface can be a joystick, a keyboard, a computer mouse, etc. or be or comprise a combination thereof.
  • postoperative data for example from surveys of treating physicians and/or patients, can be or have been collected and are included or have been included in the provision of target operation courses.
  • fractures can be or have been classified, with the data of this classification being able to be included in the selection of a target course of the operation.
  • a classification can be, for example, the AO classification (working group for osteosynthesis issues), which represents a system for describing the localization and nature of broken bones (fractures).
  • the aim of this classification is a preferably worldwide unambiguous assignment of fractures, which can enable standardized use of the system according to the invention and standardized treatment.
  • an X-ray image simulation is provided in some embodiments.
  • a virtual X-ray field display is shown in the visualization.
  • the X-ray field can optionally, for example using a 3D mouse, touch widgets or the like, enlarged, reduced, rotated or shifted.
  • an X-ray foot switch can be provided which, when actuated, requests an X-ray image.
  • the current rotation data of the virtual object (rotation between the X-ray field level and the object visualization) and the delta positions between the X-ray field and the virtual object (e.g. a virtual hand) are optionally used to convert the DICOM data set of the virtual object ects to rotate and crop to the area currently in the x-ray field.
  • the orientation and delta position between the X-ray cross and the K-wire tip (as a virtual surgical instrument) can also be applied to the DICOM data set of the K-wire.
  • K-wires can be present in the X-ray field.
  • the K-wire data set is then used several times, but in different orientations and/or rotations.
  • the haptic arm, which is used for training, and the robotic arm, which is used for automated operations are one and the same, or at least type-identical, "arms". Possibly of an optional simulation tool (drill, milling cutter, K-wire, etc.) dependent extent or measure free - moving as a simulation device as well as its control when he wears the surgical tool, namely according to pre-calculated trajectories or target operation courses.
  • the robot arm of the surgical robot which can also be the haptic arm mentioned here, has a sufficiently sensitive, tactile sensor system. It allows e.g. B. Detect, measure and render external forces and/or resistances due to contacts.
  • the robotic arm has one or more end effects for receiving relevant surgical operating instruments (such as drills and milling cutters).
  • relevant surgical operating instruments such as drills and milling cutters.
  • other relevant sensors such as force sensors are/are also integrated into the end effector(s).
  • the automatic component segmentation can e.g. B. using a machine learning model (herein also called KI model or model for short) are executed.
  • KI model machine learning model
  • a machine learning model is a calibratable method to produce an output from input values.
  • the model is provided with a number of sample data sets and a function that evaluates the "quality" of the outputs.
  • the training serves to calibrate the model in such a way that the outputs that the model outputs for the training data are as optimal as possible.
  • a supervised learning approach can be used here.
  • a data record of manually segmented data can optionally be made available. Correct segmentations are operated manually. The system then has the opportunity to learn correct segmentation from this. The same can be done for classification and regression tasks.
  • a test or validation phase is preferably added after the training has taken place.
  • the trained model can be applied to new, previously unknown data and the quality of the outputs checked.
  • a sufficient number of data sets are provided as a data collection, e.g. B. in the form of patient images showing the most well-known damage z. B. of the hand, but also show intact hands. A few dozen patient cases can suffice here; be augmented . Assignments are made manually in the individual images. If the computer-aided method according to the invention herein for damage z. B. applied to the hand, this is purely exemplary and not to be understood as limiting. The application of the computer-assisted method according to the invention on other parts of a patient's body, e.g. B. hip , head , knee , foot etc . , is also encompassed by the present invention .
  • a region of interest can be manually defined, which may can encompass the entire picture.
  • the model to be trained can also define an ROI, but this is not absolutely necessary. If a ROI is defined, it can be defined automatically, e.g. B. the ROI is only expanded to such an extent that the average density value of the ROI does not fall below a minimum value. In this way z. B. a black border are disregarded.
  • Overlays of bones and spatial relationships of adjacent bones or bones or bone fragments lying one on top of the other in the projection direction can be recognized in these training images as in later patient images by contrast differences and/or different white values.
  • the model can then be based on the structure of the fracture surfaces, the still given spatial proximity of fragments (also after fracture) and in view of some intact neighboring bones, assign associated fragments or fracture surfaces to each other, comparable to a puzzle.
  • the assignment of individual fragments to each other can be modeled with knowledge of average, maximum or minimum thicknesses and
  • Lengths of the bones involved in the structure of the hand if necessary . in relation to each other, take place. In some embodiments, this assignment can also be made in connection with another body measurement, such as the length of a forearm bone. Identical thicknesses of the cortical bone in the respective marginal area are also suitable for making an assignment of bone fragments or fracture surfaces that belong to one another or for checking an assumed assignment. This is particularly the case when there are recordings, e.g. B. the hand under different beam paths ( two planes are usually sufficient here ) clearly possible .
  • Density differences between the cortical bone and spongiosa can also be distinguished using the existing white values in the image. To recognize such density differences, even with superimposed bone structures in the image, can have been communicated to the model by means of the training data. Taking them into account can further serve to identify the peripheral contour of each bone and/or bone fragment. With the open source software ImageJ, for example, the bone structures or bone segments identified in this way can be extracted into individual image stacks in order to be able to process them separately.
  • the segmentation of the spongiosa can be removed.
  • the resulting hollow interior can be understood as the inner boundary of the cortex, which can be smoothed out if desired.
  • the ITK Filter BinaryFillholelmageFil ter and BinaryErodelmageFilter automatically postprocesses the segmentation of the cortical bone.
  • the surfaces extracted from the raw data can then be optionally post-processed (topological remeshing, exact geometry, smoothing). You can then e.g. B. be saved as STL models .
  • the voxel values are optionally calculated by resampling into a dataset that can be used to extract the density values (for the haptic feedback).
  • the data sets which are used as training data for the AI models presented here, can additionally map an expected data variability as well as possible. This means that the selection of the data records follows the patient statistics (e.g. age, gender, location of the fracture). For this purpose, annotation protocols are developed and necessary adjustments are implemented in the software. These primarily serve to improve cooperation with the medical experts and the necessary, specialized visualization and interaction for the segmented fracture elements.
  • surgeons for performing a real operation by being able to improve their technical skills and their anatomical knowledge in relation to the specific case or the specific disease or accident pattern or in general by training on the system according to the invention.
  • Individual surgical steps can be internalized and subsequently transferred to the upcoming surgical situation(s).
  • Surgical robots can always offer the same precision and quality in surgery, also because, unlike humans, they do not tire. A loss of concentration on the part of the (mechanical) surgeon does not have to be expected, even in the case of longer operations. The quality of the surgical intervention can therefore be kept consistently high over the period of use of the surgical robot become .
  • An advantage of the present invention can therefore consist in providing surgical robots with surgical sequences from a large number of surgical interventions, simulations by experienced operators and/or surgeons and/or training sequences rated as very good, in which a real surgical instrument guided by the surgical robot is used for surgical care To guide a patient is to provide an optimal sequence of movements. This advantageously contributes to increasing the quality of the operation and patient safety.
  • a further advantage of the present invention can be that the present inventive system can fall back on hundreds, thousands and more data sets of the most varied surgical interventions and can learn from them, while a surgeon is limited to his own experience, which is limited in scope, if necessary. supplemented by the experience of academic teachers such as experienced surgeons, course leaders, a senior physician, etc. , must leave .
  • the system according to the invention can thus include significantly more information in the work process, which can lead to significantly more knowledge and experience in a short time than the specific surgeon could possibly ever gather. This can advantageously lead to more precise surgical results and thus significantly increase patient safety.
  • Surgical robots can advantageously be trained by means of the present invention in order to be used worldwide, in particular in countries with poor medical equipment or infrastructure, and to be able to take over a wide variety of processes.
  • the surgical robots can also needs to be controlled by experts over large distances.
  • this can help to save costs, for example for highly specialized experts on site
  • a further advantage of the present invention can consist in the fact that operation times and times for their preparation on the part of the human surgeon are significantly reduced. This can also indirectly contribute to patient safety.
  • utilization of the operating theater can advantageously be significantly optimized due to the better ability to plan operations. This can indirectly increase the efficiency of the clinic or practice in which the invention is used and help to save costs.
  • Another advantage of the present invention can be that operations can be carried out around the clock. Due to the omission of the "human factor" in some embodiments, the use of the present invention is not subject to any restrictions that can occur in humans, such as tiredness and declining ability to concentrate.
  • fractures that are actually present can be “trained” before they are surgically treated, discussed in advance with the surgical team and, as a result of ideal preparation (repeated practice on the exact image of the surgical case), the real operation can be carried out with a significantly lower probability of complications.
  • Improved surgical preparation leads to lower risk for the patient and can additionally provide the required
  • Fig. 1 shows a schematically simplified sequence of the computer-aided method according to the invention in an exemplary embodiment
  • Fig. 2 shows, in a schematically simplified manner, devices for carrying out the acquisition step of geometric data by means of a computer tomograph during an exemplary embodiment of the method according to the invention
  • FIG. 3 shows schematically simplified devices for carrying out the method according to the invention in a first exemplary arrangement
  • Fig. 3a shows schematically simplified devices for carrying out the method according to the invention in a further exemplary arrangement
  • 3b shows schematically simplified devices for carrying out the method according to the invention in a third exemplary arrangement
  • FIG. 4 shows a schematically simplified exemplary embodiment of a system according to the invention with a computer system according to the invention, a surgical robot, a control unit and a user interface;
  • FIG. 5 shows an exemplary scheme for the course of a surgical intervention using the method according to the invention or using the system according to the invention.
  • FIG. 1 shows a schematically simplified sequence of a computer-aided method according to the invention in an exemplary embodiment.
  • FIG. 1 method steps are shown. Units and devices which can be used to carry out the method according to the invention are described in more detail in FIGS. 2 to 4 . Reference is made here to their reference numerals used therein.
  • method step S1 represents reading geometric data of an object into a computing unit 101.
  • object can, for example,
  • Patient P or a single part of his body such as. B. arm, hand, calf, foot, fracture, ligaments, etc., be or include these(s).
  • the reading in of data from a medical or non-medical real object, for example a dummy, is also covered by the present invention.
  • the geometric data can be or include medical data.
  • the geometric data of the object to be read in can be recorded or have been recorded on a real object, for example on a patient P, for example by means of a computer tomograph (see FIG. 2) and are therefore already available.
  • the recorded data or data sets can be segmented, in particular automatically, in one or more segmentation step(s) Ss eg in order to obtain segmented volume data, in particular in preparation for step S2 (see there).
  • a segmentation z. B. the fracture to be treated acutely, but also of risk structures, can be done using machine learning or deep learning.
  • MRT and/or CT data can be segmented semi-automatically to automatically and loaded into the training system.
  • the recorded data or data sets can be or have been augmented in one or more augmentation steps SAU 9 in order to increase the amount of data or the number of data sets.
  • Steps Sseg and SAU 9 can be carried out either before reading in step S1 with the acquired data or after reading in step S1 with the read data. This is shown in Fig. 1 by arrows.
  • the means that in some embodiments the data that has been read in can already be available in advance in a segmented and/or augmented form.
  • the geometric data of the object to be read in can already be present as medical volume data in DICOM (Digital Imaging and Communication in Medicine) format or can include data that is present in this format.
  • Creating the 3D model can include virtual repositioning of fracture segments, dislocated bones or parts, etc. be or include, which may be done automatically, such as described herein for automatic segmentation.
  • the bones are automatically segmented as a 3D or voxel model, preferably after the region of interest (ROI, can also be the entire image) has been roughly defined.
  • ROI region of interest
  • the aim is to separate individual bones or
  • an AI trained in this way can then support physicians as an AI assistance system in planning the reduction of fractures using forecasts based on the images of the fracture, which is provided in some embodiments.
  • the system can automatically make reduction suggestions based on bone or fracture bodies manually segmented by physicians.
  • the reading in or creation of geometric data as explained herein can thus allow the use of the system according to the invention as a surgical training and planning system which can be used for selected pathologies, since in some embodiments it is based on real or actual Fracture images of a specific patient who may not yet have been surgically treated can generate a simulation corresponding to his fracture images. This simulation can then be used to test the real, pending intervention in advance by means of a simulation.
  • an operation planning is possible through the combination of haptic and visual feedback on the basis of the individual concrete fracture.
  • the patient can be "pre-operated" in a simulation environment, which in the case of complex interventions makes a significant contribution to the safety of the surgeon and the patient.
  • the simulated case can be made available to other users after the simulation or subsequent operation on the patient be made available as a training simulation
  • Step S2 represents an assignment of density values or hardnesses to volume sections or to the segmented volume data of the object.
  • Density values or hardnesses include, for example, values for the density of skin, subcutaneous tissue, muscle tissue, etc. or the hardness of bones, bone components (cortical, cancellous, etc.) etc. These can vary from case to case (individually). For example, an osteoporotic bone has different hardness values than a healthy bone, at least in sections, and the cortical and spongiosa also differ from one another in this respect. In the non-medical as well as in the medical field, these values can be density values or hardening of materials, for example implants (ceramic, metal, etc.) or include such values.
  • the position of soft tissue is obtained, for example, via data from the MRT images .
  • the object is visualized as a virtual object 110 by means of the computing unit 101 using the data read in in a virtual, three-dimensional (3D) space, for example on a monitor or another display 105 (as described above).
  • 3D three-dimensional
  • the optional step S4 represents providing a real 3D object 190 .
  • This real 3D object 190 can optionally be based on the previously read geometric data, but it does not have to be. It is preferably provided and/or suitable to simulate the real object on which the geometric data is based in the virtual 3D space that is visualized on the display 105 .
  • Gross simplifications, such as simple geometric bodies such as a cylinder, a tube, etc. can in some
  • Embodiments can also optionally be used as a real object.
  • a simulation device 180 with a haptic 185 is provided for a user U in method step S5. Alternatively, this is already provided.
  • the simulation device 180 can include a simulation tool 187 for the user, but this is purely optional.
  • the simulation device 180 can be or include a robotic arm or a haptic arm with a haptic for a haptic force feedback. Examples of such haptic arms are z. B. as "Virtuoso 6D Desktop" from the company .
  • the haptics 185 can preferably be operated intuitively for movements of the simulation device 180 or the simulation instrument 187, e.g. B. manual or bi-manual .
  • it can be or comprise a device for haptic force feedback.
  • the haptics 185 are preferably provided and/or suitable, based on the density values or hardnesses assigned to volume sections of the virtual object 110 in step S2, to simulate resistances and/or counteracting forces that arise when operating a real instrument under real conditions, by the user during the would be haptically perceptible if the operation of the patient P, which is simulated here, would have to be observed and/or if necessary. would have to be overcome (see also the following steps S 10 and S i l).
  • the optional step S6 represents providing a tracking camera, in particular an optical real-time tracking camera 195 .
  • Tracking cameras such as the MicronTracker from ClaroNav, Ontario, Canada, www. claronav . com, are known to those skilled in the art.
  • step S7 the movements of the simulation device 180 or the simulation instrument 187 are tracked by means of sensors, such as position sensors, position sensors, optical sensors and the like, and by means of the computing unit 101.
  • the computing unit 101 can use the data from the tracking camera 195 supplied data operate (see Fig. 3b.), On data from sensors, which in the hand section 183 or in certain sections of the haptic arm, for example in the arm segments 181 and/or in the joints 182, are arranged (see FIG. 3, FIG. 3a), fall back, or the like.
  • step S8 of the method according to the invention the hand section 183 and thus the simulation device 180 or the optional simulation tool 187 guided by a user in real space.
  • This guidance can be used for training purposes and/or for the preparation and/or planning of an upcoming operation to be performed on the patient P using a real instrument corresponding to the simulation instrument 187 .
  • step S9 a virtual surgical instrument 187' is visualized in virtual, three-dimensional (3D) space, for example on a monitor or another display (105).
  • 3D three-dimensional
  • a virtual surgical instrument 187' is preferably provided and/or suitable for simulating and/or visualizing the optional simulation instrument 187, and in particular its movements in the virtual 3D space visualized on the display 105, regardless of whether such a real simulation instrument 187 is provided for the purpose of realistic training situation or z. B. is not intended to avoid the risk of injury or is replaced by a dummy.
  • Step S10 represents a determination of a collision between the virtual surgical instrument 187' in the virtual 3D space on the one hand and the virtual object 110 and/or volume sections of the virtual object 110 in the virtual space on the other hand.
  • a force feedback e.g. B. determined for the duration of the collision taking into account the density values or hardnesses of the volume sections.
  • the determined force feedback is then transmitted in step S 12 , preferably continuously or permanently, to the simulation instrument 187 or the haptics 185 of the simulation device 180 .
  • the haptic 185 is preferably controlled to urge the hand portion 183 to a calculated position by applying an appropriate restoring force to the force feedback device held by the user.
  • the force feedback felt by the user U when guiding the simulation instrument 187 can change with the virtual penetration of the virtual surgical instrument 187 ′, which simulates the simulation instrument 187 in virtual space, into the virtual object 110 .
  • the change can, for example, take place continuously, repeatedly, in stages, under parameter control, as a function of the associated density values or hardness levels and/or in some other way.
  • the method steps S 1 to S 12 of the method according to the invention that are carried out here can optionally be carried out in the above-mentioned order, with a time overlap or simultaneously.
  • steps S 10 to S 12 can be performed several times and/or in loops in some embodiments, which can be seen in FIG. 1 is represented by a recursion arrow.
  • sequences of the movement of the virtual surgical instrument 187' and/or the virtual object 110 for example in a data memory 103 provided and/or provided and/or suitable for this purpose (see Fig. 3a and Fig. 3b ) to record .
  • data relating to the angle and effort required when the virtual surgical instrument 187 ′ of the virtual 3D space enters the virtual object 110 distances covered, resistances of the force feedback overcome during a movement of the virtual surgical instrument 187 ′ and the like can be of interest and get saved .
  • a target course of surgery or sections for this is created from a large number of recorded sequences, which simulate a virtual course of surgery on virtual object 110 or sections of the course of surgery thereon, or defined and stored.
  • step S14 a representation of the guidance of the virtual surgical instrument 187' from the target course of the operation or the section thereof, in particular relative to an operation object, can be displayed on a monitor or a display 105. This can be done in advance, in parallel/overlapping and/or after a currently running simulation.
  • the representation can be or include a film or a sequence of (individual) images; it can be implemented using augmented reality or something comparable.
  • step S15 a multiplicity of target operation courses or sections thereof, which are from a multiplicity of recorded sequences which show the virtual operation course or sections thereof, are stored in the data memory 103. A jump to step S 18 is possible here, as explained below.
  • step S16 of the method according to the invention sequences of the movement in relation to space and time of the virtual surgical instrument 187' and/or the virtual object 110 in virtual space (or also the movement of these relative to one another), the simulation instrument 187 and/or or a real object 190 in real space (or also the relative movement of these to each other) or in each case of sections for this.
  • one or more properties of the recorded movement sequences of the simulation instrument 187 and/or the virtual surgical instrument 187' are compared with at least one target surgical procedure or sections thereof stored in the data memory 103 provided. To avoid repetition, reference is made to the above definition of a target operation history.
  • the quality of the comparison is evaluated using predetermined criteria. This can be done, for example, by means of a point score, a comparison with the performance of other users, the awarding of school grades, a level increase or the like.
  • Such a statement can be made optically, acoustically and/or mechanically or haptically. It can optionally take place on an external device, for example a smartphone.
  • the statements can be stored over several comparisons over time, for example in the data memory 103 , in particular in order to recognize and/or store improvements in the quality of the guidance of the simulation instrument 187 .
  • step S18 data can advantageously be extracted from the large number of target operation courses or sections thereof stored in step S15, for example by means of artificial intelligence or according to human criteria.
  • This extracted data can be provided in a suitable data format and/or as machine data and transmitted to a storage device 203 of a surgical robot 200 in order to be read out by the surgical robot 200 and/or used to control it.
  • the selection of the data for extraction and provision fulfills at least one predetermined criterion.
  • this is data that corresponds to a target course of the operation and therefore in particular ensures a good quality of the data for an upcoming (real) course of the operation using the operation robot 200 . It can be irrelevant whether this target course of the operation was entered by an experienced surgeon, for example as part of an operation planning, or was extracted from training data.
  • FIG. 2 shows schematically simplified the devices for carrying out the acquisition step Ssrf (see FIG. 1) of geometric data, here data of a patient P and for example by means of a computer tomograph 50, during an exemplary embodiment of the method according to the invention.
  • This corresponds to the acquisition of geometric data on a real object, which in other embodiments can refer to the reading in of data that has already been collected.
  • the devices for carrying out steps S1 to S3 are also shown in a schematically simplified manner.
  • the data recorded here, for example, by means of the computer tomograph 50 are read into a computing unit 101 (compare step SI in FIG . SAU 9 and step S2 in Fig. 1).
  • the data, their segmentation and the allocation of density values or hardnesses can be stored in the data memory 103.
  • a virtual object 110 which is based on the data of the real object (in Fig. 2 this is the patient P as an example), is displayed in a virtual, three-dimensional (3D) space on a monitor 105 by means of the computing unit 101 using the data that has been read in represented or visualized. Additional image processing steps required for this , such as e.g. B. Smoothing, filtering or the like are also included in the method according to the invention.
  • FIG. 3 shows schematically simplified devices for carrying out the method according to the invention in an exemplary arrangement.
  • Fig. 3 shows a computer system 100 according to the invention in an exemplary embodiment with a simulation instrument 187 (compare step S5 of FIG. 1).
  • the simulation instrument 187 is part of a simulation device 180 and is preferably simulated by a virtual surgical instrument 187' in the virtual space that is visualized on the display 105.
  • the simulation device 180 further includes a haptic arm, which in turn can be or include a haptic 185, for example a device for haptic force feedback (compare step S 8 in FIG. 1).
  • the simulation device 180 has a hand section 183 for manual guidance of the simulation instrument 187 by the user U, whose hand is indicated schematically.
  • Gyroscopic devices for example in the form of position sensors, can be provided within the hand section 183 and/or in the haptic arm in order to
  • the movement of the real object 190 in space is followed (“tracked”) and simulated in virtual space by tracking the virtual surgical instrument 187′ (compare step S7 in FIG. 1).
  • FIG. 3a shows schematically simplified devices for carrying out the method according to the invention in a further exemplary arrangement.
  • FIGS. 1 and 3 Reference is made to the description of FIGS. 1 and 3 .
  • Fig. 3a shows the computer system 100 according to the invention of Fig. 3, again with the simulation device 180 with the simulation instrument 187.
  • a real object 190 can also be seen, which has the shape of a cylinder purely by way of example and not as a limitation (see S4 of FIG. 1).
  • the real object 190 can serve as a means for the user to indirectly move the virtual object, such as a hand, a foot, and so on. If the user moves the real object 190, he can correspondingly move the virtual object 190 representing a hand, a foot, etc. in the monitor view.
  • the real object 190 can optionally be based on the previously read geometric data. It can for example be a dummy z. B using 3D printing based on patient data was created, which were recorded by means of the computer tomograph 50 (see FIG. 2).
  • the real object 190 is preferably provided and/or suitable for simulating the real object on which the geometric data is based in the virtual space that is visualized on the display 105, with geometric similarity or even identity between the real object 190 and the associated virtual object 110 does not arrive in virtual space.
  • the real object can have sensors, in particular gyroscopic devices, and/or optically detectable structures, for example markers.
  • the real world object 190 may also optionally be tracked as described herein or in other ways. Its movements in real space can be simulated using the representation and movement of the virtual object 110 .
  • 3b shows schematically simplified devices for carrying out the method according to the invention in a third exemplary arrangement.
  • Fig. 3b shows the arrangement of Fig. 3a supplemented by a
  • Tracking camera 195 (compare step S6 in FIG. 1).
  • the purely optional tracking camera follows ("tracks") the movements of the simulation instrument 187, in particular its tip, by means of optical sensors and the computing unit 101.
  • the computing unit 101 uses the data from the tracking camera to calculate the coordinates (x, y, z) one To be able to detect the position of the tip of the simulation instrument 187 in space as precisely as possible and to be able to use this to calculate virtual coordinates (x′, y′, z′) for the tip of the virtual surgical instrument 187′ in virtual space.
  • the movement of the real object 190 in space is optionally also tracked and simulated in virtual space (compare step S7 in FIG. 1).
  • sequences of the movement of the simulation instrument 187 and/or the virtual 3D object 110 in space or sections thereof can be recorded.
  • one or more properties of the recorded movement of the simulation instrument 187 can be compared with at least one target operation history (or sections thereof) stored in the provided data memory 103 (compare step S 16 of FIG. 1).
  • the tracking, in particular of the simulation instrument 187 and/or the virtual 3D object 110 can take place in an alternative way, for example by recording the position of the simulation device 185 or its sections in space, the angle(s) of the robot arm segments of the simulation device 180 relative to one another, as already stated herein.
  • the real object 190 is also not tracked with a tracking camera, but is also provided with an arm whose position in space (angle, attitude, position) etc. is recorded and evaluated accordingly.
  • the quality of the comparison can be evaluated and, in particular, via feedback be used by the user for training purposes by trying to bring the management of the simulation instrument 187 in line with a stored target operation history.
  • an upcoming operation could be planned in advance with the best possible steps and the corresponding data extracted, made available and transmitted to a storage device 203 of a surgical robot 200, which includes a suitable data format and/or machine data to be read out by the surgical robot and/or to be used for its control (see FIG. 4).
  • FIGS. 3, 3a and 3b already correspond to that robot arm which, in some embodiments as a robot arm of the surgical robot 200, will optionally perform the operation on the patient.
  • a haptic arm on the one hand and a robot arm on the other hand in some embodiments it is therefore possible to speak of a force feedback/tool control arm in a simplified manner.
  • Fig. 4 shows a schematically simplified exemplary embodiment of a system 1 according to the invention with a computer system 100 according to the invention, a surgical robot 200, a control unit 150 and an optional user interface 170.
  • the computer system 100 has at least one computing unit 101 and at least one data memory 103 as described herein.
  • Data store 103 is , as herein revealed , stored , i . H . it stores geometric data, a large number of objects, in particular a common object class as described herein, at least one target operation course, durations of previous, comparable operations, evaluation modalities or the like, which were obtained by means of an embodiment of the method according to the invention .
  • the surgical robot 200 has a robot arm with robot arm segments 201 and joints 202 . Furthermore, the surgical robot 200 has a receptacle 205 for a real surgical instrument 207 , preferably at a free end of the robot arm.
  • the real operating instrument 207 can be a drill or a milling cutter, for example, or can include such a tool.
  • the system 1 also includes a control unit 150 which is configured or programmed to control the surgical robot 200 based on data stored in the data memory 103 or based on data stored in the data memory 203 of the surgical robot 200 .
  • system 1 optionally also includes a user interface 170, which is provided and/or suitable for a surgeon to enter control commands for controlling the surgical robot 200.
  • the surgical robot 200 can thus, supported for example by the use of artificial intelligence (AI) or machine learning or Deep learning, as described herein, based on semi-autonomous or autonomous operations perform on the data that has been transferred to its storage device 203 . See also Fig. 5 .
  • AI artificial intelligence
  • machine learning or Deep learning as described herein, based on semi-autonomous or autonomous operations perform on the data that has been transferred to its storage device 203 . See also Fig. 5 .
  • Fig. 5 shows an exemplary scheme for the course of an operative intervention using the method or method according to the invention. using the system 1 according to the invention.
  • An operative scaphoid fracture treatment serves as an exemplary starting scenario.
  • the scenario is divided into individual steps 01 to 015.
  • 01 represents the presentation of a patient, for example in the emergency room of a clinic, who is complaining of severe pain in, for example, the right hand.
  • the diagnosis of the emergency room physician after the creation of image data results in the present example as a scaphoid fracture (fracture of the os scaphoideum , also : scaphoid) .
  • 02 stands for the transformation of the image data available from 01, preferably DICOM data, using the present invention into a virtual 3D model in which the bone fragments are automatically repositioned using the present invention.
  • a responsible surgeon optionally checks the repositioning carried out in seconds in the 3D model and, if necessary, corrects it manually using the present invention.
  • the 3D model e.g. B. by means of Automated Component Segmentation, ACS, z. B. as disclosed herein, all necessary spatial data (x, y, z coordinates and vector data for the volume rendering) as well as the density data (voxel density) of the bones of interest, e.g. B. every single bone of the hand and preferably the (lower) arm included.
  • the position of the fracture and the fracture elements can be found visually in the form of x, y, z coordinates and vector data in the 3D model.
  • the relocated spatial data x, y, z coordinates and vector data
  • the patient is prepared for the subsequent operation by a surgical team, and his right arm is placed on an arm table or an arm bench of the 0P table.
  • the surgical team pre-positions the arm and positions the robot and the X-ray device, for example a C-arm, with the option of digital volume tomography (DVT).
  • DVD digital volume tomography
  • the further operation process can run completely autonomously.
  • the responsible surgeon preferably monitors every step and can therefore intervene to correct it at any time.
  • not every step that can run automatically has to be taken over by the system.
  • the invention also provides for any such steps to be carried out manually, despite the fact that they can be automated. In such cases, the invention can be limited to the automated steps. In practice, they can follow one another directly, alternatively manual intermediate steps can be provided or the direct sequence of automatic steps can be interrupted.
  • step 04 represents the displacement of the patient's arm by means of an autonomous gripping farm on a corresponding base, here with the dorsal side down, based on data that were previously obtained in step 02, preferably in an - optimally exactly - pre-calculated position.
  • the system or its AI preferably determines how the arm and hand must be positioned. For example, the wrist is hyperextended over a pad that serves as a hypermochlion, so that the two fracture elements of the scaphoid are actually reduced by approaching them.
  • the data used for this was determined in step 02 using the image data, preferably DICOM data, and the calculated 3D model.
  • X, y, z coordinates of selected points (also known as markers) of the extremity or another part of the body, here the arm and the hand can be used to reposition step 04, for example those features that are always the same for each arm and each hand, which are individually unique (e.g., fingertips, thumb, etc.). It is preferably done a constant comparison with the position values of the markers determined in step 02 (also x, y, z coordinates) up to the pre-calculated, optimal position for the operation.
  • the coordinates required for this purpose are recorded in this and the following steps using suitable devices, e.g. B. by means of one or more tracking cameras, which record the position of the arm and the hand, make it accessible to the control device 150, for example as DICOM data, in order to find the optimal position according to step 02.
  • suitable devices e.g. B. by means of one or more tracking cameras, which record the position of the arm and the hand, make it accessible to the control device 150, for example as DICOM data, in order to find the optimal position according to step 02.
  • the positions of the robot, arm and hand of the patient, the C-arm and/or the like are also checked, which is shown in FIG. 5 is represented by 05 .
  • the robot is preferably guided by the comparison of the coordinates and knows its position exactly. The verification is done by the system or the AI, which can be monitored by the doctor.
  • control unit 150 represents the optional creation of an X-ray image in two planes (or a DVT) as well as the transmission of the captured image data to the control unit 150, which is programmed to control and/or regulate the entire process. Based on this data, the control unit 150 checks the correct position of the hand and the bones or bones before the actual drilling. their markers.
  • the surgeon has the option of checking the correctness of the determination or the marking or checking for plausibility, for example using a screen or a console. Then, optionally after confirmation by the surgeon, the skin incision is made automatically by means of the robotic arm 200 .
  • the path line of the scalpel can be planned using a coordinate system (also using x, y and z coordinates) and corresponding vector data and tracked or recorded using tracking cameras 195 .
  • the force with which the skin has to be incised depends on the condition of the skin and can be individually corrected or increased in some versions. be customizable . It moves in the millinewton [mN] range and is applied by means of a resistance force measurement in the robot arm 200 .
  • the set of instruments is changed in 08 on the autonomous robotic arm 200, the robotic arm 200 now simulates a drill with a K wire as a real operating instrument 207.
  • the K-wire is placed in a z . B. drilled into the scaphoid at step O2 , predicted point and entry angle , and with a force also predicted at step O2 .
  • Position determination sensors determine the vector of the robot arm 200, with the axis of the robot arm 200 matching, for example, with the K-wire vector.
  • the drilling entry point is defined via the x, y, z coordinates of the K-wire tip and the entry point on the hand.
  • this process may be corrected e.g. B if the hand was moved.
  • the drilling force (in the unit [mN]) is optionally variable and is preferably regulated in comparison with the 3D model created in step O2 in order to take account of the bone density (cortical bone, spongiosa).
  • the x, y, z coordinates of the K-wire tip and the end point are continuously compared with the pre-calculated end point position in order to achieve an optimal penetration depth.
  • the tracking cameras 195 and the position or Position sensors also include detection by means of imaging, e.g. B. by means of fluoroscopy or by means of the X-ray machine.
  • the K-wire is then pre-drilled up to the radius and fixed there.
  • the same robotic arm 200 changes autonomously in O10 to a cannulated drill as a further surgical instrument 207 and drills the hole for the screw using the K-wire, exactly down to the subchondral lamella of the scaphoid bone.
  • a robot arm other than that designated 200 can be used for this purpose.
  • the vector of the cannulated drill of the robotic arm 200 preferably matches the vector of the K-wire to ensure the correct entry angle of the drill.
  • the vector can be calculated in advance by the system, e.g. B. in O2 .
  • the Correct positioning of the robot arm 200 can also be done by means of the position or Position determination sensors and the tracking camera (s) are ensured.
  • the entry point of the cannulated drill is based on the current position of the K-wire in real space, for example. Again, the tracking camera(s) 195 can be used for this.
  • the drilling force (in the unit [mN]) is optionally regulated by means of the resistance force measurement in the robot arm 200.
  • a constant comparison with the data of the 3D model created in step O2 can be carried out in order to take account of the existing bone density (cortical bone, spongiosa), for example.
  • the penetration depth of the cannulated drill is preferably also defined via the x, y and z coordinates and the vector data of the K-wire, with the drill not being advanced to the tip of the K-wire, but beforehand, preferably at the subchondral lamella of the os scaphoideum, is stopped in its longitudinal movement.
  • a comparison with the pre-calculated end point position can also take place. As explained, this can preferably lie as precisely as possible on the subchondral lamella of the scaphoid bone.
  • the tracking camera(s) 195 can be used, alternatively or additionally, the position or position determination sensors . In some embodiments, a comparison with a preferably current X-ray image can be carried out for this purpose in this step.
  • Oll represents the pick-up of the cannulated screw by the robotic arm 200, the length of which z. B. was already calculated in step 02 (see above) or was obtained in a later step, but preferably from the data obtained in step O2.
  • the determination of the entry angle and the entry point of the screw takes place, for example, analogously to the determination of the entry angle and entry point of the drill.
  • a preferably variable torque (for example in the unit [Nm]) can take place by means of a torque measurement in the robot arm 200 .
  • a constant comparison with the data of the 3D model created in step O2 can also be carried out in order to take account of the existing bone density (cortical bone, spongiosa), for example.
  • the penetration depth the end position of the screw end point is e.g. B. via its x, y and z coordinates in comparison with the data of the vector of the K-wire.
  • the tip of the screw preferably reaches exactly the area of the subchondral lamella of the os scaphoid .
  • a comparison with the pre-calculated end point position can also take place.
  • the tracking camera(s) 195 can be used, alternatively or additionally, the position or position sensor installed in the robot arm 200. position determination sensors .
  • a comparison with a preferably current X-ray image can also be carried out here.
  • the gripping farm 200 removes the K-wire in step 013 .
  • 014 represents the surgeon treating the surgical wound and the anesthetist initiating the recovery process.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Algebra (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Chemical & Material Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Medicinal Chemistry (AREA)
  • Pulmonology (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a computer-assisted method comprising the steps of: - reading in geometric data of an object; - assigning density values or hardnesses to volumetric portions of the object; - visualizing the object by means of the computing unit (101) on the basis of the read-in data in a virtual three-dimensional space, thus obtaining a virtual object (110); - tracking the movement of a simulation instrument (187); - providing a simulation device (180) comprising haptics (185) for the user (U), optionally comprising a simulation instrument (187); - guiding the simulation device (180) or the simulation instrument (187) in the real space; - visualizing a virtual surgical instrument (187') in the virtual space; - identifying a collision between the virtual surgical instrument (187') and the virtual object (110) and/or volumetric portions thereof; - determining a force feedback for the duration of the collision taking into consideration the density values or hardnesses of the volumetric portions; - transferring the force feedback determined to the simulation device (180) or the haptics (185) thereof.

Description

Beschreibung Description
Operationssystem mit Haptik Operating system with haptics
Die vorliegende Erfindung betri f ft ein computergestütztes oder computerimplementiertes Verfahren gemäß Anspruch 1 , ein Computersystem gemäß Anspruch 18 sowie ein System gemäß Anspruch 19 bzw . gemäß j eweils der Oberbegri f fe oder Gattungsbegri f fe dieser Ansprüche . The present invention relates to a computer-supported or computer-implemented method according to claim 1, a computer system according to claim 18 and a system according to claim 19 or according to the preambles or generic terms of these claims.
Frakturen wie ene der Handknochen können zu mechanischen Beeinträchtigungen und zu einer eingeschränkten Beweglichkeit der Hand führen . Deshalb müssen Chirurgen Brüche der Hand häufig operativ versorgen und stabilisieren . Für eine Fixierung der Knochenfragmente werden speziell entwickelte , dünne , scharfe K-Drähte ( auch Kirschner-Drähte ) unterschiedlicher Dicke durch einen kleinen Hautschnitt minimalinvasiv in den gebrochenen Knochen gebohrt . Bei diesen komplexen, chirurgischen Eingri f fen mit eingeschränkter Sicht ist es äußerst wichtig, Verletzungen an Risikostrukturen wie Nerven oder Gefäßen zu vermeiden . Für eine fehlerfreie und sichere Durchführung einer minimalinvasiven Handoperation sind eine langj ährige Erfahrung sowie umfangreiches theoretisches Wissen und praktisches Training für Chirurgen notwendig . Gegenwärtig ist es möglich, Bohrungen mit Hil fe von synthetischen und/oder auf getauten Kadaverknochen zu trainieren . Tierkadaverknochen bieten j edoch ledigl ich eine eingeschränkte Realitätsnähe aufgrund der unzureichend nachgebildeten menschlichen Anatomie und menschliche Leichenteile sind sehr teuer und nur begrenzt verfügbar . Zusätzliches Training findet traditionell im Operationssaal statt , was sich j edoch sehr zeitaufwendig gestaltet (bezogen auf die zu vergütende Zeit im Operationssaal und die Zeit des chirurgischen Lehrers ) . Deshalb kommen in der klini schen Ausbildung, neben dem Erfahrungsaustausch zwischen noch unerfahrenem Arzt und erfahreneren Kollegen und Kol leginnen, auch Trainingsvorrichtungen an Rechnern zum Einsatz , an bzw . mittels denen risikofrei auch schwierige Eingri f fe geübt werden können . Fractures, such as those of the bones of the hand, can lead to mechanical impairment and limited mobility of the hand. That is why surgeons often have to surgically treat and stabilize fractures of the hand. To fix the bone fragments, specially developed, thin, sharp K-wires (also known as Kirschner wires) of different thicknesses are drilled through a small incision in the skin in a minimally invasive manner into the broken bone. In these complex, surgical procedures with limited visibility, it is extremely important to avoid injury to risk structures such as nerves or vessels. Many years of experience as well as extensive theoretical knowledge and practical training are required for surgeons to carry out a minimally invasive hand operation correctly and safely. It is currently possible to train bores using synthetic and/or thawed cadaver bone. However, animal carcass bones offer limited realism due to poorly modeled human anatomy, and human cadaver parts are very expensive and limited in availability. Additional training traditionally takes place in the operating room, which is very time-consuming (based on on the compensable time in the operating room and the time of the surgical instructor ) . Therefore, in clinical training, in addition to the exchange of experience between inexperienced doctors and more experienced colleagues, training devices on computers are also used , on or . with which even difficult interventions can be practiced without risk.
Eine Aufgabe der vorliegenden Erfindung ist es , ein weiteres computergestütztes Verfahren anzugeben . Ferner sollen ein Computersystem und ein System angegeben werden . An object of the present invention is to specify a further computer-aided method. A computer system and a system are also to be specified.
Die erfindungsgemäße Aufgabe wird durch ein computergestütztes oder computerimplementiertes Verfahren mit den Merkmalen des Anspruchs 1 und durch ein Computersystem mit den Merkmalen des Anspruchs 18 gelöst . Zudem wird sie gelöst durch ein System mit den Merkmalen des Anspruchs 19 . The object according to the invention is achieved by a computer-aided or computer-implemented method having the features of claim 1 and by a computer system having the features of claim 18 . In addition, it is solved by a system with the features of claim 19 .
Erfindungsgemäß wird somit ein computergestütztes Verfahren vorgeschlagen, welches folgende Schritte umfasst : According to the invention, a computer-aided method is thus proposed which includes the following steps:
Einlesen von geometrischen Daten eines Obj ekts in eine Recheneinheit ; optional : Zuordnen von Dichtewerten oder Härten zu Volumenabschnitten des Obj ekts ; Reading geometric data of an object into a computing unit; optional : assigning density values or hardnesses to volume sections of the object ;
Visualisieren des Obj ekts mittels der Recheneinheit anhand der eingelesenen Daten, z . B . in einem virtuellen, dreidimensionalen ( 3D) Raum, auf einer Anzeige oder einem Monitor, z . B . einem 3D-Monitor (hierbei kann das Visualisieren eine stereoskopische Darstellung auf dem Monitor sein) ; optional : Bereitstellen eines realen 3D-Obj ekts , optional basierend auf den geometrischen Daten; Bereitstellen einer Simulationsvorrichtung mit - z . B . manueller oder bi-manueller - Haptik, optional mit einem Simulationsinstrument für den Nutzer, wobei das Simulationsinstrument insbesondere ein volumenabtragendes Instrument sein kann, welches wiederum beispielsweise ein Bohrer oder Fräser sein kann; optional : Bereitstellen einer optischen Echtzeit- Trackingkamera ; Visualizing the obj ects using the computing unit based on the data read, z. B. in a virtual, three-dimensional (3D) space, on a display or monitor, e.g. B. a 3D monitor (in this case the visualization can be a stereoscopic display on the monitor); optional: providing a real 3D object, optionally based on the geometric data; providing a simulation device with - z . B. manual or bi-manual - haptic, optionally with a simulation instrument for the user, wherein the simulation instrument can be in particular a volume-removing instrument, which in turn can be, for example, a drill or milling cutter; optional : providing a real-time optical tracking camera ;
Tracken der Bewegung der Simulationsvorrichtung oder des Simulationsinstruments im realen Raum, z . B . durch Erfassen von Positionswerten eines Haptikarms , Roboterarms oder Teilen hiervon oder des Simulationsinstruments , mittels der optionalen Trackingkamera oder auf andere Weise ; Tracking the movement of the simulation device or the simulation instrument in real space, e.g. B. by acquiring position values of a haptic arm, robot arm or parts thereof or the simulation instrument, by means of the optional tracking camera or in another way;
Führen der Simulationsvorrichtung oder des Simulationsinstruments im realen Raum durch den Nutzer ; Visualisieren eines virtuellen Operationsinstruments , beispielsweise auf der Anzeige oder dem Monitor ; Ermitteln einer Kollision zwischen dem virtuellen Operationsinstrument einerseits und dem virtuellen Obj ekt und/oder Volumenabschnitten des virtuellen Obj ekts andererseits ; Bestimmen eines Kraft feedbacks für die Dauer der Kollision unter Berücksichtigung der Dichtewerte oder Härten der Volumenabschnitte ; und Übertragen des bestimmten Kraft feedbacks auf die Simulationsvorrichtung oder die Haptik derselben, vorzugsweise kontinuierlich oder dauerhaft . guiding the simulation device or the simulation instrument in the real space by the user; Visualizing a virtual surgical instrument, for example on the display or monitor; determining a collision between the virtual surgical instrument on the one hand and the virtual object and/or volume sections of the virtual object on the other hand; determining a force feedback for the duration of the collision, taking into account the density values or hardnesses of the volume sections; and transferring the determined force feedback to the simulation device or the haptics of the same, preferably continuously or permanently.
Die oben beschriebenen Schritte des erfindungsgemäßenThe steps of the invention described above
Verfahrens können optional in oben genannter Reihenfolge , zeitlich überlappend oder gleichzeitig durchgeführt werden . Insbesondere können die letzten vier der oben aufgeführten Schritte in manchen Aus führungs formen mehrfach und/oder in Schleife, ausgeführt werden. Methods can optionally be carried out in the above-mentioned order, with a time overlap or simultaneously. In particular, in some embodiments, the last four of the steps listed above may be performed multiple times and/or in a loop.
Erfindungsgemäß wird weiter ein Computersystem vorgeschlagen, welches zumindest einen Datenspeicher wie hierin genannt umfasst und welcher wie hierin offenbart mit geometrischen Daten, einer Vielzahl von Objekten, insbesondere einer gemeinsamen Objektklasse und/oder dergleichen bespeichert ist, wobei die gespeicherten geometrischen Daten mittels eines erfindungsgemäßen Verfahrens gewonnen wurden. According to the invention, a computer system is also proposed which comprises at least one data memory as mentioned herein and which, as disclosed herein, is stored with geometric data, a large number of objects, in particular a common object class and/or the like, the stored geometric data being obtained using a method according to the invention became.
Ob j ektklassen können verschiedenste Einteilungen haben, sie können gröbere und feinere Strukturen klassifizieren. Object classes can have a wide variety of classifications, they can classify coarser and finer structures.
Ob j ektklassen können beispielsweise anatomische Strukturen grob vereinfacht widerspiegeln, wie Körperteile, z. B. Hand, Arm, Gelenk usw., aber auch feiner unterteilt sein, beispielsweise nach Gewebestruktur, wie z. B. bestimmte Knochen usw. oder noch feiner, beispielsweise Knorpel, Knochenhaut (Periost) , Kortikalis, Spongiosa usw. Obj ect classes can, for example, reflect anatomical structures in a grossly simplified manner, such as body parts, e.g. B. hand, arm, joint, etc., but also be subdivided more finely, for example by tissue structure, such. B. certain bones, etc. or even finer, such as cartilage, periosteum, cortical bone, spongiosa, etc.
Ob j ektklassen können Knochen mit Frakturf lächen umfassen oder hierauf gerichtet sein, optional unterteilt in klassifizierte Brüche wie etwa Tossy I bis III oder andere, insbesondere in der Knochenchirurgie übliche Klassifizierungen. Weitergehende Unterscheidungen (Verletzung des jungen Patienten versus des älteren Patienten, mit oder ohne Osteoporoseerscheinungen, usw.) können ebenfalls zu Ob j ektklassen oder -unterklassen führen . Object classes may include or be directed to bones with fracture surfaces, optionally subdivided into classified fractures such as Tossy I through III or other classifications particularly common in bone surgery. Further distinctions (injury of the young patient versus the older patient, with or without signs of osteoporosis, etc.) can also lead to object classes or subclasses.
Erfindungsgemäß wird weiter ein System vorgeschlagen, welches ein erfindungsgemäßes Computersystem, einen Operationsroboter sowie eine Steuereinheit zum Steuern des Operationsroboters umfasst . Der Operationsroboter weist seinerseits eine Aufnahme für ein Operationsinstrument auf , welche beispielsweise in oder an einem Roboterarm des Operationsroboters angeordnet sein kann . Die Steuereinheit steuert den Operationsroboter basierend auf im Datenspeicher des Computersystems gespeicherten Daten, welche mittels des erfindungsgemäßen Verfahrens darin gespeichert wurden . According to the invention, a system is also proposed which has a computer system according to the invention, a surgical robot and a control unit for controlling the surgical robot. For its part, the surgical robot has a holder for a surgical instrument, which can be arranged, for example, in or on a robot arm of the surgical robot. The control unit controls the surgical robot based on data stored in the data memory of the computer system, which was stored therein using the method according to the invention.
Erfindungsgemäße Aus führungs formen können manche , einige oder alle der folgenden Merkmale in beliebiger Kombination aufweisen, soweit dies für den Fachmann nicht erkennbar technisch unmöglich ist . Vorteilhafte Weiterbildungen der vorliegenden Erfindung sind j eweils auch Gegenstand der Unteransprüche und Aus führungs formen . Embodiments according to the invention can have some, some or all of the following features in any combination, unless this is technically impossible for a person skilled in the art. Advantageous developments of the present invention are also the subject matter of the dependent claims and embodiments.
Bei allen folgenden Aus führungen ist der Gebrauch des Ausdrucks „kann sein" bzw . „kann haben" usw . synonym zu „ist vorzugsweise" bzw . „hat vorzugsweise" usw . zu verstehen und soll erfindungsgemäße Aus führungs formen erläutern . In all of the following statements, the use of the expression "may be" or "may have" etc. synonymous with "is preferably" or "has preferably" etc. to understand and is intended to explain embodiments of the invention.
Wann immer hierin Zahlenworte genannt werden, so versteht der Fachmann diese als Angabe einer zahlenmäßig unteren Grenze . Sofern dies zu keinem für den Fachmann erkennbaren Widerspruch führt , liest der Fachmann daher beispielsweise bei der Angabe „ein" oder „einem" stets „wenigstens ein" oder „wenigstens einem" mit . Dieses Verständnis ist ebenso von der vorliegenden Erfindung mit umfasst wie die Auslegung, dass ein Zahlenwort wie beispielsweise „ein" alternativ als „genau ein" gemeint sein kann, wo immer dies für den Fachmann erkennbar technisch möglich ist . Beides ist von der vorliegenden Erfindung umfasst und gilt für alle hierin verwendeten Zahlenworte . Wann immer hierin von Raumangaben, wie z. B. von „oben",Whenever numerical words are mentioned herein, the person skilled in the art understands them as indicating a numerical lower limit. Provided that this does not lead to a discernible contradiction for the person skilled in the art, the person skilled in the art always reads "at least one" or "at least one" when specifying "a" or "an". This understanding is also included in the present invention, as is the interpretation that a numerical word such as "a" can alternatively be meant as "exactly one", wherever this is technically possible for a person skilled in the art. Both are covered by the present invention and apply to all numerals used herein. Whenever spatial information, such as e.g. B. from "above",
„unten", „links" oder „rechts", die Rede ist, versteht der Fachmann hierunter die Anordnung in den hier angehängten Figuren und/oder im Gebrauchszustand. „Unten" ist dem Erdmittelpunkt oder dem unteren Rand der Figur näher als „oben" . "Bottom", "left" or "right", the person skilled in the art understands the arrangement in the figures attached here and/or in the state of use. "Bottom" is closer to the center of the earth or the lower edge of the figure than "above" .
Vorteilhafte Weiterentwicklungen der vorliegenden Erfindung sind jeweils Gegenstand von Unteransprüchen und Ausführungsformen . Advantageous further developments of the present invention are the subject matter of dependent claims and embodiments.
Wenn hierin von einer Aus führungs form die Rede ist, so stellt diese eine erfindungsgemäße, beispielhafte Ausführungsform dar . If an embodiment is mentioned here, it represents an exemplary embodiment according to the invention.
Wenn hierin offenbart ist, dass der erfindungsgemäße Gegenstand ein oder mehrere Merkmale in einer bestimmten Ausführungsform aufweist, so ist hierin jeweils auch offenbart, dass der erfindungsgemäße Gegenstand genau dieses oder diese Merkmale in anderen, ebenfalls erfindungsgemäßen Ausführungsformen ausdrücklich nicht aufweist, z. B. im Sinne eines Disclaimers. Für jede hierin genannte Aus führungs form gilt somit, dass die gegenteilige Ausführungsform, beispielsweise als Negation formuliert, ebenfalls offenbart ist . If it is disclosed herein that the object according to the invention has one or more features in a specific embodiment, it is also disclosed herein that the object according to the invention expressly does not have this or these features in other embodiments that are also according to the invention, e.g. B. in the sense of a disclaimer. For each embodiment mentioned here, it is therefore the case that the opposite embodiment, for example formulated as a negation, is also disclosed.
Wenn hierin Verfahrensschritte genannt sind, so ist die erfindungsgemäße Vorrichtung in einigen Aus führungs form konfiguriert, um eine, mehrere oder alle dieser Verfahrensschritte, insbesondere wenn dies automatisch durchführbare Schritte sind, in beliebiger Kombination auszuführen oder entsprechende Vorrichtungen, welche sich vorzugsweise namentlich an die Bezeichnung des j eweiligenIf method steps are mentioned herein, the device according to the invention is configured in some embodiments to carry out one, several or all of these method steps in any combination, particularly if these are steps that can be carried out automatically, or to carry out corresponding devices which preferably by name to the designation of the respective
Verfahrensschritts anlehnen ( z . B . „Ermitteln" als Verfahrensschritt und „Vorrichtung zum Ermitteln" für die Vorrichtung, usw . ) und welche ebenfalls Teil der erfindungsgemäßen Vorrichtung ( en) sein oder hiermit in Signalverbindung verbunden sein können, entsprechend anzusteuern . Based on the method step (e.g. "determine" as a method step and "device for determining" for the device, etc.) and which can also be part of the device(s) according to the invention or can be connected to it in a signal connection, to be controlled accordingly.
Wenn hierin von programmiert oder konfiguriert die Rede ist , so können diese Begri f fe in manchen Aus führungs formen gegeneinander austauschbar sein . When reference is made herein to programmed or configured, these terms may be interchangeable in some embodiments.
Wenn hierin von einer Signal- oder Kommunikationsverbindung zweier Komponenten die Rede ist , so kann hierunter eine im Gebrauch bestehende Verbindung zu verstehen sein . Ebenso kann hierunter zu verstehen sein, dass eine Vorbereitung zu einer solchen ( kabelgebundenen, kabellosen oder auf andere Weise umgesetzten) Signalverbindung besteht , beispielswei se durch eine Kopplung beider Komponenten, etwa mittels pairing, usw . If a signal or communication connection between two components is discussed here, this can be understood to mean a connection that exists during use. This can also be understood to mean that there is a preparation for such a signal connection (wired, wireless or implemented in some other way), for example by coupling the two components, for example by means of pairing, etc.
Unter pairing versteht man einen Prozess , der im Zusammenhang mit Rechnernetzwerken erfolgt , um eine anfängliche Verknüpfung zwischen Rechnereinheiten zum Zwecke der Kommunikation herzustellen . Das bekannteste Beispiel hierfür ist das Herstellen einer Bluetooth-Verbindung, mittels welcher verschiedene Einrichtungen ( z . B . Smartphone, Kopfhörer ) miteinander verbunden werden . Pairing wird gelegentlich auch als bonding bezeichnet . Pairing is a process that occurs in the context of computer networks to establish an initial association between computing devices for the purpose of communication. The most well-known example of this is the establishment of a Bluetooth connection, by means of which various devices (e.g. smartphone, headphones) are connected to one another. Pairing is also sometimes referred to as bonding.
Das Computersystem weist eine Steuer- oder Regeleinrichtung auf . Sie kann die Aus führung aller oder im Wesentlichen aller Verfahrensschritte veranlassen, oder einer beliebigen Kombination von hierin of fenbarten Verfahrensschritten, insbesondere wenn diese maschinell oder automatisch ausgeführt werden. Das erfindungsgemäße Verfahren kann im Wesentlichen oder vollständig von der Steuer- oder Regeleinrichtung ausgeführt werden. Es kann teilweise von der Steuer- oder Regeleinrichtung ausgeführt werden. The computer system has a control or regulating device. It may cause all or substantially all of the method steps to be performed, or any combination of method steps disclosed herein, in particular if these are carried out mechanically or automatically. The method according to the invention can be carried out essentially or completely by the open-loop or closed-loop control device. It can be partially carried out by the control or regulation device.
Ist hierin eine „Anzeige" erwähnt, so kann dies ein Monitor, beispielsweise ein autostereoskopischer (AS) , Single-User 3D- Monitor (wie beispielsweise von der SeeFront GmbH, Hamburg, Deutschland, www.seefront.com, vertrieben) , ein Display, ein OP-Mikroskop, ein Head-up-Display (HUD) , beispielsweise in einer Sehhilfe oder Brille, eine VR (Virtual Real! ty) -Brille oder dergleichen sein. If a “display” is mentioned here, this can be a monitor, for example an autostereoscopic (AS), single-user 3D monitor (such as that sold by SeeFront GmbH, Hamburg, Germany, www.seefront.com), a display , a surgical microscope, a head-up display (HUD), for example in a visual aid or glasses, VR (Virtual Real! ty) glasses or the like.
Ist hierin von „geometrischen Daten" die Rede, so können diese reale oder virtuelle Daten sein oder umfassen. Erfasste Daten eines realen 3D-0bjekts (im Folgenden: reales Objekt) , also z. B. in Gestalt von Ergebnissen bildgebender Verfahren, können genauso hierunter fallen wie virtuelle Daten eines errechneten virtuellen Objekts. Dabei ist es nicht von Belang, ob die errechneten Daten auf erfassten Daten eines realen 3D-0jekts basieren oder nicht. „Geometrische Daten" können medizinische Daten sein oder umfassen. If "geometric data" is mentioned here, it can be or include real or virtual data. Recorded data of a real 3D object (hereinafter: real object), e.g. in the form of results of imaging methods, can also This includes virtual data of a calculated virtual object. It is irrelevant whether the calculated data is based on recorded data from a real 3D object or not. "Geometric data" can be or include medical data.
Ist hierin von einem „Ziel-Operationsverlauf" die Rede, so ist dieser Verlauf in manchen Aus führungs formen ein z. B. durch erfahrene Chirurgen/Chirurginnen (im Folgenden kurz: Operateur oder erfahrener Operateur) vor- bzw. eingegebener Operationsverlauf, insbesondere ein Operationsverlauf, der sich bei realen Operationen bewährt hat oder von dem man ausgeht, dass er sich bei der Versorgung eines Patienten bewähren würde, oder der „Ziel-Operationsverlauf" umfasst solche Verläufe. Hierbei kann ein „Ziel-Operationsverlauf" bei realen Operationen auf gezeichnet worden sein und/oder in wenigstens einer Simulation, in der der Operateur das Simulationsinstrument geführt oder das virtuelle Operationsinstrument gelenkt hat . In anderen Aus führungs formen wird ein „Ziel-Operationsverlauf" aus vorliegenden Daten aus einem Kollektiv von Nutzern der vorliegenden Erfindung, die keine erfahrenen Operateure sein müssen, unter welchen sich aber wohl solche finden können, extrahiert . Dabei wurden die extrahierten Daten vorzugsweise bereits während oder nach dem Speichern derselben, insbesondere positiv, bewertet . Das Bewerten und/oder das Extrahieren kann optional mittels künstlicher Intel ligenz (KI ) bzw . Machine Learning bzw . Deep Learning erfolgt sein . If a “target course of the operation” is mentioned here, then in some embodiments this course is a course of the operation, in particular a pre-determined or inputted one, e.g Surgical history that has proven itself or is believed to work well in real-world operations, or "target surgical history" includes such history. Here, a "target operation history" have been recorded in real operations and/or in at least one simulation in which the surgeon has guided the simulation instrument or the virtual surgical instrument. In other embodiments, a "target operation history" is formed from available data from a collective of users of the present invention, who do not have to be experienced operators, but among whom there may well be such, extracted. The extracted data were preferably already during or evaluated, in particular positively, after the same has been saved The evaluation and/or the extraction can optionally have taken place using artificial intelligence (AI) or machine learning or deep learning.
I st hierin von einer „Sequenz" die Rede , so kann diese aus einer Folge von Bewegungs zuständen bestehen oder, im Einzel fall , auch nur aus einem Bewegungs zustand . Eine Sequenz kann ein Datensatz sein, welcher Werte zu einem oder mehreren Parametern, welche die Bewegung oder Führung des Simulationsinstruments oder der Simulationsvorrichtung betref fen, beinhaltet , z . B . die Lage der Simulationsvorrichtung oder deren Abschnitte im Raum, den oder die Winkel der Roboterarmsegmente der Simulationsvorrichtung zueinander, was letztlich die Stellung des virtuellen Operationsinstruments bei Eintritt in das virtuelle Obj ekt ausmacht , bei Übergang von einem Segment des virtuellen Obj ekts in das nächste , die Kraft , die erforderlich ist , um gegen das induzierte Kraft feedback der Haptik anzukommen bzw . dieses zu überwinden, usw . Ergänzend oder alternativ sind auf zuwendende Kräfte , die in Relation zu Wegabschnitten gesetzt sind, ebenso Bewegungs zustände, welche ebenfalls in „Sequenz" beschrieben sein können . Die Begriffe „virtuell" und „visualisiert" können hierin in manchen Aus führungs formen austauschbar sein. Sie bezeichnen im Allgemeinen die rechnergestützte Darstellung bzw. simulierte Nachahmung eines realen Objekts oder eines realen Instruments auf einer Anzeige (siehe oben) . If we are talking about a "sequence" here, it can consist of a sequence of motion states or, in individual cases, just one motion state. A sequence can be a data record which contains values for one or more parameters, which relating to the movement or guidance of the simulation instrument or the simulation device, includes, e.g. the position of the simulation device or its sections in space, the angle or angles of the robot arm segments of the simulation device to one another, which ultimately determines the position of the virtual surgical instrument when entering the virtual Obj ect accounts for the transition from one segment of the virtual obj ect to the next, the force that is required to arrive against the induced force feedback of the haptic or to overcome it, etc. In addition or as an alternative, forces are directed towards the are set in relation to path sections, as well as motion states, which can also be described in "sequence". The terms "virtual" and "visualized" may be interchangeable herein in some embodiments. They generally denote the computerized representation or simulated imitation of a real object or instrument on a display (see above).
In einigen Aus führungs formen ist die Haptik kein Handgerät zum Manipulieren/Steuern eines virtuellen Roboterarms, insbesondere nicht während einer Operation am Patienten (und daher, z. B., kein, auch nicht abschnittsweise, steriler Roboterarm, kein Roboterarm in einem Operationsraum einer Klinik usw . ) . In some embodiments, the haptic is not a hand-held device for manipulating/controlling a virtual robotic arm, particularly not during surgery on a patient (and therefore, e.g., not a sterile robotic arm, even in sections, not a robotic arm in a hospital operating room etc . ) .
In manchen Aus führungs formen ist ein Simulationsinstrument, sofern verwendet, ein im realen Raum für das Training des Nutzers von diesem, direkt oder indirekt, manuell geführtes reales Instrument. Seine Bewegung im realen Raum dient als Vorlage für die Führung des virtuellen Operationsinstruments am virtuellen Objekt, also auf der Anzeige, z. B. dem Monitor . In some embodiments, a simulation instrument, if used, is a real instrument manually operated in real space for the user's training, directly or indirectly. Its movement in real space serves as a template for guiding the virtual surgical instrument on the virtual object, i.e. on the display, e.g. B. the monitor .
In einigen Aus führungs formen bezeichnet ein reales Operationsinstrument im Gegensatz hierzu ein für spätere, mit dem erfindungsgemäßen System möglicherweise geplante oder durchgeführte, tatsächliche Operationen, z. B. eines Patienten, verwendetes reales Instrument. Es kann später von einem Operateur am Operationstisch oder vom Operationsroboter geführt werden. In some embodiments, a real surgical instrument, in contrast, denotes an actual operation, e.g. B. a patient, real instrument used. It can later be guided by an operator at the operating table or by the operating robot.
Das virtuelle Operationsinstrument ist vorzugsweise eine Simulation eines realen Operationsinstruments, wie es bei, z. B. erfindungsgemäß trainierten, chirurgischen Eingriffen benutzt werden wird. Das virtuelle Operationsinstrument ist bevorzugt durch im Bereich der Computergraphik bekannte polygonale Daten dargestellt. Für das haptische Rendering wird das virtuelle Operationsinstrument durch eine Vielzahl von Punkten auf dessen Oberfläche definiert. In manchen Aus führungs formen wird allerdings zum Einsparen von Rechenaufwand nur ein aktiver Bereich des virtuellen Operationsinstruments entsprechend mit Punkten versehen. Der aktive Bereich ist der Bereich des virtuellen Operationsinstruments, der mit dem virtuellen Objekt während des erfindungsgemäßen Verfahrens in Kontakt tritt, also z. B. eher die Spitze oder Schneide als ein Schaft oder Griff des virtuellen Operationsinstruments . The virtual surgical instrument is preferably a simulation of a real surgical instrument, as in z. B. inventively trained, surgical interventions will be used. The virtual surgical instrument is preferably represented by polygonal data well known in the art of computer graphics. For the haptic rendering, the virtual surgical instrument is defined by a large number of points on its surface. In some embodiments, however, only an active area of the virtual surgical instrument is correspondingly provided with points in order to save computational effort. The active area is the area of the virtual surgical instrument that comes into contact with the virtual object during the method according to the invention, ie z. B. the tip or cutting edge rather than a shaft or handle of the virtual surgical instrument.
Ein Beispiel eines haptischen Rendering wurde u. a. von Zilles, C.; Salisbury, J. K. (1995) publiziert: „A constraint-based god-object method for haptic display" (in: Proc. 1995 of IEEE/RSJ International Conference on Intelligent Robots and Systems, Human Robot Interaction and Cooperative Robots) , ebenso von McNeely et al. (McNeely W. A., Puterbaugh K. D., Troy J. J.; "Six Degree-of-Freedom Haptic Rendering Using Voxel Sampling" in Proc, of the 26th annual conference on Computer graphics and interactive techniques (ACM SIGGRAPH ’99) , pages 401-408, 1999) . An example of a haptic rendering was given by Zilles, C.; Salisbury, JK (1995) publishes: "A constraint-based god-object method for haptic display" (in: Proc. 1995 of IEEE/RSJ International Conference on Intelligent Robots and Systems, Human Robot Interaction and Cooperative Robots) , also by McNeely et al (McNeely WA, Puterbaugh KD, Troy JJ; "Six Degree-of-Freedom Haptic Rendering Using Voxel Sampling" in Proc, of the 26th annual conference on Computer graphics and interactive techniques (ACM SIGGRAPH '99) , pages 401 -408, 1999).
Die hierin genannte Haptik kann ein Kraftrückkopplungsgerät sein. Es kann aufgebaut sein wie aus der US 2015/0325147 Al bekannt. Deren diesbezügliche Offenbarung wird hiermit per Verweis auch zum Gegenstand der vorliegenden Offenbarung gemacht . The haptic referred to herein may be a force feedback device. It can be structured as known from US 2015/0325147 A1. Their disclosure in this regard is hereby also made the subject matter of the present disclosure by reference.
Um das haptische Kraft feedback eines jeden Zustandes mittels eines endlichen Zustandsautomaten (FSM, engl . : Finite State Machine) zu simulieren, kann für eine stabile und echt zeit fähige Simulation der gesamte Bohrprozess in einzelne Teilprozesse unterteilt werden . In einer FSM kann ein beliebig komplexer Prozess in eine endliche Anzahl einfacher, logischer Zustände unterteilt werden, die in Summe für das Verhalten des Systems verantwortlich sind . Dann können für die einzelnen Zustände und die Übergänge von einem Zustand in einen anderen sogenannte „Virtual Fixtures" definiert werden . Bei Virtual Fixtures handelt es sich um abstrakte sensorische Informationen, die einer Remoteumgebung ( Prozess- oder Robotersteuerung aus sicherer Entfernung) als sensorisches Feedback überlagert sind . Das Konzept der Virtual Fixtures wurde erstmals von Rosenberg als Orientierungsmethode für die kontrollierte Führung von Robotersteuerungen in einer Remoteumgebung vorgeschlagen . Diese Führungshil fen liegen in einer virtuellen Oberfläche als sensorische Information über dem realen Arbeitsbereich . Der Nutzer einer Robotersteuerung nimmt die überlagerte virtuelle Information durch haptisches oder visuelles Feedback wahr . Virtual Fixtures interagieren hierbei nur mit dem Nutzer und nicht mit dem Arbeitsbereich, sie haben keine Masse , keine physikalischen oder mechanischen Einschränkungen und können leicht erstellt bzw . modi fi ziert werden . Zusätzlich kann durch ihre Unterstützung die menschliche Präzision und Leistung bei der Führung eines Roboters erheblich verbessert werden . Virtual Fixtures können hierin ferner virtuelle Steuerungsmechanismen beschreiben, die in der Lage sind, die Bewegung eines Nutzers entlang ausgewählter Freiheitsgrade einzuschränken . Mit Hil fe dieser Einschränkungen lässt sich eine komplexe Aufgabe in elementare Teilaufgaben unterteilen, damit diese sicherer und für den Nutzer einfacher durchzuführen ist . Hierdurch kann beispielsweise eine geradlinige Bohrung als 3D- Verschiebungsvektor der Instrumentenposition in axialer Richtung dargestellt werden . Virtual Fixtures sind in einigen Aus führungs formen implementiert , indem Proportional-Di f f erentialregler ( PD) verwendet werden . Ein PD ist ein sehr schneller und Kontrollalgorithmus der Regelungstechnik, der die Stabilität eines computergesteuerten Systems verbessert . Die Positionsabweichung und der Winkelorientierungs fehler zwischen einem Referenzsollwert ( Proxy) und dem Kontrollpunkt ( CP, engl . : Control Point ) des Haptikarms werden ebenso wie deren Ableitungen berechnet und mit den proportionalen ( P ) und abgeleiteten ( D, engl . : Derivative ) Verstärkungs faktoren ( Gains ) multipli ziert . Damit werden die Dämpfungskräfte und Drehmomente erzeugt , die den Haptikarm solange zu einem gewünschten Sollwert schieben, bis seine Position ( der Kontrollpunkt des Haptikarms ) der gewünschten Sollposition entspricht . Da die Kraftvektoren entgegen der Bewegungsrichtung des Haptikarm-Kontrollpunktes wirken, kann der Nutzer die Sollposition des Proxys mit dem Haptikarm nicht verlassen . Eine solche Umsetzung ist in einigen Aus führungs formen vorgesehen . In order to simulate the haptic force feedback of each state using a finite state machine (FSM, engl .: Finite State Machine), for a stable and real-time capable simulation of the entire drilling process can be divided into individual sub-processes. In an FSM, any complex process can be divided into a finite number of simple, logical states, which together are responsible for the behavior of the system. So-called "virtual fixtures" can then be defined for the individual states and the transitions from one state to another. Virtual fixtures are abstract sensory information that is superimposed on a remote environment (process or robot control from a safe distance) as sensory feedback The concept of virtual fixtures was first proposed by Rosenberg as an orientation method for the controlled guidance of robot controllers in a remote environment. These guidance aids are in a virtual surface as sensory information about the real work area. The user of a robot controller takes through the superimposed virtual information haptic or visual feedback Virtual Fixtures interact only with the user and not the workspace, have no mass , no physical or mechanical limitations and can be easily created or modified Performance when guiding a robot can be significantly improved. Virtual Fixtures may also describe herein virtual control mechanisms capable of constraining a user's movement along selected degrees of freedom. With the help of these restrictions, a complex task can be broken down into elementary subtasks so that it is safer and easier for the user to carry out. In this way, for example, a straight bore can be represented as a 3D displacement vector of the instrument position in the axial direction. Virtual fixtures are implemented in some embodiments using proportional differential (PD) controllers. A PD is a very fast and controllable control engineering algorithm that improves the stability of a computer controlled system. The positional deviation and the angular orientation error between a reference setpoint (proxy) and the control point (CP) of the haptic arm are calculated as well as their derivatives and with the proportional (P) and derivative (D) gains factors (gains) are multiplied. This generates the damping forces and torques that push the haptic arm to a desired setpoint until its position (the control point of the haptic arm) corresponds to the desired setpoint position. Since the force vectors act against the direction of movement of the haptic arm control point, the user cannot leave the target position of the proxy with the haptic arm. Such an implementation is provided for in some embodiments.
In manchen Aus führungs formen des erfindungsgemäßen, computergestützten Verfahrens sind die geometrischen Daten medi zinische Daten oder umfassen solche . In some embodiments of the computer-assisted method according to the invention, the geometric data are or include medical data.
In einigen Aus führungs formen ändert sich das Kraft feedback mit voranschreitendem virtuellem Eindringen des virtuellen Operationsinstruments in das virtuelle Obj ekt . In some embodiments, the force feedback changes as the virtual surgical instrument penetrates into the virtual object.
Die Änderung kann beispielsweise stetig, mehrfach, in Stufen, parametergesteuert , in Abhängigkeit von den zugeordneten Dichtewerten oder Härten oder in anderer Art und Weise erfolgen . In manchen Aus führungs formen werden Daten bezüglich Sequenzen der Bewegung des Simulationsinstruments/der Simulationsvorrichtung und/oder des realen Obj ekts und/oder des virtuellen Operationsinstruments und/oder des virtuellen Obj ekts im j eweiligen Raum, beispielsweise in einem hierfür bereitgestellten und/oder vorgesehenen und/oder geeigneten Datenspeicher, auf gezeichnet und/oder gespeichert . The change can, for example, take place continuously, repeatedly, in stages, under parameter control, as a function of the associated density values or hardnesses, or in some other way. In some embodiments, data relating to sequences of movement of the simulation instrument/the simulation device and/or the real object and/or the virtual surgical instrument and/or the virtual object are stored in the respective space, for example in a space provided and/or provided for this purpose and/or suitable data storage, recorded and/or stored.
In bestimmten Aus führungs formen werden Daten relativer Bewegungssequenzen, also beispielsweise des Simulationsinstruments relativ zum realen Obj ekt bzw . des virtuellen Operationsinstruments relativ zum virtuellen Obj ekt , erfasst und/oder gespeichert . In certain forms of execution, data relative to movement sequences, ie for example the simulation instrument relative to the real object or of the virtual surgical instrument relative to the virtual obj ect, recorded and/or stored.
Dabei können insbesondere Daten betref fend Winkel und Kraftaufwand beim Eintritt des virtuellen Operationsinstruments in das virtuelle Obj ekt , zurückgelegte Strecken, überwundene Widerstände des Kraft feedbacks während einer Bewegung und dergleichen von Interesse sein und gespeichert werden . In particular, data relating to the angle and effort required when the virtual surgical instrument enters the virtual object, distances covered, resistance to the force feedback overcome during a movement and the like can be of interest and stored.
In einigen Aus führungs formen wird aus einer Viel zahl der auf gezeichneten Daten bezüglich der Sequenzen, welche einen virtuellen Operationsverlauf am virtuellen Obj ekt und/oder Abschnitte eines Operationsverlaufs , nachstellen, ein Ziel- Operationsverlauf oder Abschnitte hierfür erstellt und gespeichert werden . In some embodiments, a target course of surgery or sections for this is created and stored from a large number of recorded data relating to the sequences which simulate a virtual course of surgery on the virtual object and/or sections of a course of surgery.
Das Erstellen kann in diesen Aus führungs formen eine Auswahl und/oder eine qualitative Bewertung umfassen oder voraussetzen . So kann ein virtueller Operationsverlauf beispielsweise dann das Attribut „Ziel-Operationsverlauf" verliehen bekommen, wenn er eine Mindestbewertung zugeordnet bekommen hat ( z . B . in Form von Punktzahlen, Schulnoten usw . ) . Zu einem Ziel-Operationsverlauf kann z . B . nach einerIn these embodiments, the creation can include or require a selection and/or a qualitative evaluation. For example, a virtual surgical history can be given the "target surgical history" attribute if it is assigned a minimum score received (e.g. in the form of scores, school grades, etc.) . For a target operation history z. B. after a
Serie von Trainings-Simulationen, die alle gespeichert oder vorübergehend gespeichert worden sein können, z . B . der am besten bewertete Operationsverlauf erhoben werden, was optional automatisch erfolgen kann . Series of training simulations, all of which may have been saved or temporarily saved, e.g. B. the best rated course of the operation can be collected, which can optionally be done automatically.
Dabei kann es genügen, dass der Ziel-Operationsverlauf nicht eine gesamte Operation, wie sie bei der instrumentellen Operation eines Patienten, z . B . beim Versorgen einer Fraktur, üblich oder erforderlich ist , abbildet . Der Ziel- Operationsverlauf kann vielmehr optional nur bestimmte Operations-Sequenzen oder Instrumenteneinsätze , besonders relevante Instrumentenführungen, Momente bei der Operation usw . abbilden . Er kann aus einer Reihe von j eweils als besonders würdig empfundenen Sequenzen zusammengesetzt sein . It may suffice that the target course of the operation is not an entire operation, as is the case with the instrumental operation of a patient, e.g. B. when treating a fracture, is common or necessary. Rather, the course of the target operation can optionally only include specific operation sequences or instrument deployments, particularly relevant instrument guidance, moments during the operation, etc. depict . It can be made up of a series of sequences that are each felt to be particularly worthy.
So ist in einigen Aus führungs formen vorgesehen, einen Ziel- Operationsverlauf basierend auf einer Sequenz oder Aufeinanderfolge von Teil-Ziel-Operationsverläufen zu erstellen, die z . B . an verschiedenen Tagen, in verschiedenen Trainingsdurchgängen, von verschiedenen Operateuren unter Einsatz der erfindungsgemäßen Vorrichtung oder des erfindungsgemäßen Verfahrens erfolgten oder gewonnen wurden . Thus, in some forms of execution is provided to create a target operation history based on a sequence or succession of partial target operation history, the z. B. were carried out or obtained on different days, in different training sessions, by different surgeons using the device according to the invention or the method according to the invention.
Eine Bewertung wie oben ausgeführt , kann in bestimmten Aus führungs formen durch einen Menschen erfolgen, z . B . den Nutzer, seinen akademischen Lehrer oder einen Dritten, alternativ oder ergänzend mittels Vergleichs der simulierten Führung des realen oder virtuellen Instruments bzw . des Obj ekt durch den Nutzer mit einem bereits hinterlegten Ziel- Operationsverlauf . Um Wiederholungen zu vermeiden wird hier ergänzend auf die obige Definition eines Ziel- Operationsverlaufs verwiesen . Mittels des Einsatzes von künstlicher Intelligenz (KI ) bzw . Machine Learning bzw . Deep Learning kann eine solche Bewertung Grundlage für das erfindungsgemäße System sein, z . B . Ziel-Operationsverläuf e aus gespeicherten Sequenzen zu erstellen oder diese zu optimieren . An evaluation as stated above can be carried out by a person in certain embodiments, e.g. B. the user, his academic teacher or a third party, alternatively or additionally, by comparing the simulated guidance of the real or virtual instrument or of the object by the user with a target operation history already stored. In order to avoid repetition, the above definition of a target Operation history referenced . By using artificial intelligence (AI) or machine learning or Deep learning can be such an assessment basis for the system according to the invention, z. B. Create or optimize target surgical procedures from stored sequences.
Zur Bewertung, vor allem im Rahmen eines Trainings , kann vorgesehen sein, eine chirurgische Aufgabe in einzelne Operationsschritte zu unterteilen . Jeder Operations schritt kann nach Beendigung ausgewertet und z . B . bepunktet werden, etwa wie aus „Serious Games" oder „Game Based Learning" bekannt . Die Maximalpunktzahl und die Erfahrungspunkte für einen Operationsschritt sind beispielsweise von einem Experten der Handchirurgie über einen ausgewerteten Fragebogen fest vorgegeben . Es kann vorgesehen sein, dass ein neuer Operationsschritt erst nach Beendigung des vorherigen Operationsschrittes begonnen werden kann . Nach Durchführung aller abgefragten Operationsschritte kann z . B . ein finaler Score mit einer Maximalpunktzahl berechnet werden . Punkte können dabei z . B . vergeben oder abgezogen werden bei erfolgter Verletzung einer Risikostruktur, für das Anordnen des virtuellen Obj ekts (mittels Bewegen des realen Obj ekts ) in die optimale Ausgangsposition für den anstehenden Eingri f f , für das korrekte Setzen von z . B . K-Drähten, als Beispiele für virtuelle Operationsinstrumente , für die Anzahl der hierfür erforderlichen Versuche usw . Punkte können dabei im Vergleich mit einem „Goldstandard" , vergeben werden, welcher z . B . das Vorsehen eines haptischen Korridors ( siehe unten) umfasst , die Orientierung als auch die Bohrtiefe des K-Drahtes , das Verletzen von Knochen, die mit der vorliegenden Fraktur nicht in Verbindung stehen, das Brechen des K-Drahts aufgrund zu hohen Drucks seitens der Simulationsvorrichtung und/oder dergleichen . For the purpose of evaluation, especially as part of training, it can be provided that a surgical task be subdivided into individual operation steps. Each operation step can be evaluated after completion and e.g. B. are scored, for example as known from "Serious Games" or "Game Based Learning". The maximum number of points and the experience points for a surgical step are specified, for example, by an expert in hand surgery using an evaluated questionnaire. It can be provided that a new surgical step can only be started after the previous surgical step has ended. After carrying out all the requested operational steps, e.g. B. a final score with a maximum number of points can be calculated. Points can e.g. B. be awarded or deducted if a risk structure is violated, for arranging the virtual object (by moving the real object) into the optimal starting position for the pending intervention, for correctly setting z. B. K-wires, as examples of virtual surgical instruments, the number of attempts required for this, etc. Points can be awarded in comparison with a "gold standard", which includes e.g. the provision of a haptic corridor (see below), the orientation and the drilling depth of the K-wire, the damage to bones associated with the present Fracture not related, breaking of the K-wire due to excessive pressure from the simulation device and/or the like.
In manchen Aus führungs formen ist eine Bohrhil fslinie als eine optische Verlängerung des virtuellen Operationsinstruments , z . B . eines K-Drahtes , vorgesehen, sie zeigt den eingeschlagenen und/oder den optimalen oder zukünftigen Bohrkanal an . In some embodiments, a drill guide is designed as an optical extension of the virtual surgical instrument, e.g. B. a K-wire, provided, it shows the chosen and / or the optimal or future drilling channel.
Über die Transparenz der Haut können in einigen Ausführungs formen Risikostrukturen und/oder Knochen sichtbar dargestellt werden . In some embodiments, risk structures and/or bones can be visualized via the transparency of the skin.
In einigen Aus führungs formen kann vorgesehen sein, dass ein Kortikalisdetektor vorgesehen ist . Er kann z . B . die Darstellung eines Handknochens auf der Anzeige grün einfärben, sobald die K-Draht-Spit ze mit der Kortikalis eines Knochens in Berührung kommt . Der Nutzer sieht auf diese Weise , welcher Knochen aktuell gebohrt wird, ob sich die K- Draht-Spitze innerhalb der Spongiosa, der Kortikali s oder der Gegenkortikalis befindet usw . In some embodiments it can be provided that a corticalis detector is provided. He can e.g. B. turn the representation of a hand bone green on the display when the K-wire tip makes contact with the cortex of a bone . In this way, the user can see which bone is currently being drilled, whether the K-wire tip is within the spongiosa, the cortical bone or the opposite cortical bone, etc.
Optionale haptische Korridore können ebenfalls visuell den „Goldstandard" für Position und Lage der K-Drähte vorgeben . Dabei kann der „haptische Korridor" ein einfacher Zylinder im kartesischen Raum sein, vollständig definiert durch seinen Radius , seine Länge , seinen Richtungsvektor und seinen Eingangspunkt . Ein haptischer Korridor stellt eine spezielle Art eines „Virtual Fixture" dar und lässt sich auf der Anzeige z . B . durch einen Zylinder visualisieren . Der Korridor wird unabhängig von der Bohrsimulation generiert . Er kann überdies ein zusätzliches haptisches Feedback erzeugen . Er kann überall auf der Anzeige positioniert werden und interagiert vorzugsweise nicht mit anderen Weltobj ekten . Eine Ausnahme hiervon kann vorgesehen sein : Wenn der Nut zer den K- Draht in die Nähe des haptischen Korridors bewegt , der den von einem Experten bestimmten idealen Bohrkanal für den K- Draht darstellt , dann wird der K-Draht über den Haptikarm langsam in diese Idealposition und Rotation gezogen . Es kann beispielsweise in manchen Aus führungs formen vorgesehen sein, dass sich die die farbliche Darstellung des Korridors ändert , beispielsweise von orange zu gelb, sobald die K-Draht-Spit ze in den haptischen Korridor eintaucht . Optional haptic corridors can also visually provide the "gold standard" for the position and location of the K-wires. The "haptic corridor" can be a simple cylinder in Cartesian space, fully defined by its radius , length , directional vector , and entry point . A haptic corridor represents a special type of "virtual fixture" and can be visualized on the display, e .g . by a cylinder . The corridor is generated independently of the drilling simulation . It can also generate additional haptic feedback . It can be anywhere on of the ad are positioned and preferably does not interact with other world objects. An exception to this may be provided: if the user moves the K-wire close to the haptic corridor, which represents the ideal drilling channel for the K-wire as determined by an expert, then the K-wire is slowly inserted via the haptic arm into this Ideal position and rotation drawn . For example, in some embodiments it can be provided that the color of the corridor changes, for example from orange to yellow, as soon as the K-wire tip dips into the haptic corridor.
Ergänzend kann vorgesehen sein, dass sich der Korridor weiter verfärbt , z . B . nach grün, wenn sich zusätzlich die gesamte K-Draht-Achse innerhalb des Korridors befindet , da somit die Idealposition erreicht ist . In addition, it can be provided that the corridor continues to change color, e.g. B. turns green if the entire K-wire axis is also within the corridor, as the ideal position has thus been reached.
Die simulierte Anziehungskraft kann optional nach einem Potentialkraf tmodell berechnet werden . Ein solches kontinuierliches Potentialkraf tmodell besitzt eine erste Phase , in der die Kraft ansteigt , und eine zweite Phase , in der die Kraft abnimmt . Nähert sich also die K-Draht-Spit ze dem Zielpunkt , so steigt die Anziehungskraft stetig an und führt den Nutzer in Richtung der Idealposition, bis diese erreicht ist . Damit Vibrationen um den Zielpunkt herum vermieden werden, nimmt die Kraft vorzugsweise mit abnehmender Entfernung vom Zielpunkt bis zum Wert Null ab . Vereinfacht und auf ein eindimensionales ( ID) Problem übertragen, berechnet sich die anziehende Potential kraft beispielsweise aus einer vereinfachten Gauß funktion . The simulated attractive force can optionally be calculated using a potential force model. Such a continuous potential force model has a first phase in which the force increases and a second phase in which the force decreases. So if the K-wire tip approaches the target point, the force of attraction increases steadily and leads the user in the direction of the ideal position until it is reached. In order to avoid vibrations around the target point, the force preferably decreases to zero with decreasing distance from the target point. Simplified and transferred to a one-dimensional (ID) problem, the attractive potential force can be calculated, for example, from a simplified Gaussian function.
In manchen Aus führungs formen kann eine Darstellung der Führung des virtuellen Operationsinstruments aus dem Ziel- Operationsverlauf oder des Abschnitts hiervon, insbesondere relativ zu einem virtuellen Obj ekt , auf einer Anzeige dargestellt werden . Eine hierfür vorgesehene und/oder geeignete Anzeige können beispielsweise ein Monitor , ein Operations-Mikroskop, ein Head-up-Display, beispiel sweise in einer Sehhil fe , eine Virtual-Reality-Brille und/oder eine andere Art der Proj ektion sein oder umfassen . Die Darstellung der Führung kann in Form eines Films , als eine Sequenz von Bildern, als Augmented oder Mixed-Reality-Anzeige usw . erfolgen . In some forms of execution, a representation of the management of the virtual surgical instrument from the target operation course or the section thereof, in particular relative to a virtual obj ect on a display. A display provided and/or suitable for this purpose can be or include, for example, a monitor, an operating microscope, a head-up display, for example in a visual aid, virtual reality glasses and/or another type of projection . The presentation of the guide can be in the form of a movie, a sequence of images, an augmented or mixed reality display, etc. take place .
In einigen Aus führungs formen ist das System ausgestaltet , um einen Ziel-Operationsverlauf visuell über ein reales Operationss zenario im realen Raum zu blenden, beispielsweise , um dem Operateur einen idealen Weg des Instruments aufzuzeigen . In some embodiments, the system is designed to visually superimpose a target operation course over a real operation scenario in real space, for example to show the operator an ideal path for the instrument.
In manchen Aus führungs formen können hier beispielsweise Level mit verschiedenen Schwierigkeitsstufen implementiert sein, welche während eines Trainings erreicht werden können oder sollen, ähnlich z . B . „Serious Games" oder „Game Based Learning" . Hierzu kann die Anzeige beispielsweise mehr und mehr an ein reales Operationss zenario angepasst werden . Das bedeutet beispielsweise , dass in einem niedrigeren Level geeignete Bohrkanäle noch angezeigt werden, in einem höheren Level vielleicht nicht mehr . In some embodiments, for example, levels with different levels of difficulty can be implemented here, which can or should be achieved during training, similar to e.g. B. "Serious Games" or "Game Based Learning" . For this purpose, the display can, for example, be adapted more and more to a real operation scenario. This means, for example, that suitable drilling channels are still displayed at a lower level, but perhaps not at a higher level.
In einigen Aus führungs formen kann vorgesehen sein, umgebendes Gewebe , beispielsweise Haut , transparent erscheinen zu lassen, z . B . um den Blick auf eine Knochenlage frei zugeben und/oder gefährdetes Gewebe , wie z . B . Nervenbahnen, anzuzeigen . In einigen Aus führungs formen sind oder umfassen die geometrischen Daten reale Daten, z. B. Daten zur Körpergeometrie oder Anatomie (hierin auch kurz: Patientendaten) von wenigstens einem realen Patienten, welche z. B. mittels Computertomographie (CT) und/oder einer Magnetresonanztomographie (MRT) gewonnen wurden. Die Patientendaten können beispielsweise Werte sein oder umfassen, die eine Hand oder ein Gelenk betreffen. In some embodiments, it can be provided that the surrounding tissue, for example skin, appears transparent, e.g. B. to reveal a bone layer and/or endangered tissue, e.g. B. Nerve pathways, display . In some embodiments, the geometric data is or includes real data, e.g. B. data on body geometry or anatomy (also briefly: patient data) of at least one real patient, which z. B. were obtained by computed tomography (CT) and / or magnetic resonance imaging (MRI). For example, the patient data may be or include values pertaining to a hand or a joint.
In manchen Aus führungs formen sind oder umfassen die geometrischen Daten vorzugsweise Daten und/oder Werte jenseits der Humanmedizin, etwa der Veterinärmedizin, Werkstoffbearbeitung (insbesondere wenn spanabtragend) . In some embodiments, the geometric data are or preferably include data and/or values beyond human medicine, such as veterinary medicine, material processing (in particular if chip-removing).
In einigen Aus führungs formen weist das erfindungsgemäße, computergestützte Verfahren weiter den Schritt eines Erfassens der einzulesenden geometrischen Daten an oder von einem realen Objekt auf, z. B. mittels bildgebender Verfahren und/oder wie hierin offenbart. Das reale Objekt kann beispielsweise ein Patient oder der Körperabschnitt eines Patienten sein. In some embodiments, the computer-assisted method according to the invention also has the step of acquiring the geometric data to be read in on or from a real object, e.g. B. by means of imaging methods and/or as disclosed herein. The real object can be a patient or a part of a patient's body, for example.
In bestimmten Aus führungs formen ist der Berechnungsschritt eines 3D-Modells aus eingelesenen 2D-Datensät zen von der vorliegenden Erfindung mit umfasst. In certain embodiments, the step of calculating a 3D model from 2D data sets that have been read in is also included in the present invention.
Ein operativ zu versorgendes Objekt, das im Bereich der Medizin etwa aus mehreren Knochen bestehen kann, ist durch die Oberflächen seiner Bestandteile und den von ihnen umschlossenen Räumen bestimmt, weshalb sich zu seiner mathematischen Beschreibung Volumenmodelle mit einer Vielzahl von Voxeln anbieten. Bei einem Volumenmodell basierend auf Voxeln lässt sich an beliebigen Positionen innerhalb des Volumens durch direkten Zugri f f auf das dreidimensionale Voxelraster anhand von mit den Voxeln verbundenen Obj ektmarken feststellen, ob dort ein Obj ekt oder Freiraum vorhanden ist . Dichtewerte können ferner die Härte des j eweiligen Voxel angeben und damit den Widerstand quanti fi zieren, den ein konkretes Voxel seiner Manipulation mit einem virtuellen Operationsinstrument entgegensetzen wird . An object to be surgically treated, which in the field of medicine can consist of several bones, is determined by the surfaces of its components and the spaces they enclose, which is why volume models with a large number of voxels are suitable for its mathematical description. In a volume model based on voxels, direct access to the three-dimensional voxel grid using object marks connected to the voxels can be used to determine whether an object or free space is present at any position within the volume. Density values can also indicate the hardness of the respective voxel and thus quantify the resistance that a specific voxel will offer to its manipulation with a virtual surgical instrument.
In manchen Aus führungs formen weist das Verfahren weiter den Schritt eines Segmentierens der geometrischen Daten auf , wobei segmentierte Volumendaten erzeugt werden . Dies erfolgt vorzugsweise automatisch (Automated Component Segmentation, AOS ) , insbesondere unter Zuordnen von Dichtewerten ( oder Härten) zu den erzeugten Volumensegmenten . Das Segmentieren lässt vorzugsweise zudem die Bearbeitung ( Drehen, Verschieben usw . ) einzelner Komponenten zu . Vorzugsweise ist das Ergebnis des Segmentierens in dem Fall , dass die geometrischen Daten knöcherne Strukturen aufweisen oder beschreiben, derart , dass die knöchernen Strukturen, welche ohne knöchernen Kontakt miteinander vorliegen, getrennt voneinander vorliegen bzw . entsprechend segmentiert wurden . In some embodiments, the method also has the step of segmenting the geometric data, with segmented volume data being generated. This preferably takes place automatically (Automated Component Segmentation, AOS), in particular by assigning density values (or hardnesses) to the generated volume segments. The segmentation preferably also allows individual components to be edited (rotating, moving, etc.). The result of the segmentation in the case that the geometric data have or describe bony structures is preferably such that the bony structures which are present without bony contact with one another are present or separate from one another. were segmented accordingly.
Das Segmentieren kann Gruppen von Voxeln ergeben, oder solche j eweils abgrenzen, die sich von Voxeln anderer oder benachbarter Gruppen von Voxeln durch den Dichtewert unterscheiden, den die Voxel der betrachteten Gruppen aufweisen . So können Voxel , welche - z . B . alle oder in der überwiegenden Anzahl - einen Dichtewert eines ersten Bereichs von Dichtewerten aufweisen, in einer gemeinsamen ersten Gruppe zusammengefasst werden . Voxel , welche - z . B . alle oder in der überwiegenden Anzahl - einen Dichtewert eines zweiten Bereichs von Dichtewerten aufweisen, können in einer gemeinsamen, zweiten Gruppe zusammengefasst werden . The segmentation can result in groups of voxels, or in each case delimit those that differ from voxels of other or neighboring groups of voxels by the density value that the voxels of the groups under consideration have. Thus, voxels which—e.g. B. all or most of them - have a density value of a first range of density values, are combined in a common first group. voxels which - e.g. B. all or in the majority - a density value of one Having a second range of density values can be combined in a common, second group.
In einigen Aus führungs formen sind die geometrischen Daten segmentierte , insbesondere automatisch segmentierte Volumendaten oder umfassen solche . In some embodiments, the geometric data is or includes segmented, in particular automatically segmented, volume data.
In manchen Aus führungs formen sind die geometrischen Daten medi zinische Volumendaten im DICOM-Format ( Digi tal Imaging and Communi ca ti ons in Medi cine ( Digitale Bildgebung und -kommunikation in der Medi zin) ) oder umfassen solche . In some embodiments, the geometric data is or includes medical volume data in DICOM (Digital Imaging and Communications in Medicine) format.
DICOM ist als of fener Standard zur Speicherung und zum Austausch von Informationen im medi zinischen Bilddatenmanagement allgemein anerkannt . Diese Informationen können beispielsweise digitale Bilder, Zusatzinformationen wie Segmentierungen, Oberflächendefinitionen oder Bildregistrierungen sein . Bei Verwendung dieses Formats im erfindungsgemäßen System können Rechenschritte zum Ändern oder Anpassen von Datenformaten vorteilhaft wegfallen . Das erfindungsgemäße System kann somit ohne Anpassungsaufwand mit geometrischen Daten aus aller Welt zum Einsatz kommen . DICOM is generally recognized as an open standard for storing and exchanging information in medical image data management. This information can be, for example, digital images, additional information such as segmentation, surface definitions or image registrations. When this format is used in the system according to the invention, calculation steps for changing or adapting data formats can advantageously be omitted. The system according to the invention can thus be used with geometric data from all over the world without any adjustment effort.
Medizinische Volumendaten im DICOM-Format stellen beispielsweise den Ausgangspunkt für das mit dem erfindungsgemäßen System verwendete Modell der virtuellen Hand als Beispiel eines virtuellen Obj ekts dar . Dabei werden DICOM-Daten in einer Computertomographie ( CT ) und/oder einer Magnetresonanztomographie (MRT ) aufgenommen und enthalten als Ergebnis einen 3D-Datensatz bestehend aus Schichtbi ldern der menschlichen Hand . In einigen Aus führungs formen weist das erfindungsgemäße , computergestützte Verfahren weiter den Schritt eines Augmentierens der eingelesenen geometrischen Daten oder eingelesenen und/oder - zumindest teilweise auf eingelesenen geometrischen Daten - basierenden Datensätze auf . Optional ist ein Speichern der augmentierten Daten in einem Datenspeicher des erfindungsgemäßen Computersystems von der vorliegenden Erfindung umfasst . Medical volume data in DICOM format represents, for example, the starting point for the model of the virtual hand used with the system according to the invention as an example of a virtual object. In this case, DICOM data are recorded in a computed tomography (CT) and/or a magnetic resonance tomography (MRT) and as a result contain a 3D data set consisting of slice images of the human hand. In some embodiments, the computer-aided method according to the invention further has the step of augmenting the read-in geometric data or read-in data sets and/or data sets based at least partially on read-in geometric data. Optionally, storing the augmented data in a data memory of the computer system according to the invention is included in the present invention.
Für das Augmentieren als Form der Datenerweiterung oder Vergrößerung des Datenpools , bei welcher/m die Datenmenge beispielsweise durch Hinzufügen ( leicht ) modi fi zierter Datenkopien bereits existierender Daten oder neu erstellter synthetischer Daten aus vorhandenen Daten, (Morphologie ) , erhöht wird, können aus der Literatur bekannte Ansätze genutzt werden . For augmentation as a form of data expansion or enlargement of the data pool, in which the amount of data is increased, for example by adding (slightly) modified data copies of existing data or newly created synthetic data from existing data (morphology) , from the Approaches known from the literature can be used.
In manchen Aus führungs formen sind die geometrischen Daten augmentierte Daten oder umfassen solche . In some embodiments, the geometric data is or includes augmented data.
In einigen Aus führungs formen weist das erfindungsgemäße , computergestützte Verfahren weiter den Schritt eines Speicherns einer Viel zahl von Ziel-Operationsverläufen ( Definition siehe oben) oder Abschnitten hiervon in einem Datenspeicher des erfindungsgemäßen Computersystems auf . Hierbei können die Ziel-Operationsverläufe oder die Abschnitte hiervon aus einer Viel zahl von auf gezeichneten Daten bezüglich Sequenzen, welche den virtuellen Operationsverlauf oder Abschnitte zeigen, gewonnen werden oder worden sein . In some embodiments, the computer-assisted method according to the invention also has the step of storing a large number of target operation histories (see definition above) or sections thereof in a data memory of the computer system according to the invention. In this case, the target course of the operation or the sections thereof can be or have been obtained from a large number of recorded data relating to sequences which show the virtual course of the operation or sections.
Insbesondere können hierbei alle Parameter, die aufgenommen wurden, wie z . B . Winkel , Kraft etc . gespeichert werden . Zudem oder alternativ können Filmsequenzen, Videos oder dergleichen auf gezeichnet werden, welche insbesondere die virtuelle Führung oder Bewegung des virtuellen Operationswerkzeugs , vor allem relativ zum virtuellen Obj ekt , zeigen . Sie können als Stütze , Erinnerung oder Anleitung für den späteren Operateur dienen . In particular, all parameters that were recorded, such. B. angle , force etc . get saved . In addition or as an alternative, film sequences, videos or the like can be recorded, which in particular show the virtual guidance or movement of the virtual surgical tool, especially relative to the virtual object. They can serve as a support, reminder or guide for the future surgeon.
In manchen Aus führungs formen umfasst das Verfahren weiter den Schritt eines Bereitstellens von Daten, welche aus den Ziel- Operationsverläufen oder Abschnitten hiervon aus dem Datenspeicher extrahiert wurden und ergänzend den Schritt eines Übermittelns dieser Daten, z . B . in eine Speichervorrichtung eines Operationsroboters , wobei die Auswahl der Daten vorzugsweise wenigstens ein vorbestimmtes Kriterium erfüllt . In some embodiments, the method further comprises the step of providing data that was extracted from the data memory from the target surgical procedures or sections thereof and additionally the step of transmitting this data, e.g. B. in a memory device of a surgical robot, the selection of the data preferably fulfilling at least one predetermined criterion.
Das Extrahieren kann mittels künstlicher Intelligenz (KI ) bzw . Machine Learning bzw . Deep Learning erfolgen oder erfolgt sein . The extraction can be done using artificial intelligence (AI) or machine learning or Deep learning happen or have happened.
Ein vorbestimmtes Kriterium für die Auswahl der Daten kann beispielweise eine vorhergehende Auswahl aus einem Datenpool , beispielsweise durch das Setzen eines „Markers" , etwa durch den Nutzer, eine zweite Person, etwa einen Supervisor oder einen erfahrenen Operateur oder Chirurgen, einen Algorithmus usw . und/oder eine qualitative Bewertung der Ziel- Operationsverläufe oder Abschnitte hiervon sein oder umfassen . A predetermined criterion for the selection of the data can, for example, be a previous selection from a data pool, for example by setting a "marker", for example by the user, a second person, for example a supervisor or an experienced operator or surgeon, an algorithm, etc. and /or be or include a qualitative assessment of the course of the target operation or sections thereof.
Diese Daten können beispielsweise Daten zu Lage , Bewegung,This data can be, for example, data on position, movement,
Eintrittswinkeln, auf gewendeter Kraft ,entrance angles, on applied force,
Rotationsgeschwindigkeiten oder dergleichen eines Bohrinstruments und/oder dergleichen für oder während einer Operation sein. Diese Daten können sich über die Operation hinweg mehrfach ändern, z. B. kann sich die Kraft je nach Eindringtiefe und/oder Knochendichte ändern. Daher können diese Daten zusammengesetzte Daten sein, die z. B. sequentiell die jeweils relevanten Daten und Parameter umfassen . Rotational speeds or the like of a Bohrinstruments and / or the like for or during an operation. This data can change multiple times throughout the operation, e.g. B. the force can change depending on the penetration depth and / or bone density. Therefore, this data can be composite data, e.g. B. sequentially include the relevant data and parameters.
Datenverarbeitende Schritte, beispielsweise um die Daten für die Verwendung zur Steuerung eines Operationsroboters in ein passendes Format, beispielsweise Maschinendaten, zu bringen, sind ebenfalls von der vorliegenden Erfindung umfasst. Data processing steps, for example in order to bring the data into a suitable format for use in controlling a surgical robot, for example machine data, are also covered by the present invention.
Zur Behandlung eines Patienten mittels des erfindungsgemäßen Systems kann nach Erstellung von Bilddaten, beispielsweise durch Röntgen des betreffenden Körperteils wie des Handgelenks in zwei Ebenen, in besonderen Aufnahmetechniken wie der Stecher-Aufnahme und/oder einer Computertomographie (CT) oder eines anderen Bildgebungsverf ahren zum Ermitteln von Volumendaten eine Transformation der Bilddaten, vorzugsweise DICOM-Daten, in ein virtuelles 3D-Modell erfolgen. In ihm können, hier am Beispiel einer vorliegenden Fraktur, die Knochenfragmente mit Hilfe der vorliegenden Erfindung automatisch reponiert werden. Das Ergebnis kann ggf. manuell korrigiert werden. To treat a patient using the system according to the invention, after image data has been created, for example by x-raying the relevant body part such as the wrist in two planes, special recording techniques such as the Stecher recording and/or computed tomography (CT) or another imaging method can be used to determine of volume data, the image data, preferably DICOM data, are transformed into a virtual 3D model. In it, using the example of an existing fracture, the bone fragments can be automatically repositioned there with the aid of the present invention. The result can be corrected manually if necessary.
Das 3D-Modell kann, z. B. mittels Automated Component Segmentation, ACS, z. B. wie hierin offenbart, alle notwendigen Raumdaten (x-, y-, z-Koordinaten und Vektordaten für die Volumendarstellung) sowie die Dichtedaten (Voxel- Dichte) der Knochen von Interesse, z. B. jedes einzelnen Knochens der Hand und vorzugsweise des (Unter- ) Arms , enthalten. Ebenso kann die Lage der Fraktur und der Frakturelemente in Form von x-, y-, z-Koordinaten und Vektordaten im 3D-Modell visuell zu finden sein. Basierend hierauf werden die reponierten Raumdaten (x-, y-, z- Koordinaten und Vektordaten) errechnet und optional angezeigt . The 3D model can, e.g. B. by means of Automated Component Segmentation, ACS, z. B. as disclosed herein, all necessary spatial data (x, y, z coordinates and vector data for the volume rendering) as well as the density data (voxel density) of the bones of interest, e.g. B. every single bone of the hand and preferably the (lower) arm included. Likewise, the location of the fracture and the Fracture elements can be found visually in the 3D model in the form of x, y, z coordinates and vector data. Based on this, the repositioned spatial data (x, y, z coordinates and vector data) are calculated and optionally displayed.
In manchen Aus führungs formen ist es das System, das, z. B. mittels eines Greifarms, die Lagerung oder Verlagerung des zu operierenden Körperteils, wie hier des Patientenarms, auf einer Unterlage vornimmt, vorzugsweise in eine - optimal exakt - vorausberechnete Position hinein. Das System kann festlegen, wie z. B. Arm und Hand gelagert werden müssen. Die hierzu verwendeten Daten werden z. B. mit Hilfe der Bilddaten, vorzugsweise DICOM-Daten, und des berechneten 3D- Modells ermittelt. In some embodiments, it is the system that, e.g. B. by means of a gripper arm, the storage or displacement of the body part to be operated on, such as the patient's arm here, on a base, preferably in a - carries out pre-calculated position inside - optimally exactly. The system can specify, e.g. B. arm and hand must be stored. The data used for this purpose is z. B. determined using the image data, preferably DICOM data, and the calculated 3D model.
In einigen Aus führungs formen werden zum Reponieren der Frakturstücke x-, y-, z-Koordinaten von ausgewählten Punkten (auch sogenannten Markern) der Extremität oder eines anderen Körperteils, hier des Arms und der Hand, verwendet. Es erfolgt vorzugsweise ein ständiger Abgleich mit ebenfalls ermittelten Positionswerten der Marker (ebenfalls x-, y-, z- Koordinaten) bis zur vorausberechneten, optimalen Position für die anstehende Operation. In some embodiments, x, y, z coordinates of selected points (also known as markers) of the extremity or another part of the body, here the arm and the hand, are used to reposition the fracture pieces. There is preferably a constant comparison with also determined position values of the markers (likewise x, y, z coordinates) up to the precalculated, optimal position for the pending operation.
In manchen Aus führungs formen erfolgt die Erfassung der hierzu erforderlichen Koordinaten mittels geeigneter Vorrichtungen, z. B. mittels einer oder mehrerer Tracking-Kameras des Systems, die die Position des Armes und der Hand aufnehmen, der Steuereinrichtung beispielsweise als DICOM-Daten zugänglich machen, um damit zur optimalen, vorausberechneten Position zu gelangen. Der Roboter des Systems wird vorzugsweise durch den Abgleich der Koordinaten geleitet und kennt seine Position exakt . Die Überprüfung erfolgt durch das System oder die KI , was durch den Arzt überwacht werden kann . In some embodiments, the coordinates required for this purpose are recorded using suitable devices, e.g. B. by means of one or more tracking cameras of the system, which record the position of the arm and the hand, the control device, for example, as DICOM data accessible in order to arrive at the optimal, pre-calculated position. The robot of the system is preferably guided through the comparison of the coordinates and knows its position exactly. The verification is done by the system or the AI, which can be monitored by the doctor.
In einigen Aus führungs formen ermittelt und/oder markiert ein Roboterarm die Position für eine Hautinzision . Sie kann anhand der zuvor erhobenen Daten errechnet werden . Die Hautinzision kann selbsttätig mittels des Roboterarms erfolgen . In some embodiments, a robotic arm determines and/or marks the location for a skin incision. It can be calculated using the previously collected data. The skin incision can be made automatically using the robotic arm.
Die Weglinie des j eden Instruments , z . B . eines Skalpells , kann über ein Koordinatensystem ( ebenfalls mittels x- , y- und z-Koordinaten) und entsprechende Vektordaten geplant und optional mittels Tracking-Kameras verfolgt bzw . über einen Soll- I st-Abgleich korrigiert werden . Die Kraft , mit der die Haut eingeschnitten werden muss , ist abhängig von der Hautbeschaf fenheit und kann in manchen Aus führungs formen individuell korrigier- bzw . anpassbar sein . The path line of each instrument, e.g. B. a scalpel, can be planned using a coordinate system (also using x, y and z coordinates) and corresponding vector data and optionally tracked or recorded using tracking cameras. be corrected via a target-actual comparison. The force with which the skin has to be incised depends on the condition of the skin and can be individually corrected or increased in some versions. be customizable .
Der Roboterarm wechselt in manchen Aus führungs formen selbstständig das Instrumentarium . In some versions, the robotic arm changes the set of instruments independently.
In einigen Aus führungs formen betätigt der Roboterarm somit eine Bohrmaschine mit K Draht , der in einem vorausberechneten Punkt und einem vorausberechneten Eintrittswinkel und mit einer ebenfalls vorausberechneten Kraft in den oder die zu versorgenden Knochen gebohrt wird . In some embodiments, the robotic arm thus actuates a drill with a K wire that is drilled into the bone or bones to be repaired at a precalculated point and angle of entry and with a force that is also precalculated.
In manchen Aus führungs formen weist der Roboterarm eine Lage- bzw . Positionsbestimmungssensorik auf , die den Vektor des Roboterarms bestimmt , wobei die Achse des Roboterarms beispielsweise mit dem K-Draht-Vektor übereinstimmt . Der Bohr-Eintrittspunkt wird über die x- , y- , z-Koordinate der K- Draht-Spitze und des Eintrittspunktes hier exemplarisch an der Hand definiert . In some embodiments, the robot arm has a position or Position determination sensors that determine the vector of the robot arm, the axis of the robot arm, for example, coincides with the K-wire vector. The The entry point of the drill is defined using the x, y, z coordinates of the K-wire tip and the entry point here as an example by hand.
Die Bohrkraft ( in der Einheit [mN] ) ist in manchen The drilling force (in the unit [mN]) is in some
Aus führungs formen variabel und wird vorzugsweise im Abgleich mit dem 3D-Modell geregelt , um der Knochendichte (Kortikalis , Spongiosa ) Rechnung zu tragen . Execution forms variable and is preferably regulated in comparison with the 3D model in order to take into account the bone density (cortical bone, spongiosa).
In einigen Aus führungs formen werden die x- , y- , z-Koordinaten der K-Draht-Spit ze und des Endpunktes laufend mit der vorausberechneten Endpunkt-Lage abgeglichen, um eine optimale Eindringtiefe zu erreichen . Der K-Draht wird anschl ießend bis in den Knochen vorgebohrt und dort fixiert . In some embodiments, the x, y, z coordinates of the K-wire tip and the end point are continuously compared with the pre-calculated end point position in order to achieve an optimal penetration depth. The K-wire is then pre-drilled into the bone and fixed there.
Ein kanülierter Bohrer kann als weiteres Operations instrument zum Einsatz kommen und bohrt über den K-Draht das Loch für die Schraube aus , z . B . bis zur subchondralen Lamel le des Knochens von Interesse . A cannulated drill can be used as an additional surgical instrument and drills the hole for the screw over the K-wire, e.g. B. to the subchondral lamella le of the bone of interest .
Hierbei stimmt vorzugsweise der Vektor des kanülierten Bohrers des Roboterarms mit dem Vektor des K-Drahts überein, um den korrekten Eintrittswinkel des Bohrers sicherzustellen . Die Berechnung des Vektors kann j eweils vorab vom System übernommen worden sein, Die korrekte Positionierung des Roboterarms kann ebenfalls mittels der darin verbauten Lage- bzw . Positionsbestimmungssensorik sowie der Tracking- Kamera ( s ) sichergestellt werden . Preferably, the vector of the robotic arm's cannulated drill matches the vector of the K-wire to ensure the correct entry angle of the drill. The calculation of the vector can be taken over by the system in advance. The correct positioning of the robot arm can also be determined using the built-in position or Position determination sensors and the tracking camera (s) are ensured.
In einigen Aus führungs formen orientiert sich der Eintrittspunkt des kanülierten Bohrers an der aktuellen Lage des K-Drahts im realen Raum . Die Bohrkraft ( in der Einheit [mN] ) wird optional mittels derIn some embodiments, the entry point of the cannulated drill is based on the current position of the K-wire in real space. The drilling force (in the unit [mN]) is optionally set using the
Widerstandskraftmessung im Roboterarm geregelt . Dabei kann ein stetiger Abgleich mit den Daten des erstellten 3D-Modells erfolgen, um beispielsweise der vorliegenden Knochendichte (Kortikalis , Spongiosa ) Rechnung zu tragen . Resistance measurement regulated in the robot arm. A constant comparison can be made with the data of the created 3D model, for example to take into account the existing bone density (cortical bone, spongiosa).
Die Eindringtiefe des kanülierten Bohrers wird vorzugsweise ebenfalls über die x- , y- und z-Koordinaten und der Vektordaten des K-Drahts definiert oder daran orientiert . The penetration depth of the cannulated drill is preferably also defined via the x, y and z coordinates and the vector data of the K-wire or oriented to them.
In manchen Aus führungs formen kann hierzu in diesem Schritt ein Abgleich mit einer, vorzugsweise aktuellen, Röntgenaufnahme durchgeführt werden . In some embodiments, a comparison with a preferably current x-ray image can be carried out for this purpose in this step.
Nach einem erneuten Instrumentenwechsel auf die kanülierte Schraube , oder Heranziehen eines anderen oder weiteren Roboterarms , wird diese in manchen Aus führungs formen mit einem z . B . anhand des 3D-Modells oder diesem zugrunde liegenden Daten vorzugweise bereits vorausberechneten Drehmoment in den Knochen eingeschraubt . After another change of instrument to the cannulated screw, or when another or another robot arm is used, in some embodiments this is secured with a z. B. screwed into the bone using the 3D model or this underlying data preferably already precalculated torque.
In manchen Aus führungs formen findet dabei die Ermittlung des Eintrittswinkels sowie des Eintrittspunkts der Schraube beispielsweise analog zur Ermittlung von Eintrittswinkel und Eintrittspunkt des Bohrers statt . In some embodiments, the entry angle and the entry point of the screw are determined, for example, analogously to the determination of the entry angle and entry point of the drill.
Ein, vorzugsweise variables , Drehmoment (beispielsweise in der Einheit [Nm] ) kann mittels einer Drehmomentmessung im Roboterarm erfolgen . Dabei kann ebenso ein stetiger Abgleich mit den Daten des erstellten 3D-Modells erfolgen, um beispielsweise der vorliegenden Knochendichte (Kortikalis , Spongiosa ) Rechnung zu tragen . Die Eindringtiefe bzw . die Endlage des Schraubenendpunkts wird in manchen Aus führungs formen z . B . über dessen x- , y- und z-Koordinaten im Abgleich mit den Daten des Vektors des K-Drahtes , festgelegt . Die Schraubenspitze erreicht bei ihrem Einschrauben vorzugsweise exakt den Bereich der subchondralen Lamelle des relevanten Knochens . An dieser Stelle kann ebenso ein Abgleich mit der vorausberechneten Endpunktlage erfolgen . A preferably variable torque (for example in the unit [Nm]) can take place by means of a torque measurement in the robot arm. A constant comparison with the data of the created 3D model can also be carried out in order to take account of the existing bone density (cortical bone, spongiosa). The penetration depth the end position of the screw end point is in some forms of execution z. B. via its x, y and z coordinates in comparison with the data of the vector of the K-wire. When screwed in, the tip of the screw preferably reaches exactly the area of the subchondral lamella of the relevant bone. At this point, a comparison with the pre-calculated end point position can also take place.
In manchen Aus führungs formen kann auch hier ein Abgleich mit einer, vorzugsweise aktuellen, Röntgenaufnahme durchgeführt werden, der K-Draht durch den Roboter entfernt werden . In some embodiments, a comparison with a preferably current X-ray image can also be carried out here, and the K-wire can be removed by the robot.
In einigen Aus führungs formen umfasst das Verfahren weiter den Schritt eines Auf zeichnens von Daten bezüglich Sequenzen der Bewegung des Simulationsinstruments/der Simulationsvorrichtung und/oder des realen Obj ekts im realen Raum und/oder des virtuellen Operationsinstruments und/oder des virtuellen Obj ekts im virtuellen Raum, oder Abschnitten hiervon, welche im Rahmen des erfindungsgemäßen Verfahrens durchgeführt wurden . In diesen Aus führungs formen kann ergänzend ein Vergleichen von einer oder mehrerer Eigenschaf t ( en) der auf gezeichneten Daten bezüglich der Sequenz der Bewegung des Simulationsinstruments mit wenigstens einem, im bereitgestellten Datenspeicher gespeicherten, im Ziel-Operationsverlauf oder in Abschnitten hiervon vom erfindungsgemäßen Verfahren umfasst sein . In some embodiments, the method further comprises the step of recording data relating to sequences of movement of the simulation instrument/device and/or the real object in real space and/or the virtual surgical instrument and/or the virtual object in virtual Space, or sections thereof, which were carried out in the context of the method according to the invention. In these embodiments, a comparison of one or more properties of the recorded data relating to the sequence of the movement of the simulation instrument with at least one stored in the data memory provided can also be included in the target operation course or in sections thereof by the method according to the invention be .
In manchen Aus führungs formen umfasst das Verfahren weiter den Schritt eines Bewertens einer Qualität des Ergebnis ses des Vergleichs anhand vorbestimmter Kriterien und Ausgeben einer Aussage über die Qualität zur Kenntnisnahme durch den Nutzer . In einigen Aus führungs formen des erfindungsgemäßen Systems umfasst dieses ergänzend eine Nutzerschnittstelle zum Eingeben von Steuerbefehlen zum Steuern des Operationsroboters durch den Nutzer . Eine solche Nutzerschnittstelle können ein Joy-Stick, eine Tastatur, eine Computermaus usw . oder eine Kombination hiervon sein oder umfassen . In some embodiments, the method also includes the step of evaluating the quality of the result of the comparison using predetermined criteria and outputting a statement about the quality for the user to take note of. In some embodiments of the system according to the invention, this additionally includes a user interface for the user to input control commands for controlling the surgical robot. Such a user interface can be a joystick, a keyboard, a computer mouse, etc. or be or comprise a combination thereof.
In manchen Aus führungs formen des erfindungsgemäßen Verfahrens können postoperative Daten, beispielsweise aus Befragungen von behandelnden Ärzten und/oder Patienten, erhoben werden oder worden sein und in die Bereitstellung von Ziel- Operationsverläufen eingehen oder Eingang gefunden haben . In some embodiments of the method according to the invention, postoperative data, for example from surveys of treating physicians and/or patients, can be or have been collected and are included or have been included in the provision of target operation courses.
In einigen Aus führungs formen des erfindungsgemäßen Verfahrens können Frakturen klassi fi ziert werden oder sein, wobei die Daten dieser Klassi fikation in die Auswahl eines Ziel- Operationsverlaufs eingehen können . Eine solche Klassi fikation kann beispielsweise die AO-Klassi f ikation (Arbeitsgemeinschaft für Osteosynthesefragen) sein, welche ein System zur Beschreibung der Lokalisation und Beschaf fenheit von Knochenbrüchen ( Frakturen) darstellt . Ziel dieser Klassi fikation ist eine vorzugsweise weltweit eindeutige Zuordnung von Frakturen, was eine standardisierte Nutzung des erfindungsgemäßen Systems und eine standardisierte Behandlung ermöglichen kann . In some embodiments of the method according to the invention, fractures can be or have been classified, with the data of this classification being able to be included in the selection of a target course of the operation. Such a classification can be, for example, the AO classification (working group for osteosynthesis issues), which represents a system for describing the localization and nature of broken bones (fractures). The aim of this classification is a preferably worldwide unambiguous assignment of fractures, which can enable standardized use of the system according to the invention and standardized treatment.
Um die Gegebenheiten eines Operationssaals realitätsnah auf das Trainingssystem zu übertragen, ist in manchen Aus führungs formen eine Röntgenbildsimulation vorgesehen . Zu diesem Zweck wird eine virtuelle Röntgenfelddarstel lung in die Visualisierung eingeblendet . Das Röntgenfeld kann optional , beispielsweise mittels einer 3D-Maus , Touchwidgets oder dergleichen, vergrößert , verkleinert , rotiert oder verschoben werden . In order to transfer the conditions of an operating room to the training system in a realistic manner, an X-ray image simulation is provided in some embodiments. For this purpose, a virtual X-ray field display is shown in the visualization. The X-ray field can optionally, for example using a 3D mouse, touch widgets or the like, enlarged, reduced, rotated or shifted.
In einigen Aus führungs formen kann ein Röntgenfußschalter vorgesehen sein, welcher, wenn betätigt , ein Röntgenbild anfordert . Auf diese Anforderung hin werden optional die aktuellen Rotationsdaten des virtuellen Obj ekts (Rotation zwischen Röntgenfeldebene und Ob ektvisualisierung) und die Deltapositionen zwischen Röntgenfeld und virtuellem Obj ekt ( z . B . eine virtuelle Hand) genutzt , um den DICOM-Datensat z des virtuellen Obj ekts zu rotieren und auf den Bereich, der sich aktuell im Röntgenfeld befindet , zuzuschneiden . Die Orientierung und Deltaposition zwischen Röntgenkreuz und K- Draht-Spitze ( als virtuelles Operationsinstrument ) kann ebenfalls auf den DICOM-Datensat z des K-Drahtes angewendet werden . Im nächsten Schritt werden alle Pixelwerte der DICOM- Datensätze ( Grauwerte zwischen Null und 255 der 8-Bit- Schichtbilder ) entlang des Röntgenstrahlenganges ( senkrecht zur Röntgenfeldebene ) gesondert für das virtuelle Obj ekt und den K-Draht auf summiert . So wird der 3D-Datensatz auf eine 2D-Bildebene reduziert . Diese reduzierten 2D-Bilder können mittels Filtern, beispielsweise DiscreteGaussianlmageFilter , ResamplelmageFilter , Rescalelntensity- ImageFilter ( lineare Skalierung der Pixelwerte ) und LaplacianSharpeninglmageFilter (Bildschärfung durch das Hervorheben von Kanten) von ITK, nachbearbeitet und anschließend pixelweise aufsummiert werden . In some embodiments, an X-ray foot switch can be provided which, when actuated, requests an X-ray image. In response to this request, the current rotation data of the virtual object (rotation between the X-ray field level and the object visualization) and the delta positions between the X-ray field and the virtual object (e.g. a virtual hand) are optionally used to convert the DICOM data set of the virtual object ects to rotate and crop to the area currently in the x-ray field. The orientation and delta position between the X-ray cross and the K-wire tip (as a virtual surgical instrument) can also be applied to the DICOM data set of the K-wire. In the next step, all pixel values of the DICOM data sets (grey values between zero and 255 of the 8-bit slice images) along the X-ray beam path (perpendicular to the X-ray field level) are summed separately for the virtual object and the K-wire. In this way, the 3D data set is reduced to a 2D image plane. These reduced 2D images can be post-processed using filters such as DiscreteGaussianlmageFilter , ResamplelmageFilter , RescalelntensityImageFilter ( linear scaling of pixel values ) and LaplacianSharpeninglmageFilter ( image sharpening by emphasizing edges ) from ITK and then summed up pixel by pixel .
In manchen Aus führungs formen können im Röntgenfeld mehrere K- Drähte vorhanden sein . Dann wird der K-Draht-Datensatz mehrmals verwendet , j edoch in unterschiedlicher Orientierung und/oder Rotation . In einigen Aus führungs formen sind der Haptikarm, der dem Training dient , und der Roboterarm, der dem automatisierten Operieren dient , ein und derselbe , zumindest aber typidentische , „Arme" . Er und seine Steuerung erlauben zugleich sein - optional zumindest in einem vorbestimmten und ggf . von einem optionalen Simulationswerkzeug (Bohrer, Fräser, K- Draht , usw . ) abhängigem Umfang oder Maß freies - Bewegen als Simulationsvorrichtung als auch seine Ansteuerung, wenn er das Operationswerkzeug trägt und zwar nach vorausberechneten Traj ektorien oder Ziel-Operationsverläufen . In some embodiments, several K-wires can be present in the X-ray field. The K-wire data set is then used several times, but in different orientations and/or rotations. In some embodiments, the haptic arm, which is used for training, and the robotic arm, which is used for automated operations, are one and the same, or at least type-identical, "arms". Possibly of an optional simulation tool (drill, milling cutter, K-wire, etc.) dependent extent or measure free - moving as a simulation device as well as its control when he wears the surgical tool, namely according to pre-calculated trajectories or target operation courses.
Der Roboterarm des Operationsroboters , der auch der hierin genannte Haptikarm sein kann, weist eine ausreichend feinfühlige , taktile Sensorik auf . Sie erlaubt es z . B . , externe Kräfte und/oder Widerstände aufgrund von Kontakten zu erkennen, zu messen und zu rendern . The robot arm of the surgical robot, which can also be the haptic arm mentioned here, has a sufficiently sensitive, tactile sensor system. It allows e.g. B. Detect, measure and render external forces and/or resistances due to contacts.
Der Roboterarm weist in manchen Aus führungs formen einen oder mehrere Endef fektoren zur Aufnahme relevanter chirurgischer Operationsinstrumente (wie beispielsweise Bohrer und Fräser ) auf . Optional sind/werden in den/die Endef fektoren auch weitere , relevante Sensoren (wie beispielsweise Kraftsensoren) integriert . In some embodiments, the robotic arm has one or more end effects for receiving relevant surgical operating instruments (such as drills and milling cutters). Optionally, other relevant sensors (such as force sensors) are/are also integrated into the end effector(s).
Die automatische Komponenten-Segmentierung kann z . B . mittels eines Machine-Learning-Modells (hierin auch Kl-Modell oder kurz Modell ) ausgeführt werden . The automatic component segmentation can e.g. B. using a machine learning model (herein also called KI model or model for short) are executed.
Ein Machine-Learning-Modell ist eine kalibrierbare Methode , um aus Eingabewerten eine Ausgabe zu erzeugen . In einer Trainingsphase wird dem Modell eine Anzahl an Beispieldatensätzen zur Verfügung gestellt , sowie eine Funktion, die die „Güte" der Ausgaben bewertet . Das Training dient dazu, das Modell so zu kalibrieren, dass die Ausgaben, welche das Modell für die Trainingsdaten ausgibt , möglichst optimal sind . Dabei kann ein Supervised-Learning-Ansat z zum Einsatz kommen . Dabei kann wahlweise ein Datensatz manuell segmentierter Daten zur Verfügung gestellt werden . Korrekte Segmentierungen werden manuell betrieben . Das System hat dann die Möglichkeit , hieraus eine korrekte Segmentierung zu erlernen . Analog kann so bei Klassi f ikations- und Regressionsaufgaben vorgegangen werden . A machine learning model is a calibratable method to produce an output from input values. In a training phase, the model is provided with a number of sample data sets and a function that evaluates the "quality" of the outputs. The training serves to calibrate the model in such a way that the outputs that the model outputs for the training data are as optimal as possible. A supervised learning approach can be used here. A data record of manually segmented data can optionally be made available. Correct segmentations are operated manually. The system then has the opportunity to learn correct segmentation from this. The same can be done for classification and regression tasks.
Das auf diese Weise optimierte oder gar optimale Modell erzeugt Ausgaben, die ausreichend nah an den korrekten Zuordnungen sind . The model optimized in this way, or even optimal, produces outputs that are sufficiently close to the correct assignments.
Aber auch Unsupervised Learning oder Reinforcement Learning sind bekannte Ansätze , um zu einem geeigneten Model l zu gelangen . However , unsupervised learning or reinforcement learning are also well - known approaches for arriving at a suitable model .
Zum Sicherstellen der erforderlichen Güte des Model ls wird nach dem erfolgten Training vorzugsweise eine Test- oder Validierungsphase angehängt . Das trainierte Modell kann hierin auf neue , zuvor unbekannte Daten angewandt und die Qualität der Ausgaben überprüft werden . To ensure the required quality of the model ls, a test or validation phase is preferably added after the training has taken place. Here, the trained model can be applied to new, previously unknown data and the quality of the outputs checked.
Vorliegend werden ausreichend viele Datensätze als Datensammlung bereitgestellt , z . B . in Gestalt von Patientenbildern, die die bekanntesten Schädigungen z . B . der Hand, aber auch intakte Hände zeigen . Ein paar Duzend Patientenfälle können hier genügen, sie können ggf . augmentiert werden . In den einzelnen Bildern werden manuell Zuordnungen getrof fen . Wenn das erfindungsgemäße computergestützte Verfahren hierin bei Schädigungen z . B . der Hand angewendet wird, so ist dies rein beispielhaft und nicht als beschränkend zu verstehen . Die Anwendung des erfindungsgemäßen computergestützten Verfahrens auf andere Körperpartien eines Patienten, z . B . Hüfte , Kopf , Knie , Fuß etc . , ist ebenfalls von der vorliegenden Erfindung umfasst . In the present case, a sufficient number of data sets are provided as a data collection, e.g. B. in the form of patient images showing the most well-known damage z. B. of the hand, but also show intact hands. A few dozen patient cases can suffice here; be augmented . Assignments are made manually in the individual images. If the computer-aided method according to the invention herein for damage z. B. applied to the hand, this is purely exemplary and not to be understood as limiting. The application of the computer-assisted method according to the invention on other parts of a patient's body, e.g. B. hip , head , knee , foot etc . , is also encompassed by the present invention .
In diesen Trainingsbildern kann manuell eine Region of Interest (ROI ) festgelegt werden, die ggf . das gesamte Bild umfassen kann . Das anzutrainierende Modell kann ebenfalls eine ROI festlegen, dies ist j edoch nicht zwingend erforderlich . Wird eine ROI festgelegt , so kann diese automatisch festgelegt werden, indem z . B . die ROI nur so weit ausgedehnt wird, dass der mittlere Dichtewert der ROI einen Mindestwert nicht unterschreitet . Auf diese Weise kann z . B . ein schwarzer Rand unberücksichtigt bleiben . In these training images, a region of interest (ROI) can be manually defined, which may can encompass the entire picture. The model to be trained can also define an ROI, but this is not absolutely necessary. If a ROI is defined, it can be defined automatically, e.g. B. the ROI is only expanded to such an extent that the average density value of the ROI does not fall below a minimum value. In this way z. B. a black border are disregarded.
In diesen Trainingsbildern wie in späteren Patientenbildern erkennbare Überlagerungen von Knochen und räumliche Relationen benachbarter oder in Pro ektionsrichtung übereinanderliegender Knochen oder Knochenfragmente können durch Kontrastunterschiede und/oder unterschiedliche Weißwerte erkannt werden . Durch den Vergleich von Knochenfragmenten, Knochenteilen und/oder Knochenbruchstücken, die im Bereich vorhandener Frakturen teilweise stark verschoben sein können, beispielsweise mit einer unversehrten Knochenlage , kann das Modell dann aufgrund der Struktur der Frakturf lächen, der noch gegebenen räumlichen Nähe von Bruchstücken ( auch nach Fraktur ) und angesichts mancher intakter Nachbarknochen eine Zuordnung von zugehörigen Bruchstücken oder Frakturf lächen zueinander, vergleichbar einem Puz zlespiel , vornehmen . Die Zuordnung von einzelnen Fragmenten zueinander kann vom Modell bei Kenntnis durchschnittlicher, maximaler oder minimaler Dicken undOverlays of bones and spatial relationships of adjacent bones or bones or bone fragments lying one on top of the other in the projection direction can be recognized in these training images as in later patient images by contrast differences and/or different white values. By comparing bone fragments, bone parts and/or bone fragments, some of which can be strongly displaced in the area of existing fractures, for example with an intact bone situation, the model can then be based on the structure of the fracture surfaces, the still given spatial proximity of fragments (also after fracture) and in view of some intact neighboring bones, assign associated fragments or fracture surfaces to each other, comparable to a puzzle. The assignment of individual fragments to each other can be modeled with knowledge of average, maximum or minimum thicknesses and
Längen der am Aufbau der Hand beteiligten Knochen, ggf . in Relation zueinander, erfolgen . In manchen Aus führungsformen kann diese Zuordnung ergänzend im Zusammenhang mit einem weiteren Körpermaß erfolgen, etwa der Länge eines Unterarmknochens . Identische Dicken der Kortikalis im j eweils randständigen Bereich sind ebenfalls geeignet , eine Zuordnung von zueinander gehörigen Knochenfragmenten oder Frakturf lächen vorzunehmen oder eine angenommene Zugehörigkeit zu überprüfen . Dies ist insbesondere bei Vorliegen von Aufnahmen z . B . der Hand unter verschiedenen Strahlengängen ( zwei Ebenen genügen hier zumeist ) eindeutig möglich . Lengths of the bones involved in the structure of the hand, if necessary . in relation to each other, take place. In some embodiments, this assignment can also be made in connection with another body measurement, such as the length of a forearm bone. Identical thicknesses of the cortical bone in the respective marginal area are also suitable for making an assignment of bone fragments or fracture surfaces that belong to one another or for checking an assumed assignment. This is particularly the case when there are recordings, e.g. B. the hand under different beam paths ( two planes are usually sufficient here ) clearly possible .
Geht man davon aus , dass unbeschädigte Knochen durch stetige Umrandungen im Bild gekennzeichnet sind, so kann der einzelne , unverletzte Knochen im Bild festgelegt werden . Benachbarte Knochen sind durch stetig umlaufenden Wegfall einer durchgehenden Kortikalis (bzw . randseitige oder stirnseitige Begrenzung des Knochens im Bild) voneinander getrennt . If one assumes that undamaged bones are marked by continuous borders in the image, then the individual, undamaged bone can be identified in the image. Neighboring bones are separated from one another by the continuous omission of a continuous cortical bone (or border or frontal delimitation of the bone in the picture) .
Anhand vorhandener Weißwerte im Bild lassen sich ebenfalls Dichteunterschiede zwischen Kortikalis und Spongiosa unterscheiden . Derartige Dichteunterschiede zu erkennen, auch bei überlagerten Knochenstrukturen im Bild, können dem Modell mittels der Trainingsdaten mitgeteilt worden sein . Ihre Berücksichtigung kann weiter dem Identi fi zieren der Umfangskontur eines j eden Knochens und/oder Knochenfragments dienen . Mit der OpenSource Software ImageJ können beispielsweise die so identi fi zierten Knochenstrukturen oder Knochensegmente in einzelne Bildstapel extrahiert werden, um diese gesondert weiterverarbeiten zu können . Density differences between the cortical bone and spongiosa can also be distinguished using the existing white values in the image. To recognize such density differences, even with superimposed bone structures in the image, can have been communicated to the model by means of the training data. Taking them into account can further serve to identify the peripheral contour of each bone and/or bone fragment. With the open source software ImageJ, for example, the bone structures or bone segments identified in this way can be extracted into individual image stacks in order to be able to process them separately.
Eine Aufteilung des j eweiligen Knochens in die Strukturen Kortikalis und Spongiosa kann erfolgen, dies ist rein optional . A division of the respective bone into the structures cortical and spongiosa can take place, this is purely optional.
Die Segmentierung der Spongiosa kann entfernt werden . Der entstehende hohle Innenraum kann als innere Begrenzung der Kortikalis verstanden werden, die , falls gewünscht , geglättet werden kann . The segmentation of the spongiosa can be removed. The resulting hollow interior can be understood as the inner boundary of the cortex, which can be smoothed out if desired.
Mittels z . B . der ITK Filter BinaryFillholelmageFil ter und BinaryErodelmageFilter wird die Segmentierung der Kortikalis automatisch nachbearbeitet . using e.g. B. the ITK Filter BinaryFillholelmageFil ter and BinaryErodelmageFilter automatically postprocesses the segmentation of the cortical bone.
Mittels Meshlab können dann die aus den Rohdaten extrahierten Oberflächen optional nachbearbeitet werden ( topologisches Remeshing, exakte Geometrie , Glättung) . Sie können anschließend z . B . als STL-Modelle abgespeichert werden . Using Meshlab, the surfaces extracted from the raw data can then be optionally post-processed (topological remeshing, exact geometry, smoothing). You can then e.g. B. be saved as STL models .
Nach Ausrichtung der Oberflächen entsprechend den Trainingsbildern werden optional die Voxelwerte durch Resampling in einen Datensatz gerechnet , der für die Extraktion der Dichtewerte ( für das haptische Feedback) genutzt werden kann . After aligning the surfaces according to the training images, the voxel values are optionally calculated by resampling into a dataset that can be used to extract the density values (for the haptic feedback).
Eine automatische Dichtezuordnung für einzelne Voxel anhand der erfolgten Segmentierung oder Herausstellung der Kortikalis kann abschließend folgen . Die Datensätze , die als Trainingsdaten für die hierin ausgeführten Kl-Modelle verwendet werden, können ergänzend möglichst gut eine erwartete Datenvariabilität abbi lden . Das heißt , dass die Auswahl der Datensätze der Patientenstatistik folgt ( z . B . Alter, Geschlecht , Örtlichkeit der Fraktur ) . Hierfür werden Annotationsprotokolle ausgearbeitet und in der Software nötige Anpassungen implementiert . Diese dienen vorwiegend zur verbesserten Zusammenarbeit mit den medi zinischen Experten und der nötigen, spezialisierten Visualisierung und Interaktion für die segmentierten Frakturelemente . An automatic density assignment for individual voxels based on the completed segmentation or highlighting of the cortical bone can then follow. The data sets, which are used as training data for the AI models presented here, can additionally map an expected data variability as well as possible. This means that the selection of the data records follows the patient statistics (e.g. age, gender, location of the fracture). For this purpose, annotation protocols are developed and necessary adjustments are implemented in the software. These primarily serve to improve cooperation with the medical experts and the necessary, specialized visualization and interaction for the segmented fracture elements.
Manche oder alle erfindungsgemäßen Aus führungs formen können einen, mehrere oder alle der oben und/oder im Folgenden genannten Vorteile aufweisen . Some or all of the embodiments according to the invention can have one, several or all of the advantages mentioned above and/or below.
Erfindungsgemäß kann es möglich sein, Chirurgen auf die Durchführung einer realen Operation vorzubereiten, indem diese durch Training am erfindungsgemäßen System ihre handwerklichen Fähigkeiten und ihr anatomisches Wis sen bezogen auf den konkreten Fall oder das konkrete Krankheitsoder Unfallbild oder allgemein, verbessern können . Dabei können einzelne Operationsschritte verinnerlicht und auf im Nachgang auf die anstehende Operations-Situation ( en ) übertragen werden . According to the invention, it may be possible to prepare surgeons for performing a real operation by being able to improve their technical skills and their anatomical knowledge in relation to the specific case or the specific disease or accident pattern or in general by training on the system according to the invention. Individual surgical steps can be internalized and subsequently transferred to the upcoming surgical situation(s).
Operationsroboter können in der Chirurgie stets die gleiche Präzision und Qualität bieten, auch, da sie im Gegensatz zum Menschen nicht ermüden . Es muss selbst bei längeren Operations-Dauern nicht mit einem Konzentrationsverlust auf Seiten des (maschinellen) Chirurgen gerechnet werden . Uber die Einsatz zeit des Operationsroboters kann die Qualität der chirurgischen Eingri f fe daher gleichbleibend hoch gehalten werden . Ein Vorteil der vorliegenden Erfindung kann daher darin bestehen, Operationsrobotern aus einer Viel zahl von chirurgischen Eingri f fen, Simulationen erfahrener Operateure und/oder Chirurgen und/oder als sehr gut bewerteten Trainingssequenzen herausgestellte Operationssequenzen, in welcher ein vom Operationsroboter geführtes reales Operationsinstrument zur chirurgischen Versorgung eines Patienten zu führen ist , eine optimale Bewegungssequenz an die Hand zu geben . Dies trägt vorteilhaft zur Erhöhung der Operationsqualität sowie der Patientensicherheit bei . Surgical robots can always offer the same precision and quality in surgery, also because, unlike humans, they do not tire. A loss of concentration on the part of the (mechanical) surgeon does not have to be expected, even in the case of longer operations. The quality of the surgical intervention can therefore be kept consistently high over the period of use of the surgical robot become . An advantage of the present invention can therefore consist in providing surgical robots with surgical sequences from a large number of surgical interventions, simulations by experienced operators and/or surgeons and/or training sequences rated as very good, in which a real surgical instrument guided by the surgical robot is used for surgical care To guide a patient is to provide an optimal sequence of movements. This advantageously contributes to increasing the quality of the operation and patient safety.
Ein weiterer Vorteil der vorliegenden Erfindung kann darin bestehen, das das vorliegende erfindungsgemäße System auf Hunderte , Tausende und mehr von Datensätzen verschiedenster chirurgischer Eingri f fe zurückgrei fen und daraus lernen kann, während sich ein Chirurg auf seine im Umfang beschränkte , eigene Erfahrung, ggf . ergänzt durch die Erfahrung von akademischen Lehrern wie erfahrenen Chirurgen, Lehrgangsleitern, eines Oberarztes/einer Oberärztin, usw . , verlassen muss . Das erfindungsgemäße System kann somit deutlich mehr Informationen in den Arbeitsprozess einbeziehen, was in kurzer Zeit zu deutlich mehr Wi ssen und Erfahrung führen kann, als der konkrete Chirurg möglicherweise j emals sammeln kann . Dies kann vorteilhaft zu präziseren Operationsergebnissen führen und somit die Patientensicherheit signi fikant erhöhen . A further advantage of the present invention can be that the present inventive system can fall back on hundreds, thousands and more data sets of the most varied surgical interventions and can learn from them, while a surgeon is limited to his own experience, which is limited in scope, if necessary. supplemented by the experience of academic teachers such as experienced surgeons, course leaders, a senior physician, etc. , must leave . The system according to the invention can thus include significantly more information in the work process, which can lead to significantly more knowledge and experience in a short time than the specific surgeon could possibly ever gather. This can advantageously lead to more precise surgical results and thus significantly increase patient safety.
Mittels der vorliegenden Erfindung können vorteilhaft Operationsroboter antrainiert werden, um weltweit , insbesondere in Ländern mit schlechter medi zinischer Ausrüstung oder Infrastruktur, eingesetzt zu werden und verschiedenste Prozesse übernehmen zu können . Vorteilhafterweise können die Operationsroboter ergänzend bei Bedarf über große Distanzen von Experten gesteuert werden .Surgical robots can advantageously be trained by means of the present invention in order to be used worldwide, in particular in countries with poor medical equipment or infrastructure, and to be able to take over a wide variety of processes. Advantageously, the surgical robots can also needs to be controlled by experts over large distances.
Dies kann insbesondere dazu beitragen, Kosten, beispielsweise für hochspezialisierte Experten vor Ort , einzusparen In particular, this can help to save costs, for example for highly specialized experts on site
Ein weiterer Vorteil der vorliegenden Erfindung kann darin bestehen, dass Operations zeiten sowie Zeiten für deren Vorbereitung auf Seiten des menschlichen Chirurgen signi fikant verkürzt werden . Auch dies kann mittelbar zur Patientensicherheit beitragen . A further advantage of the present invention can consist in the fact that operation times and times for their preparation on the part of the human surgeon are significantly reduced. This can also indirectly contribute to patient safety.
Mittels der vorliegenden Erfindung kann aufgrund der besseren Planbarkeit von Operationen vorteilhaft eine Auslastung des Operationssaals deutlich optimiert werden . Dies kann mittelbar die Ef fi zienz der Klinik oder Praxis , in der die Erfindung eingesetzt wird, steigern und hel fen, Kosten einzusparen . By means of the present invention, utilization of the operating theater can advantageously be significantly optimized due to the better ability to plan operations. This can indirectly increase the efficiency of the clinic or practice in which the invention is used and help to save costs.
Ein weiterer Vorteil der vorliegenden Erfindung kann darin bestehen, dass rund um die Uhr Operationen durchgeführt werden können . Durch das Wegfällen des „Human Factor" in manchen Aus führungs formen unterliegt der Einsatz der vorliegenden Erfindung keiner Einschränkung, wie sie beim Menschen vorkommen kann, wie z . B Müdigkeit und sinkende Konzentrations fähigkeit . Another advantage of the present invention can be that operations can be carried out around the clock. Due to the omission of the "human factor" in some embodiments, the use of the present invention is not subject to any restrictions that can occur in humans, such as tiredness and declining ability to concentrate.
Erfindungsgemäß können tatsächlich vorliegende Brüche vor ihrer chirurgischen Versorgung „trainiert" werden, mit dem Operationsteam virtuell vorbesprochen und in Folge von idealer Vorbereitung (mehrmaliges Üben am exakten Abbild des Operations falles ) die reale Operation mit deutlich geringerer Komplikationswahrscheinlichkeit durchgeführt werden . Eine verbesserte Operationsvorbereitung führt zu geringerem Risiko für den Patienten und kann zusätzlich die benötigteAccording to the invention, fractures that are actually present can be “trained” before they are surgically treated, discussed in advance with the surgical team and, as a result of ideal preparation (repeated practice on the exact image of the surgical case), the real operation can be carried out with a significantly lower probability of complications. Improved surgical preparation leads to lower risk for the patient and can additionally provide the required
Operations zeit reduzieren, was auch eine Kostenfrage ist . Reduce operations time, which is also a cost issue.
Alle mit den erfindungsgemäßen Verfahren erzielbaren Vorteile lassen sich in bestimmten erfindungsgemäßen Aus führungs formen ungeschmälert auch mit den erfindungsgemäßen Vorrichtungen erzielen, und umgekehrt . All the advantages that can be achieved with the method according to the invention can also be achieved undiminished in certain embodiments according to the invention with the devices according to the invention, and vice versa.
Im Folgenden wird die vorliegende Erfindung unter Bezugnahme auf die beigefügten Figuren rein exemplarisch beschrieben . In ihnen bezeichnen gleiche Bezugs zeichen gleiche oder ähnliche Komponenten . Es gilt : The present invention is described below purely by way of example with reference to the attached figures. In them, the same reference symbols designate the same or similar components. The following applies:
Fig . 1 zeigt schematisch vereinfacht den Ablauf des erfindungsgemäßen computergestützten Verfahrens in einer beispielhaften Aus führungs form; Fig. 1 shows a schematically simplified sequence of the computer-aided method according to the invention in an exemplary embodiment;
Fig . 2 zeigt schematisch vereinfacht Vorrichtungen zum Durchführen des Erfassungsschritts von geometrischen Daten mittels eines Computertomographen während einer beispielhaften Aus führungs form des erfindungsgemäßen Verfahrens ; Fig. 2 shows, in a schematically simplified manner, devices for carrying out the acquisition step of geometric data by means of a computer tomograph during an exemplary embodiment of the method according to the invention;
Fig . 3 zeigt schematisch vereinfacht Vorrichtungen zum Durchführen des erfindungsgemäßen Verfahrens in einer ersten beispielhaften Anordnung; Fig. 3 shows schematically simplified devices for carrying out the method according to the invention in a first exemplary arrangement;
Fig . 3a zeigt schematisch vereinfacht Vorrichtungen zum Durchführen des erfindungsgemäßen Verfahrens in einer weiteren beispielhaften Anordnung; Fig. 3b zeigt schematisch vereinfacht Vorrichtungen zum Durchführen des erfindungsgemäßen Verfahrens in einer dritten beispielhaften Anordnung; Fig. 3a shows schematically simplified devices for carrying out the method according to the invention in a further exemplary arrangement; 3b shows schematically simplified devices for carrying out the method according to the invention in a third exemplary arrangement;
Fig. 4 zeigt schematisch vereinfacht eine beispielhafte Aus führungs form eines erfindungsgemäßen Systems mit einem erfindungsgemäßen Computersystem, einem Operationsroboter, einer Steuereinheit und einer Nutzerschnittstelle; und 4 shows a schematically simplified exemplary embodiment of a system according to the invention with a computer system according to the invention, a surgical robot, a control unit and a user interface; and
Fig. 5 zeigt ein beispielhaftes Schema für den Ablauf eines operativen Eingriffs unter Verwendung des erfindungsgemäßen Verfahrens bzw. unter Verwendung des erfindungsgemäßen Systems. FIG. 5 shows an exemplary scheme for the course of a surgical intervention using the method according to the invention or using the system according to the invention.
Fig. 1 zeigt schematisch vereinfacht den Ablauf eines erfindungsgemäßen computergestützten Verfahrens in einer beispielhaften Aus führungs form. 1 shows a schematically simplified sequence of a computer-aided method according to the invention in an exemplary embodiment.
In Fig. 1 sind Verfahrensschritte dargestellt. Ein- und Vorrichtungen, welche zur Durchführung des erfindungsgemäßen Verfahrens verwendet werden können, werden in Fig. 2 bis Fig. 4 näher beschrieben. Es wird hier auf deren darin verwendeten Bezugszeichen Bezug genommen. In Fig. 1 method steps are shown. Units and devices which can be used to carry out the method according to the invention are described in more detail in FIGS. 2 to 4 . Reference is made here to their reference numerals used therein.
In der Fig. 1 repräsentiert der Verfahrensschritt S1 ein Einlesen von geometrischen Daten eines Objekts in eine Recheneinheit 101. In Fig. 1, method step S1 represents reading geometric data of an object into a computing unit 101.
Hierbei kann der Begriff „Objekt" beispielsweise einHere, the term "object" can, for example,
Patient P oder ein einzelner seiner Körperabschnitte, wie z. B. Arm, Hand, Wade, Fuß, Fraktur, Bänderapparat usw., sein oder diese (n) umfassen. Auch das Einlesen von Daten eines medizinischen oder nicht medizinischen realen Objekts, beispielsweise eines Dummys, ist von der vorliegenden Erfindung umfasst. Die geometrischen Daten können medizinische Daten sein oder umfassen. Patient P or a single part of his body, such as. B. arm, hand, calf, foot, fracture, ligaments, etc., be or include these(s). The reading in of data from a medical or non-medical real object, for example a dummy, is also covered by the present invention. The geometric data can be or include medical data.
Die einzulesenden geometrischen Daten des Objekts können zuvor in einem optionalen Schritt Ssrf an einem realen Objekt, beispielsweise an einem Patienten P, beispielsweise mittels eines Computertomographen (siehe Fig. 2) , erfasst werden oder erfasst worden sein und somit bereits vorliegen. In an optional step Ssrf, the geometric data of the object to be read in can be recorded or have been recorded on a real object, for example on a patient P, for example by means of a computer tomograph (see FIG. 2) and are therefore already available.
Ergänzend können die erfassten Daten oder Datensätze, insbesondere automatisch, in einem oder mehreren Segmentierungsschritt ( en) Sseg segmentiert werden, um segmentierte Volumendaten, insbesondere in Vorbereitung zu Schritt S2 (siehe dort) , zu erhalten. In addition, the recorded data or data sets can be segmented, in particular automatically, in one or more segmentation step(s) Ss eg in order to obtain segmented volume data, in particular in preparation for step S2 (see there).
Eine Segmentierung z. B. des akut zu behandelnden Bruchs, aber auch von Risikostrukturen, kann per Machine Learning bzw. Deep Learning erfolgen. Hierzu können MRT- und/oder CT- Daten semiautomatisch bis automatisch segmentiert und in das Trainingssystem geladen werden. A segmentation z. B. the fracture to be treated acutely, but also of risk structures, can be done using machine learning or deep learning. For this purpose, MRT and/or CT data can be segmented semi-automatically to automatically and loaded into the training system.
Ergänzend können die erfassten Daten oder Datensätze in einem oder mehreren Augmentierungsschritten SAU9 augmentiert werden oder augmentiert worden sein, um die Datenmenge oder die Anzahl der Datensätze zu erhöhen. In addition, the recorded data or data sets can be or have been augmented in one or more augmentation steps SAU 9 in order to increase the amount of data or the number of data sets.
Die Schritte Sseg und SAU9 können sowohl vor dem Einlesen in Schritt S1 mit den erfassten Daten durchgeführt werden, als auch nach dem Einlesen im Schritt S1 mit den eingelesenen Daten. Dies ist in Fig. 1 mittels Pfeilen dargestellt. Das bedeutet , dass in manchen Aus führungs formen die eingelesenen Daten bereits segmentiert und/oder augmentiert vorab vorliegen können . Steps Sseg and SAU 9 can be carried out either before reading in step S1 with the acquired data or after reading in step S1 with the read data. This is shown in Fig. 1 by arrows. The means that in some embodiments the data that has been read in can already be available in advance in a segmented and/or augmented form.
Die einzulesenden geometrischen Daten des Obj ekts können in manchen Aus führungs formen bereits als medi zinische Volumendaten im DICOM ( Digi tal Imaging and Communi ca ti on in Medi cine) -Format vorliegen oder Daten umfassen, die in diesem Format vorliegen . In anderen Aus führungs formen sind die einzulesenden geometrischen Daten des Obj ekts z . B . zweidimensionale Daten, z . B . in Form von Bilddaten (MRT , CT , usw . ) . Diese können hierin genutzt werden, um zu 3D-Modellen zu gelangen, was mittels Software automatisch erfolgen kann . In some embodiments, the geometric data of the object to be read in can already be present as medical volume data in DICOM (Digital Imaging and Communication in Medicine) format or can include data that is present in this format. In other embodiments, the geometric data to be read in of the object z. B. two-dimensional data, e.g. B. in the form of image data (MRI, CT, etc.). These can be used herein to arrive at 3D models, which can be done automatically using software.
Das Erstellen des 3D-Modells kann ein virtuelles Reponieren von Fraktursegmenten, dislozierten Knochen oder -teilen usw . sein oder umfassen, was automatisch erfolgen kann, etwa wie hierin zur automatischen Segmentierung beschrieben . Creating the 3D model can include virtual repositioning of fracture segments, dislocated bones or parts, etc. be or include, which may be done automatically, such as described herein for automatic segmentation.
Es kann vorgesehen sein, einzelne Knochen oder Fraktursegmente als separate Obj ekte zu erkennen oder zu bestimmen, was insbesondere automatisch erfolgen kann, etwa wie hierin zur automatischen Segmentierung beschrieben . Provision can be made for recognizing or determining individual bones or fracture segments as separate objects, which can in particular take place automatically, for example as described here for automatic segmentation.
Vorzugsweise nach grober Festlegung der Region of Interest (ROI , kann auch das ganze Bild sein) wird eine automatische Segmentierung der Knochen als 3D- oder Voxel-Modell durchgeführt . Ziel ist es , einzelne Knochen bzw . The bones are automatically segmented as a 3D or voxel model, preferably after the region of interest (ROI, can also be the entire image) has been roughly defined. The aim is to separate individual bones or
Frakturf ragmente zu erkennen, um diese dann separat im Raum bewegen zu können, ähnlich einem Puz zlespiel . Die Heraus forderungen bestehen vor allem darin, dass bei Frakturen Knochenteile und -bruchstücke stark in Form und Größe variieren und darüber hinaus teilweise verschoben sein können . Des Weiteren ist bei Bruchstücken naturgemäß die Kortikalis aufgebrochen und der Kontrast zwischen Spongiosa und umliegendem Gewebe reduziert . Dabei ist es wichtig, einzelne Knochen ( deren Segmentierungsmaske direkt an Segmentierungsmasken anderer Knochenteile angrenzt ) als separate Obj ekte zu erkennen, also benachbarte Knochen und/oder Knochenfragmente zu trennen . Um eine gute Datengrundlage für die Segmentierung der einzelnen Strukturen in den Aufnahmen zu erhalten, werden diese von im Vorfeld der Automatisierung von Medi zinern manuell segmentiert . Hierfür kann eine Annotationssoftware verwendet werden . Ein Training der KI- Werkzeuge führt zur deren Befähigung zur automatischen Segmentierung der Knochen und sonstiger Strukturen von Interesse , was z . B . durch die Verwendung neuronaler Netze realisiert werden kann . Die neuronalen Segmentierungsnetze können entsprechend der vorliegenden Bild- und Problemstellungen angepasst werden, vor allem in einem Trainingsstadium für die KI . Recognizing fracture fragments in order to then be able to move them separately in space, similar to a jigsaw puzzle. The main challenges are that bone parts and fragments in fractures vary greatly in shape and size and are also partially displaced can . Furthermore, in the case of fragments, the cortical bone is naturally broken up and the contrast between spongiosa and the surrounding tissue is reduced. It is important to recognize individual bones (whose segmentation mask is directly adjacent to the segmentation mask of other bone parts) as separate objects, ie to separate adjacent bones and/or bone fragments. In order to obtain a good data basis for the segmentation of the individual structures in the images, these are segmented manually by physicians prior to the automation. Annotation software can be used for this. Training the AI tools will enable them to automatically segment the bones and other structures of interest, e.g. B. can be realized through the use of neural networks. The neural segmentation networks can be adapted according to the existing images and problems, especially in a training stage for the AI.
Eine derart trainierte KI kann im erfindungsgemäßen System anschließend als KI-Assistenz-System Medi ziner bei der Planung der Reposition von Frakturen anhand von Prognosen basierend auf den Aufnahmen der Fraktur unterstützen, was in einigen Aus führungs formen vorgesehen ist . Das System kann basierend auf von Medi zinern manuell segmentierten Knochen oder Frakturkörpern automatisch Vorschläge zur Reponierung unterbreiten . In the system according to the invention, an AI trained in this way can then support physicians as an AI assistance system in planning the reduction of fractures using forecasts based on the images of the fracture, which is provided in some embodiments. The system can automatically make reduction suggestions based on bone or fracture bodies manually segmented by physicians.
Das Einlesen oder Erstellen von geometrischen Daten wie hierin erläutert kann somit den Einsatz des erfindungsgemäßen Systems als ein Operationstrainings- und Planungssystem erlauben, das für ausgewählte Pathologien nutzbar i st, da es in manchen Aus führungs formen aus realen oder tatsächlichen Frakturbildern eines konkreten, möglicherweise noch nicht operativ versorgten Patienten eine , seinen Frakturbildern entsprechende , Simulation erzeugen kann . Diese Simulation kann anschließend genutzt werden, um den realen, noch ausstehenden Eingri f f im Vorfeld per Simulation zu erproben . Somit ist eine Operationsplanung durch die Kombination von haptischem und visuellem Feedback auf Basis der individuellen konkreten Fraktur möglich . Der Patient kann in einer Simulationsumgebung „voroperiert" werden, was bei komplexen Eingri f fen ganz wesentlich zur Sicherheit der Operateurin / des Operateurs und der Patientin / des Patienten beiträgt . Zudem kann der simulierte Fall im Nachgang der Simulation oder nachfolgenden Operation am Patienten weiteren Nutzern als Trainingssimulation zur Verfügung gestellt werden . Schritt S2 repräsentiert ein Zuordnen von Dichtewerten oder Härten zu Volumenabschnitten bzw . zu den segmentierten Volumendaten des Obj ekts . The reading in or creation of geometric data as explained herein can thus allow the use of the system according to the invention as a surgical training and planning system which can be used for selected pathologies, since in some embodiments it is based on real or actual Fracture images of a specific patient who may not yet have been surgically treated can generate a simulation corresponding to his fracture images. This simulation can then be used to test the real, pending intervention in advance by means of a simulation. Thus, an operation planning is possible through the combination of haptic and visual feedback on the basis of the individual concrete fracture. The patient can be "pre-operated" in a simulation environment, which in the case of complex interventions makes a significant contribution to the safety of the surgeon and the patient. In addition, the simulated case can be made available to other users after the simulation or subsequent operation on the patient be made available as a training simulation Step S2 represents an assignment of density values or hardnesses to volume sections or to the segmented volume data of the object.
Unter Dichtewerte oder Härten fallen beispielsweise Werte für die Dichte von Haut , Unterhautgewebe , Muskelgewebe usw . oder die Härte von Knochen, Knochenbestandteilen (Kortikalis , Spongiosa usw . ) usw . Diese können von Fall zu Fall unterschiedlich ( individuell ) aus fallen, beispielsweise hat ein osteoporotischer Knochen zumindest abschnittsweise andere Härtewerte als ein gesunder Knochen, ebenso unterscheiden sich Kortikalis und Spongiosa diesbezüglich voneinander . Im nicht medi zinischen wie auch im medi zinischen Bereich können diese Werte Dichtewerte oder Härten von Werkstof fen, beispielsweise von Implantaten, sein (Keramik, Metall usw . ) sein oder solche Werte umfassen . Density values or hardnesses include, for example, values for the density of skin, subcutaneous tissue, muscle tissue, etc. or the hardness of bones, bone components (cortical, cancellous, etc.) etc. These can vary from case to case (individually). For example, an osteoporotic bone has different hardness values than a healthy bone, at least in sections, and the cortical and spongiosa also differ from one another in this respect. In the non-medical as well as in the medical field, these values can be density values or hardening of materials, for example implants (ceramic, metal, etc.) or include such values.
Für Knochen ergeben sich die Dichtewerte z . B . aus den Weißwerten in den Röntgenbildern, also den CT-Daten . Je „weißer" , desto dichter . Die Lage von Weichgewebe wird z . B . über Daten aus den MRT-Bildern gewonnen . For bones, the density values z . B. from the white values in the X-ray images, i.e. the CT data. je "Whiter" , the denser . The position of soft tissue is obtained, for example, via data from the MRT images .
Im Verfahrensschritt S3 wird das Obj ekt mittels der Recheneinheit 101 anhand der eingelesenen Daten in einem virtuellen, dreidimensionalen ( 3D) Raum, beispielsweise auf einem Monitor oder einer anderen Anzeige 105 (wie oben beschrieben) als virtuelles Obj ekt 110 visualisiert . In method step S3, the object is visualized as a virtual object 110 by means of the computing unit 101 using the data read in in a virtual, three-dimensional (3D) space, for example on a monitor or another display 105 (as described above).
Der optionale Schritt S4 repräsentiert ein Bereitstellen eines realen 3D-Obj ekts 190 . Dieses reale 3D-Obj ekt 190 kann optional auf den zuvor eingelesenen geometrischen Daten basieren, muss es aber nicht . Es ist vorzugsweise vorgesehen und/oder geeignet , das den geometrischen Daten zugrunde liegende reale Obj ekt im virtuellen 3D-Raum, der auf der Anzeige 105 visualisiert ist , zu simulieren . Grobe Vereinfachungen, etwa durch einfache geometrische Körper wie ein Zylinder, ein Rohr usw . können in manchen The optional step S4 represents providing a real 3D object 190 . This real 3D object 190 can optionally be based on the previously read geometric data, but it does not have to be. It is preferably provided and/or suitable to simulate the real object on which the geometric data is based in the virtual 3D space that is visualized on the display 105 . Gross simplifications, such as simple geometric bodies such as a cylinder, a tube, etc. can in some
Aus führungs formen ebenfalls optional als reales Obj ekt verwendet werden . Embodiments can also optionally be used as a real object.
Im Verfahrensschritt S5 wird für einen Nutzer U eine Simulationsvorrichtung 180 mit Haptik 185 bereitgestellt . Alternativ ist diese bereits bereitgestellt . Die Simulationsvorrichtung 180 kann ein Simulationsinstrument 187 für den Nutzer umfassen, dies ist allerdings rein optional . A simulation device 180 with a haptic 185 is provided for a user U in method step S5. Alternatively, this is already provided. The simulation device 180 can include a simulation tool 187 for the user, but this is purely optional.
Die Simulationsvorrichtung 180 kann ein ( en) Roboterarm, oder einen Haptikarm mit einer Haptik, für ein haptisches Kraft feedback, sein oder umfassen . Beispiele solcher Haptikarme werden z . B . als „Virtuose 6D Desktop" von der Fa .The simulation device 180 can be or include a robotic arm or a haptic arm with a haptic for a haptic force feedback. Examples of such haptic arms are z. B. as "Virtuoso 6D Desktop" from the company .
Haption GmbH aus Aachen, Deutschland, vertrieben . Die Haptik 185 ist vorzugsweise für Bewegungen der Simulationsvorrichtung 180 oder des Simulationsinstruments 187 intuitiv zu bedienen, z . B . manuell oder bi-manuell . Sie kann insbesondere ein Gerät für ein haptisches Kraft feedback sein oder umfassen . Haption GmbH of Aachen, Germany. The haptics 185 can preferably be operated intuitively for movements of the simulation device 180 or the simulation instrument 187, e.g. B. manual or bi-manual . In particular, it can be or comprise a device for haptic force feedback.
Die Haptik 185 ist vorzugsweise vorgesehen und/oder geeignet , basierend auf den in Schritt S2 zu Volumenabschnitten des virtuellen Obj ekts 110 zugeordneten Dichtewerten oder Härten Widerstände und/oder Gegenkräfte zu simulieren, die beim Bedienen eines realen Instruments unter realen Bedingungen, vom Nutzer bei der hier nachempfundenen Operation des Patienten P haptisch spürbar wären, beachtet werden müssten und/oder ggf . überwunden werden müssten ( siehe auch die folgenden Schritte S 10 und S i l ) . The haptics 185 are preferably provided and/or suitable, based on the density values or hardnesses assigned to volume sections of the virtual object 110 in step S2, to simulate resistances and/or counteracting forces that arise when operating a real instrument under real conditions, by the user during the would be haptically perceptible if the operation of the patient P, which is simulated here, would have to be observed and/or if necessary. would have to be overcome (see also the following steps S 10 and S i l).
Der optionale Schritt S6 repräsentiert ein Bereitstellen einer Tracking-Kamera, insbesondere einer optischen Echtzeit- Tracking-Kamera 195 . The optional step S6 represents providing a tracking camera, in particular an optical real-time tracking camera 195 .
Tracking-Kameras , beispielsweise der MicronTracker von ClaroNav, Ontario , Kanada, www . claronav . com, sind dem Fachmann bekannt . Tracking cameras, such as the MicronTracker from ClaroNav, Ontario, Canada, www. claronav . com, are known to those skilled in the art.
Im Schritt S7 werden die Bewegungen der Simulationsvorrichtung 180 oder des Simulationsinstruments 187 mittels Sensoren, etwa Positionssensoren, Stellungssensoren, optischer Sensoren und dergleichen und mittels der Recheneinheit 101 verfolgt ( „getrackt" ) . Die Recheneinheit 101 kann sich hierzu der von der Tracking-Kamera 195 gelieferten Daten bedienen ( siehe Fig . 3b ) , auf Daten von Sensoren, welche im Handabschnitt 183 oder in bestimmten Abschnitten des Haptikarms , beispielsweise in den Armsegmenten 181 und/oder in den Gelenken 182 , angeordnet sind ( siehe Fig . 3 , Fig . 3a ) , zurückgrei fen, oder dergleichen . In step S7, the movements of the simulation device 180 or the simulation instrument 187 are tracked by means of sensors, such as position sensors, position sensors, optical sensors and the like, and by means of the computing unit 101. For this purpose, the computing unit 101 can use the data from the tracking camera 195 supplied data operate (see Fig. 3b.), On data from sensors, which in the hand section 183 or in certain sections of the haptic arm, for example in the arm segments 181 and/or in the joints 182, are arranged (see FIG. 3, FIG. 3a), fall back, or the like.
Im Schritt S8 des erfindungsgemäßen Verfahrens wird der Handabschnitt 183 und somit die Simulationsvorrichtung 180 bzw . das optionale Simulationsinstrument 187 durch einen Nutzer im realen Raum geführt . In step S8 of the method according to the invention, the hand section 183 and thus the simulation device 180 or the optional simulation tool 187 guided by a user in real space.
Dieses Führen kann zu Trainings zwecken erfolgen und/oder der Vorbereitung und/oder Planung einer bevorstehenden, mittels eines dem Simulationsinstrument 187 entsprechenden realen Instruments aus zuführenden Operation am Patienten P dienen . This guidance can be used for training purposes and/or for the preparation and/or planning of an upcoming operation to be performed on the patient P using a real instrument corresponding to the simulation instrument 187 .
Im Schritt S9 wird ein virtuelles Operationsinstrument 187 ' im virtuellen, dreidimensionalen ( 3D) Raum, beispielsweise auf einem Monitor oder einer anderen Anzeige ( 105 ) visualisiert . In step S9, a virtual surgical instrument 187' is visualized in virtual, three-dimensional (3D) space, for example on a monitor or another display (105).
Ein virtuelles Operationsinstrument 187 ' ist vorzugsweise vorgesehen und/oder geeignet , das optionale Simulationsinstrument 187 , und insbesondere dessen Bewegungen im virtuellen 3D-Raum, der auf der Anzeige 105 visualisiert ist, zu simulieren und/oder zu visualisieren, unabhängig davon, ob ein solches reales Simulationsinstrument 187 zwecks realitätsnaher Trainingssituation vorgesehen ist oder z . B . zur Vermeidung von Verletzungsrisiken nicht vorgesehen oder durch einen Dummy ersetzt ist . A virtual surgical instrument 187' is preferably provided and/or suitable for simulating and/or visualizing the optional simulation instrument 187, and in particular its movements in the virtual 3D space visualized on the display 105, regardless of whether such a real simulation instrument 187 is provided for the purpose of realistic training situation or z. B. is not intended to avoid the risk of injury or is replaced by a dummy.
Der Schritt S10 repräsentiert ein Ermitteln einer Kollision zwischen dem virtuellen Operationsinstrument 187 ' im virtuellen 3D-Raum einerseits und dem virtuellen Obj ekt 110 und/oder Volumenabschnitten des virtuellen Obj ekts 110 im virtuellen Raum andererseits . Im Verfahrensschritt Sil wird ein Kraft feedback, z . B . für die Dauer der Kollision unter Berücksichtigung der Dichtewerte oder Härten der Volumenabschnitte bestimmt . Anschließend wird das bestimmte Kraft feedback in Schritt S12 , vorzugsweise kontinuierlich oder dauerhaft , auf das Simulationsinstrument 187 oder die Haptik 185 der Simulationsvorrichtung 180 übertragen . Step S10 represents a determination of a collision between the virtual surgical instrument 187' in the virtual 3D space on the one hand and the virtual object 110 and/or volume sections of the virtual object 110 in the virtual space on the other hand. In step Sil, a force feedback, e.g. B. determined for the duration of the collision taking into account the density values or hardnesses of the volume sections. The determined force feedback is then transmitted in step S 12 , preferably continuously or permanently, to the simulation instrument 187 or the haptics 185 of the simulation device 180 .
Die Haptik 185 wird vorzugsweise angesteuert , um den Handabschnitt 183 an eine errechnete Position zu drücken, indem eine entsprechende Rückstellkraft auf das Kraftrückkopplungsgerät , die der Nutzer hält , ausgeübt wird . The haptic 185 is preferably controlled to urge the hand portion 183 to a calculated position by applying an appropriate restoring force to the force feedback device held by the user.
Das vom Nutzer U beim Führen des Simulationsinstruments 187 verspürte Kraft feedback kann sich mit dem virtuellen Eindringen des virtuellen Operationsinstruments 187 ' , welches das Simulationsinstrument 187 im virtuellen Raum nachbildet , in das virtuelle Obj ekt 110 ändern . Die Änderung kann beispielsweise stetig, mehrfach, in Stufen, parametergesteuert , in Abhängigkeit von den zugeordneten Dichtewerten oder Härten und/oder in anderer Art und Weise erfolgen . The force feedback felt by the user U when guiding the simulation instrument 187 can change with the virtual penetration of the virtual surgical instrument 187 ′, which simulates the simulation instrument 187 in virtual space, into the virtual object 110 . The change can, for example, take place continuously, repeatedly, in stages, under parameter control, as a function of the associated density values or hardness levels and/or in some other way.
Die hier ausgeführten Verfahrensschritte S 1 bis S 12 des erfindungsgemäßen Verfahrens können optional in oben genannter Reihenfolge , zeitlich überlappend oder gleichzeitig durchgeführt werden . The method steps S 1 to S 12 of the method according to the invention that are carried out here can optionally be carried out in the above-mentioned order, with a time overlap or simultaneously.
Insbesondere die Schritte S 10 bis S 12 , können in manchen Aus führungs formen mehrfach und/oder in Schlei fe ausgeführt werden, was in der Fig . 1 mittels eines Rekursionspfeils dargestellt ist . Es kann in manchen Aus führungs formen vorgesehen sein, Sequenzen der Bewegung des virtuellen Operationsinstruments 187 ' und/oder des virtuellen Obj ekts 110 , beispielsweise in einem hierfür bereitgestellten und/oder vorgesehenen und/oder geeigneten Datenspeicher 103 ( siehe Fig . 3a und Fig . 3b ) auf zuzeichnen . Dabei können insbesondere Daten betref fend Winkel und Kraftaufwand beim Eintritt des virtuellen Operationsinstruments 187 ' des virtuellen 3D-Raums in das virtuelle Obj ekt 110 , zurückgelegte Strecken, überwundene Widerstände des Kraft feedbacks während einer Bewegung des virtuellen Operationsinstruments 187 ' und dergleichen von Interesse sein und gespeichert werden . In particular, steps S 10 to S 12 can be performed several times and/or in loops in some embodiments, which can be seen in FIG. 1 is represented by a recursion arrow. In some embodiments, it can be provided that sequences of the movement of the virtual surgical instrument 187' and/or the virtual object 110, for example in a data memory 103 provided and/or provided and/or suitable for this purpose (see Fig. 3a and Fig. 3b ) to record . In particular, data relating to the angle and effort required when the virtual surgical instrument 187 ′ of the virtual 3D space enters the virtual object 110 , distances covered, resistances of the force feedback overcome during a movement of the virtual surgical instrument 187 ′ and the like can be of interest and get saved .
Im Verfahrensschritt S13 wird aus einer Viel zahl auf gezeichneter Sequenzen, welche einen virtuellen Operationsverlauf am virtuellen Obj ekt 110 oder Abschnitte des Operationsverlaufs hieran nachstellen, ein Ziel- Operationsverlauf oder Abschnitte hierfür erstellt , oder definiert , und gespeichert . In method step S13, a target course of surgery or sections for this is created from a large number of recorded sequences, which simulate a virtual course of surgery on virtual object 110 or sections of the course of surgery thereon, or defined and stored.
Somit kann in Schritt S14 eine Darstellung der Führung des virtuellen Operationsinstruments 187 ' aus dem Ziel- Operationsverlauf oder des Abschnitts hiervon, insbesondere relativ zu einem Operationsgegenstand, auf einem Monitor oder einer Anzeige 105 dargestellt werden . Dies kann im Vorfeld, parallel/überlappend und/oder im Nachgang zu einer momentan ablaufenden Simulation erfolgen . Die Darstellung kann ein Film oder eine Sequenz von (Einzel- ) Bildern sein oder umfassen, sie kann mittels Augmented Reali ty oder Vergleichbarem realisiert sein . Im Verfahrensschritt S15 werden eine Viel zahl von Ziel- Operationsverläufen oder Abschnitten hiervon, welche aus einer Viel zahl von auf gezeichneten Sequenzen, welche den virtuellen Operationsverlauf oder Abschnitte hiervon zeigen, im Datenspeicher 103 gespeichert . Ein Sprung zu Schritt S 18 ist hier möglich, wie nachstehend ausgeführt . Thus, in step S14, a representation of the guidance of the virtual surgical instrument 187' from the target course of the operation or the section thereof, in particular relative to an operation object, can be displayed on a monitor or a display 105. This can be done in advance, in parallel/overlapping and/or after a currently running simulation. The representation can be or include a film or a sequence of (individual) images; it can be implemented using augmented reality or something comparable. In method step S15, a multiplicity of target operation courses or sections thereof, which are from a multiplicity of recorded sequences which show the virtual operation course or sections thereof, are stored in the data memory 103. A jump to step S 18 is possible here, as explained below.
Im Schritt S16 des erfindungsgemäßen Verfahrens erfolgt ein Auf zeichnen von Sequenzen der Bewegung bezogen auf Raum und Zeit des virtuellen Operationsinstruments 187 ' und/oder des virtuellen Obj ekts 110 im virtuellen Raum ( oder auch der relativen Bewegung dieser zueinander ) , des Simulationsinstruments 187 und/oder einem realen Obj ekt 190 im realen Raum ( oder auch der relativen Bewegung dieser zueinander ) oder j eweils von Abschnitten hierfür . Ergänzend findet ein Vergleichen von einer oder mehrerer Eigenschaften der auf gezeichneten Bewegungssequenzen des Simulationsinstruments 187 und/oder des virtuellen Operationsinstruments 187 ' mit wenigstens einem im bereitgestellten Datenspeicher 103 gespeicherten Ziel- Operationsverlauf oder Abschnitten hiervon statt . Um Wiederholungen zu vermeiden wird auf die obige Definition eines Ziel-Operationsverlaufs verwiesen . In step S16 of the method according to the invention, sequences of the movement in relation to space and time of the virtual surgical instrument 187' and/or the virtual object 110 in virtual space (or also the movement of these relative to one another), the simulation instrument 187 and/or or a real object 190 in real space (or also the relative movement of these to each other) or in each case of sections for this. In addition, one or more properties of the recorded movement sequences of the simulation instrument 187 and/or the virtual surgical instrument 187' are compared with at least one target surgical procedure or sections thereof stored in the data memory 103 provided. To avoid repetition, reference is made to the above definition of a target operation history.
Im Verfahrensschritt S17 wird eine Qualität des Vergleichs anhand vorbestimmter Kriterien bewertet . Dies kann beispielsweise mittels eines Punktescores , einem Vergleich mit dem Abschneiden anderer Nutzer, dem Vergeben von Schulnoten, einem Levelauf stieg oder dergleichen erfolgen . In method step S17, the quality of the comparison is evaluated using predetermined criteria. This can be done, for example, by means of a point score, a comparison with the performance of other users, the awarding of school grades, a level increase or the like.
Optional kann eine Aussage über die Qualität zurOptionally, a statement about the quality
Kenntnisnahme an den Nutzer oder Dritte ausgegeben werden . Eine solche Aussage kann optisch, akustisch und/oder mechanisch oder haptisch erfolgen . Sie kann optional auf einem externen Gerät , beispielsweise einem Smartphone, erfolgen . Optional können die Aussagen über mehrere Vergleiche über die Zeit hinweg gespeichert werden, beispielsweise im Datenspeicher 103 , insbesondere um Verbesserungen in der Qualität der Führung des Simulationsinstruments 187 zu erkennen und/oder zu speichern . acknowledgment to the user or third parties. Such a statement can be made optically, acoustically and/or mechanically or haptically. It can optionally take place on an external device, for example a smartphone. Optionally, the statements can be stored over several comparisons over time, for example in the data memory 103 , in particular in order to recognize and/or store improvements in the quality of the guidance of the simulation instrument 187 .
Aus der im Schritt S 15 gespeicherten Viel zahl von Z iel- Operationsverläufen oder Abschnitten hiervon können im Schritt S18 vorteilhaft Daten extrahiert werden, etwa mittels künstlicher Intelligenz oder nach menschlichen Kriterien . Diese extrahierten Daten können in einem passenden Datenformat und/oder als Maschinendaten bereitgestellt und an eine Speichervorrichtung 203 eines Operationsroboters 200 übermittelt werden, um vom Operationsroboter 200 ausgelesen und/oder zu dessen Steuerung verwendet zu werden . In step S18, data can advantageously be extracted from the large number of target operation courses or sections thereof stored in step S15, for example by means of artificial intelligence or according to human criteria. This extracted data can be provided in a suitable data format and/or as machine data and transmitted to a storage device 203 of a surgical robot 200 in order to be read out by the surgical robot 200 and/or used to control it.
Die Auswahl der Daten für das Extrahieren und Berei tstellen erfüllt wenigstens ein vorbestimmtes Kriterium . Insbesondere sind dies Daten, die einem Ziel-Operationsverlauf entsprechen und deshalb insbesondere eine gute Qualität der Daten für einen bevorstehenden ( realen) Operationsverlauf mittels des Operationsroboters 200 gewährleisten . Dabei kann es irrelevant sein, ob dieser Ziel-Operationsverlauf durch einen erfahrenen Operateur eingegeben wurde , beispielswei se im Rahmen einer Operationsplanung, oder aus Trainingsdaten extrahiert wurde . The selection of the data for extraction and provision fulfills at least one predetermined criterion. In particular, this is data that corresponds to a target course of the operation and therefore in particular ensures a good quality of the data for an upcoming (real) course of the operation using the operation robot 200 . It can be irrelevant whether this target course of the operation was entered by an experienced surgeon, for example as part of an operation planning, or was extracted from training data.
Vorstehende , exemplarische Aus führungs form des erfindungsgemäßen Verfahrens umfasst eine Reihe von Schritten, welche optionaler Natur sind und/oder bereits Weiterbildungen des erfindungsgemäßen Verfahrens, wie diese in Anspruch 1 bestimmt ist, betreffen. The above exemplary embodiment of the method according to the invention comprises a series of steps which are of an optional nature and/or are already Further developments of the method according to the invention, as defined in claim 1, relate.
Fig. 2 zeigt schematisch vereinfacht die Vorrichtungen zum Durchführen des Erfassungsschritts Ssrf (siehe Fig. 1) von geometrischen Daten, hier von Daten eines Patienten P und beispielsweise mittels eines Computertomographen 50, während einer beispielhaften Aus führungs form des erfindungsgemäßen Verfahrens. Dies entspricht dem Erfassen von geometrischen Daten an einem realen Objekt, welches sich in anderen Aus führungs formen auf das Einlesen bereits erhobener Daten beziehen kann. 2 shows schematically simplified the devices for carrying out the acquisition step Ssrf (see FIG. 1) of geometric data, here data of a patient P and for example by means of a computer tomograph 50, during an exemplary embodiment of the method according to the invention. This corresponds to the acquisition of geometric data on a real object, which in other embodiments can refer to the reading in of data that has already been collected.
Weiter sind schematisch vereinfacht die Vorrichtungen zum Durchführen der Schritte S1 bis S3 dargestellt. Die hier exemplarisch mittels des Computertomographen 50 erfassten Daten werden in eine Recheneinheit 101 eingelesen (vergleiche Schritt SI in Fig. 1) , wo sie in Volumensegmente segmentiert und optional augmentiert werden, damit den einzelnen Volumensegmenten Dichtewerte oder Härten zugeordnet werden können (vergleiche Sseg, SAU9 und Schritt S2 in Fig. 1) . Die Daten, ihre Segmentierung sowie die Zuordnung von Dichtewerten oder Härten können im Datenspeicher 103 gespeichert werden. The devices for carrying out steps S1 to S3 are also shown in a schematically simplified manner. The data recorded here, for example, by means of the computer tomograph 50 are read into a computing unit 101 (compare step SI in FIG . SAU 9 and step S2 in Fig. 1). The data, their segmentation and the allocation of density values or hardnesses can be stored in the data memory 103.
Schließlich wird ein virtuelles Objekt 110, das auf den Daten des realen Objekts (in Fig. 2 ist dies exemplarisch der Patient P) basiert, mittels der Recheneinheit 101 anhand der eingelesenen Daten in einem virtuellen, dreidimensionalen (3D-)Raum auf einem Monitor 105 dargestellt bzw. visualisiert . Hierzu notwendige , weitere Bildbearbeitungsschritte , wie z . B . Glätten, Filtern oder dergleichen, sind ebenfalls vom erfindungsgemäßen Verfahren mit umfasst . Finally, a virtual object 110, which is based on the data of the real object (in Fig. 2 this is the patient P as an example), is displayed in a virtual, three-dimensional (3D) space on a monitor 105 by means of the computing unit 101 using the data that has been read in represented or visualized. Additional image processing steps required for this , such as e.g. B. Smoothing, filtering or the like are also included in the method according to the invention.
Fig . 3 zeigt schematisch vereinfacht Vorrichtungen zum Durchführen des erfindungsgemäßen Verfahrens in einer beispielhaften Anordnung . Fig . 3 zeigt ein erfindungsgemäßes Computersystem 100 in einer beispielhaften Aus führungs form mit einem Simulationsinstrument 187 (vergleiche Schritt S5 der Fig . 1 ) . Fig. 3 shows schematically simplified devices for carrying out the method according to the invention in an exemplary arrangement. Fig. 3 shows a computer system 100 according to the invention in an exemplary embodiment with a simulation instrument 187 (compare step S5 of FIG. 1).
Es wird auf die Beschreibung zu Fig . 1 und Fig . 2 Bezug genommen . Reference is made to the description of FIG. 1 and fig. 2 referenced.
Das Simulationsinstrument 187 ist Teil einer Simulationsvorrichtung 180 , und wird vorzugsweise durch ein virtuelles Operationsinstrument 187 ' im virtuellen Raum, der auf der Anzeige 105 visualisiert ist , simuliert . The simulation instrument 187 is part of a simulation device 180 and is preferably simulated by a virtual surgical instrument 187' in the virtual space that is visualized on the display 105.
Im Beispiel der Fig . 3 umfasst die Simulationsvorrichtung 180 weiter einen Haptikarm, welcher wiederum eine Hapti k 185 , beispielsweise ein Gerät für ein haptisches Kraft feedback, sein oder umfassen kann (vergleiche Schritt S 8 in Fig . 1 ) . In the example of FIG. 3, the simulation device 180 further includes a haptic arm, which in turn can be or include a haptic 185, for example a device for haptic force feedback (compare step S 8 in FIG. 1).
Ferner weist im Beispiel der Fig . 3 die Simulationsvorrichtung 180 einen Handabschnitt 183 auf zum manuellen Führen des Simulationsinstruments 187 durch den Nutzer U, dessen Hand schematisch angedeutet ist . Furthermore, in the example of FIG. 3 the simulation device 180 has a hand section 183 for manual guidance of the simulation instrument 187 by the user U, whose hand is indicated schematically.
Innerhalb des Handabschnitts 183 und/oder im Haptikarm können insbesondere gyroskopische , Vorrichtungen, beispiel sweise in der Form von Lagesensoren, vorgesehen sein, um dieGyroscopic devices, for example in the form of position sensors, can be provided within the hand section 183 and/or in the haptic arm in order to
Koordinaten (x, y, z ) einer Lage der Spitze des Simulationsinstruments 187 im Raum möglichst exakt erfassen zu können und aus diesen virtuelle Koordinaten (x' , y' , z' ) für die Spitze des virtuellen Operationsinstruments 187' im virtuellen Raum berechnen zu können. Die Bewegung des realen Objekts 190 im Raum wird verfolgt („getrackt") und im virtuellen Raum durch Nachführen des virtuellen Operationsinstruments 187' simuliert (vergleiche Schritt S7 in der Fig . 1 ) . Coordinates (x, y, z ) of a location of the tip of the To be able to detect the simulation instrument 187 in space as precisely as possible and to be able to use these to calculate virtual coordinates (x', y', z') for the tip of the virtual surgical instrument 187' in virtual space. The movement of the real object 190 in space is followed (“tracked”) and simulated in virtual space by tracking the virtual surgical instrument 187′ (compare step S7 in FIG. 1).
Fig. 3a zeigt schematisch vereinfacht Vorrichtungen zum Durchführen des erfindungsgemäßen Verfahrens in einer weiteren beispielhaften Anordnung. 3a shows schematically simplified devices for carrying out the method according to the invention in a further exemplary arrangement.
Es wird auf die Beschreibung zu Fig. 1 und Fig. 3 Bezug genommen . Reference is made to the description of FIGS. 1 and 3 .
Fig. 3a zeigt das erfindungsgemäße Computersystem 100 der Fig. 3, wieder mit der Simulationsvorrichtung 180 mit dem Simulationsinstrument 187. Fig. 3a shows the computer system 100 according to the invention of Fig. 3, again with the simulation device 180 with the simulation instrument 187.
Im Beispiel der Fig. 3a ist ferner ein reales Objekt 190 zu sehen, welches rein beispielhaft und nicht beschränkend die Form eines Zylinders aufweist (siehe S4 der Fig. 1) . Das reale Objekt 190 kann dem Nutzer als Mittel zum indirekten Bewegen des virtuellen Objekts, etwa einer Hand, eines Fußes usw. dienen. Bewegt der Nutzer das reale Objekt 190, so kann er das eine Hand, einen Fuß usw. darstellende virtuelle Objekt 190 in der Monitoransicht entsprechend bewegen. In the example in FIG. 3a, a real object 190 can also be seen, which has the shape of a cylinder purely by way of example and not as a limitation (see S4 of FIG. 1). The real object 190 can serve as a means for the user to indirectly move the virtual object, such as a hand, a foot, and so on. If the user moves the real object 190, he can correspondingly move the virtual object 190 representing a hand, a foot, etc. in the monitor view.
Das reale Objekt 190 kann optional auf den zuvor eingelesenen geometrischen Daten basieren. Es kann beispielsweise ein Dummy sein, der z. B mittels 3D-Druck nach den Patientendaten erstellt wurde, die mittels des Computertomographen 50 (siehe Fig. 2) erfasst worden sind. The real object 190 can optionally be based on the previously read geometric data. It can for example be a dummy z. B using 3D printing based on patient data was created, which were recorded by means of the computer tomograph 50 (see FIG. 2).
Das reale Objekt 190 ist vorzugsweise vorgesehen und/oder geeignet, das den geometrischen Daten zugrunde liegende reale Objekt im virtuellen Raum, der auf der Anzeige 105 visualisiert ist, zu simulieren, wobei es auf geometrische Ähnlichkeit oder gar Identität zwischen realem Objekt 190 und zugehörigem, virtuellem Objekt 110 im virtuellen Raum nicht an kommt . Um die Bewegungen des realen Objekts 190 mit dem virtuellen Objekt 110 nachzuverfolgen, kann das reale Objekt Sensoren, insbesondere gyroskopische Vorrichtungen, und/oder optisch erfassbare Strukturen, beispielsweise Marker, aufweisen. Das reale Objekt 190 kann wie hierin beschrieben oder auf andere Weise ebenfalls optional getrackt werden. Seine Bewegungen im realen Raum können mittels der Darstellung und Bewegung des virtuellen Objekts 110 nachempfunden werden. The real object 190 is preferably provided and/or suitable for simulating the real object on which the geometric data is based in the virtual space that is visualized on the display 105, with geometric similarity or even identity between the real object 190 and the associated virtual object 110 does not arrive in virtual space. In order to track the movements of the real object 190 with the virtual object 110, the real object can have sensors, in particular gyroscopic devices, and/or optically detectable structures, for example markers. The real world object 190 may also optionally be tracked as described herein or in other ways. Its movements in real space can be simulated using the representation and movement of the virtual object 110 .
Fig. 3b zeigt schematisch vereinfacht Vorrichtungen zum Durchführen des erfindungsgemäßen Verfahrens in einer dritten beispielhaften Anordnung. 3b shows schematically simplified devices for carrying out the method according to the invention in a third exemplary arrangement.
Es wird auf die Beschreibung zu Fig. 3a 3 Bezug genommen. Reference is made to the description of FIG. 3a 3 .
Fig. 3b zeigt die Anordnung der Fig. 3a ergänzt um eineFig. 3b shows the arrangement of Fig. 3a supplemented by a
Tracking-Kamera 195 (vergleiche Schritt S6 in der Fig. 1) . Tracking camera 195 (compare step S6 in FIG. 1).
Die rein optionale Tracking-Kamera verfolgt („trackt") mittels optischer Sensoren und der Recheneinheit 101 die Bewegungen des Simulationsinstruments 187, insbesondere dessen Spitze. Die Recheneinheit 101 bedient sich hierzu der Daten der Tracking-Kamera, um die Koordinaten (x, y, z) einer Lage der Spitze des Simulationsinstruments 187 im Raum möglichst exakt erfassen und aus diesen virtuelle Koordinaten (x ' , y ' , z ' ) für die Spitze des virtuellen Operationsinstruments 187 ' im virtuellen Raum berechnen zu können . Die Bewegung des realen Obj ekts 190 im Raum wird optional ebenfalls verfolgt ( „getrackt" ) und im virtuellen Raum simuliert (vergleiche Schritt S7 in der Fig . 1 ) . The purely optional tracking camera follows ("tracks") the movements of the simulation instrument 187, in particular its tip, by means of optical sensors and the computing unit 101. For this purpose, the computing unit 101 uses the data from the tracking camera to calculate the coordinates (x, y, z) one To be able to detect the position of the tip of the simulation instrument 187 in space as precisely as possible and to be able to use this to calculate virtual coordinates (x′, y′, z′) for the tip of the virtual surgical instrument 187′ in virtual space. The movement of the real object 190 in space is optionally also tracked and simulated in virtual space (compare step S7 in FIG. 1).
Mit den Anordnungen der Fig . 3 bis Fig . 3b können insbesondere Sequenzen der Bewegung des Simulationsinstruments 187 und/oder des virtuellen 3D- Obj ekts 110 im Raum oder Abschnitte hierfür auf gezeichnet werden . Ergänzend kann in manchen Aus führungs formen ein Vergleichen von einer oder mehrerer Eigenschaften der auf gezeichneten Bewegung des Simulationsinstruments 187 mit wenigstens einem im bereitgestellten Datenspeicher 103 gespeicherten Ziel-Operationsverlauf ( oder Abschnitten hiervon) stattfinden (vergleiche Schritt S 16 der Fig . 1 ) . Dabei kann das Tracking insbesondere des Simulationsinstruments 187 und/oder des virtuellen 3D- Obj ekts 110 auf alternativem Wege , etwas durch Auf zeichnen des die Lage der Simulationsvorrichtung 185 oder deren Abschnitte im Raum, den oder die Winkel der Roboterarmsegmente der Simulationsvorrichtung 180 zueinander erfolgen, wie hierin bereits ausgeführt . With the arrangements of FIG. 3 to fig. 3b, in particular, sequences of the movement of the simulation instrument 187 and/or the virtual 3D object 110 in space or sections thereof can be recorded. In addition, in some embodiments, one or more properties of the recorded movement of the simulation instrument 187 can be compared with at least one target operation history (or sections thereof) stored in the provided data memory 103 (compare step S 16 of FIG. 1). The tracking, in particular of the simulation instrument 187 and/or the virtual 3D object 110, can take place in an alternative way, for example by recording the position of the simulation device 185 or its sections in space, the angle(s) of the robot arm segments of the simulation device 180 relative to one another, as already stated herein.
Optional wird das realen Obj ekt 190 ebenfalls nicht mit einer Trackingkamera getrackt , sondern ist ebenfalls mit einem Arm versehen, dessen Lage im Raum (Winkel , Stellung, Position) usw . auf gezeichnet und entsprechend ausgewertet wird . Optionally, the real object 190 is also not tracked with a tracking camera, but is also provided with an arm whose position in space (angle, attitude, position) etc. is recorded and evaluated accordingly.
Die Qualität des Vergleichs kann, wie oben bereits ausgeführt , bewertet und insbesondere über Rückmeldungen an den Nutzer zu Trainings zwecken verwendet werden, indem versucht wird, die Führung des Simulationsinstruments 187 möglichst in Einklang mit einem gespeicherten Ziel- Operationsverlauf zu bringen . As already explained above, the quality of the comparison can be evaluated and, in particular, via feedback be used by the user for training purposes by trying to bring the management of the simulation instrument 187 in line with a stored target operation history.
Alternativ oder ergänzend könnten eine bevorstehende Operation mit den bestmöglichen Schritten im Voraus geplant und die entsprechenden Daten extrahiert , bereitgestellt und an eine Speichervorrichtung 203 eines Operationsroboters 200 übermittelt werden, welche ein passendes Datenformat und/oder Maschinendaten umfassen, um von dem Operationsroboter ausgelesen und/oder zu seiner Steuerung verwendet zu werden ( siehe Fig . 4 ) . Alternatively or additionally, an upcoming operation could be planned in advance with the best possible steps and the corresponding data extracted, made available and transmitted to a storage device 203 of a surgical robot 200, which includes a suitable data format and/or machine data to be read out by the surgical robot and/or to be used for its control (see FIG. 4).
Wie an anderer Stelle bereits ausgeführt , kann der vor allem zu den Fig . 3 , 3a und 3b beschriebene Haptikarm bereits j enem Roboterarm entsprechen, welcher in manchen Aus führungs formen als Roboterarm des Operationsroboters 200 optional die Operation am Patienten durchführen wird . Statt von einem Haptikarm einerseits und einem Roboterarm andererseits zu sprechen, kann in manchen Aus führungs formen daher vereinfacht von einem Force-Feedback-/Werkzeugsteuerungs-Arm gesprochen werden . As already explained elsewhere, the above all for FIGS. The haptic arm described in FIGS. 3, 3a and 3b already correspond to that robot arm which, in some embodiments as a robot arm of the surgical robot 200, will optionally perform the operation on the patient. Instead of speaking of a haptic arm on the one hand and a robot arm on the other hand, in some embodiments it is therefore possible to speak of a force feedback/tool control arm in a simplified manner.
Fig . 4 zeigt schematisch vereinfacht eine beispielhafte Aus führungs form eines erfindungsgemäßen Systems 1 mit einem erfindungsgemäßen Computersystem 100 , einem Operationsroboter 200 , einer Steuereinheit 150 und einer optionalen Nutzerschnittstelle 170 . Fig. 4 shows a schematically simplified exemplary embodiment of a system 1 according to the invention with a computer system 100 according to the invention, a surgical robot 200, a control unit 150 and an optional user interface 170.
Das erfindungsgemäße Computersystem 100 weist wenigstens eine Recheneinheit 101 und wenigstens einen Datenspeicher 103 wie hierin beschrieben auf . Der Datenspeicher 103 ist , wie hierin of fenbart , bespeichert , d . h . in ihm sind geometrische Daten, eine Viel zahl von Obj ekten, insbesondere einer gemeinsamen Obj ektklasse wie hierin beschrieben, wenigstens ein Ziel- Operationsverlauf , Zeitdauern vorangegangener, vergleichbarer Operationen, Bewertungsmodalitäten oder dergleichen gespeichert , welche mittels einer Aus führungs form des erfindungsgemäßen Verfahrens gewonnen wurden . The computer system 100 according to the invention has at least one computing unit 101 and at least one data memory 103 as described herein. Data store 103 is , as herein revealed , stored , i . H . it stores geometric data, a large number of objects, in particular a common object class as described herein, at least one target operation course, durations of previous, comparable operations, evaluation modalities or the like, which were obtained by means of an embodiment of the method according to the invention .
Der Operationsroboter 200 weist einen Roboterarm mit Roboterarmsegmenten 201 und Gelenken 202 auf . Ferner weist der Operationsroboter 200 , vorzugsweise an einem freien Ende des Roboterarms eine Aufnahme 205 für ein reales Operationsinstrument 207 auf . Das reale Operationsinstrument 207 können beispielsweise ein Bohrer oder ein Fräser sein oder einen solchen umfassen . The surgical robot 200 has a robot arm with robot arm segments 201 and joints 202 . Furthermore, the surgical robot 200 has a receptacle 205 for a real surgical instrument 207 , preferably at a free end of the robot arm. The real operating instrument 207 can be a drill or a milling cutter, for example, or can include such a tool.
Weiter ist vom erfindungsgemäßen System 1 eine Steuereinheit 150 umfasst , welche zum Steuern des Operationsroboters 200 , basierend auf im Datenspeicher 103 gespeicherten Daten oder basierend auf im Datenspeicher 203 des Operationsroboters 200 , konfiguriert oder programmiert ist . The system 1 according to the invention also includes a control unit 150 which is configured or programmed to control the surgical robot 200 based on data stored in the data memory 103 or based on data stored in the data memory 203 of the surgical robot 200 .
Im Beispiel der Fig . 4 ist vom System 1 optional weiter eine Nutzerschnittstelle 170 umfasst , welche zum Eingeben von Steuerbefehlen zum Steuern des Operationsroboters 200 durch einen Chirurgen / eine Chirurgin, vorgesehen und/oder geeignet ist . In the example of FIG. 4, the system 1 optionally also includes a user interface 170, which is provided and/or suitable for a surgeon to enter control commands for controlling the surgical robot 200.
Der Operationsroboter 200 kann somit , unterstützt beispielsweise durch den Einsatz von künstlicher Intelligenz (KI ) bzw . Machine Learning bzw . Deep Learning, wie hierin beschrieben, Operationen teilautonom oder autonom, basierend auf den Daten, welche in seine Speichervorrichtung 203 übermittelt wurden, durchführen . Siehe hierzu auch Fig . 5 . The surgical robot 200 can thus, supported for example by the use of artificial intelligence (AI) or machine learning or Deep learning, as described herein, based on semi-autonomous or autonomous operations perform on the data that has been transferred to its storage device 203 . See also Fig. 5 .
Obgleich hierin, und vor allem mit Bezug auf die Figuren, von einem Haptikarm einerseits und einem Roboterarm andererseits die Rede ist , soll dies nicht beschränkend verstanden werden . Es ist , wie vorstehend auch schon ausgeführt , in manchen Ausführungs formen vorgesehen, für alle hierin genannten Anwendungen nur einen Roboterarm zu verwenden . Although there is talk here, and especially with reference to the figures, of a haptic arm on the one hand and a robot arm on the other hand, this should not be understood as limiting. As already explained above, in some embodiments only one robot arm is used for all the applications mentioned here.
Fig . 5 zeigt ein beispielhaftes Schema für den Ablauf eines operativen Eingri f fs unter Verwendung des erfindungsgemäßen Verfahrens bzw . unter Verwendung des erfindungsgemäßen Systems 1 . Fig. 5 shows an exemplary scheme for the course of an operative intervention using the method or method according to the invention. using the system 1 according to the invention.
Es wird auf die Bezugs zeichen der vorausgehenden Figuren Bezug genommen . Reference is made to the reference numbers of the preceding figures.
Als beispielhaftes Ausgangs zenario dient eine operative Scaphoid- Frakturversorgung, wie sie unter Einsatz der vorliegenden Erfindung in Zukunft möglich sein wird . Das S zenario ist in einzelne Schritte 01 bis 015 unterteilt . An operative scaphoid fracture treatment, as will be possible in the future using the present invention, serves as an exemplary starting scenario. The scenario is divided into individual steps 01 to 015.
Dabei repräsentiert 01 das Vorstellen eines Patienten, beispielsweise in der Notaufnahme einer Klinik, welcher über starke Schmerzen in der, beispielsweise rechten, Hand klagt . Die Diagnose des Notaufnahmearztes nach Erstellung von Bilddaten beispielsweise durch Röntgen des Handgelenks in zwei Ebenen, eine Stecher-Aufnahme und/oder eine Computertomographie ( CT ) oder ein anderes Bildgebungsverf ahren zum Ermitteln von Volumendaten ergibt in dem vorliegenden Beispiel eine Kahnbeinfraktur ( Fraktur des Os scaphoideum, auch : Scaphoid) . 02 steht für die Transformation der aus 01 vorliegenden Bilddaten, vorzugsweise DICOM-Daten, mittels der vorliegenden Erfindung in ein virtuelles 3D-Modell, in welchem die Knochenfragmente mit Hilfe der vorliegenden Erfindung automatisch reponiert werden. Eine zuständige Chirurgin überprüft optional die in Sekunden vorgenommene Reposition im 3D-Modell und korrigiert diese gegebenenfalls mittels der vorliegenden Erfindung manuell. In this case, 01 represents the presentation of a patient, for example in the emergency room of a clinic, who is complaining of severe pain in, for example, the right hand. The diagnosis of the emergency room physician after the creation of image data, for example by means of an X-ray of the wrist in two planes, a Stecher image and/or a computed tomography (CT) or another imaging method for determining volume data, results in the present example as a scaphoid fracture (fracture of the os scaphoideum , also : scaphoid) . 02 stands for the transformation of the image data available from 01, preferably DICOM data, using the present invention into a virtual 3D model in which the bone fragments are automatically repositioned using the present invention. A responsible surgeon optionally checks the repositioning carried out in seconds in the 3D model and, if necessary, corrects it manually using the present invention.
Dabei kann das 3D-Modell, z. B. mittels Automated Component Segmentation, ACS, z. B. wie hierin offenbart, alle notwendigen Raumdaten (x-, y-, z-Koordinaten und Vektordaten für die Volumendarstellung) sowie die Dichtedaten (Voxel- Dichte) der Knochen von Interesse, z. B. jedes einzelnen Knochens der Hand und vorzugsweise des (Unter- ) Arms , enthalten. Ebenso kann die Lage der Fraktur und der Frakturelemente in Form von x-, y-, z-Koordinaten und Vektordaten im 3D-Modell visuell zu finden sein. Basierend hierauf werden die reponierten Raumdaten (x-, y-, z- Koordinaten und Vektordaten) errechnet und optional auf einem Monitor/einer Anzeige 105 dargestellt. The 3D model, e.g. B. by means of Automated Component Segmentation, ACS, z. B. as disclosed herein, all necessary spatial data (x, y, z coordinates and vector data for the volume rendering) as well as the density data (voxel density) of the bones of interest, e.g. B. every single bone of the hand and preferably the (lower) arm included. Likewise, the position of the fracture and the fracture elements can be found visually in the form of x, y, z coordinates and vector data in the 3D model. Based on this, the relocated spatial data (x, y, z coordinates and vector data) are calculated and optionally displayed on a monitor/display 105 .
Der Patient wird nach der Diagnosestellung, welche wiederum durch das System oder aber manuell erfolgen kann, für die anschließende Operation von einem OP-Team vorbereitet, sein rechter Arm auf einem Armtisch oder einer Armbank des 0P- Tisches gelagert. Nach Narkose erfolgt die Vorpositionierung des Arms und die Positionierung des Roboters und des Röntgengeräts, beispielsweise eines C-Bogens, mit der Möglichkeit einer digitalen Volumentomographie (DVT) , durch das OP-Team. Dies ist in Fig. 5 mittels 03 dargestellt. Im Folgenden kann der weitere Operations-Prozess vollständig autonom ablaufen . Die zuständige Chirurgin überwacht vorzugsweise dennoch j eden Schritt und kann so j ederzeit korrigierend eingrei fen . Dabei muss j edoch nicht j eder Schritt , der automatisch ablaufen kann, auch vom System übernommen werden . Die Erfindung sieht auch vor, beliebige solcher Schritte trotz ihrer Automatisierbarkeit manuell durchführen zu lassen . Die Erfindung kann sich in solchen Fällen auf die automatisierten Schritte beschränken . Sie können in der Praxis unmittelbar aufeinander folgen, alternativ können manuelle Zwischenschritte vorgesehen sein oder die unmittelbare Folge von automatischen Schritten unterbrechen . After the diagnosis, which in turn can be made by the system or manually, the patient is prepared for the subsequent operation by a surgical team, and his right arm is placed on an arm table or an arm bench of the 0P table. After anesthesia, the surgical team pre-positions the arm and positions the robot and the X-ray device, for example a C-arm, with the option of digital volume tomography (DVT). This is shown in Fig. 5 by 03. In the following, the further operation process can run completely autonomously. However, the responsible surgeon preferably monitors every step and can therefore intervene to correct it at any time. However, not every step that can run automatically has to be taken over by the system. The invention also provides for any such steps to be carried out manually, despite the fact that they can be automated. In such cases, the invention can be limited to the automated steps. In practice, they can follow one another directly, alternatively manual intermediate steps can be provided or the direct sequence of automatic steps can be interrupted.
04 repräsentiert die Verlagerung des Patientenarms mittels eines autonomen Grei farms auf eine entsprechende Unterlage , hier mit der dorsalen Seite nach unten, anhand von Daten, welche in Schritt 02 zuvor gewonnen wurden, vorzugsweise in eine - optimal exakt - vorausberechnete Position . Das System oder seine KI legt nach Auswertung der nun gegebenen Daten vorzugsweise fest , wie Arm und Hand gelagert werden müssen . Das Handgelenk wird beispielsweise über ein Polster , das als Hypermochlion dient , überstreckt , so dass die beiden Frakturelemente des Os scaphoideum durch Annäherung realiter reponiert werden . Die hierzu verwendeten Daten wurden in Schritt 02 mit Hil fe der Bilddaten, vorzugsweise DICOM-Daten, und des berechneten 3D-Modells ermittelt . Zum Reponieren des Schritts 04 können x- , y- , z-Koordinaten von ausgewählten Punkten ( auch sogenannten Markern) der Extremität oder eines anderen Körperteils , hier des Armes und der Hand, dienen, also beispielsweise j ene immer gleichen Merkmale bei j edem Arm und j eder Hand, welche individuell eindeutig sind ( z . B . die Fingerspitzen, der Daumen etc . ) . Es erfolgt vorzugsweise ein ständiger Abgleich mit den in Schritt 02 ermittelten Positionswerten der Marker ( ebenfalls x- , y- , z-Koordinaten) bis zur vorausberechneten, optimalen Position für die Operation . 04 represents the displacement of the patient's arm by means of an autonomous gripping farm on a corresponding base, here with the dorsal side down, based on data that were previously obtained in step 02, preferably in an - optimally exactly - pre-calculated position. After evaluating the data that is now available, the system or its AI preferably determines how the arm and hand must be positioned. For example, the wrist is hyperextended over a pad that serves as a hypermochlion, so that the two fracture elements of the scaphoid are actually reduced by approaching them. The data used for this was determined in step 02 using the image data, preferably DICOM data, and the calculated 3D model. X, y, z coordinates of selected points (also known as markers) of the extremity or another part of the body, here the arm and the hand, can be used to reposition step 04, for example those features that are always the same for each arm and each hand, which are individually unique (e.g., fingertips, thumb, etc.). It is preferably done a constant comparison with the position values of the markers determined in step 02 (also x, y, z coordinates) up to the pre-calculated, optimal position for the operation.
Die Erfassung der hierzu erforderlichen Koordinaten erfolgt in diesem sowie in den folgenden Schritten mittels geeigneter Vorrichtungen, z . B . mittels einer oder mehrerer Tracking- Kameras , die die Position des Armes und der Hand aufnehmen, der Steuereinrichtung 150 beispielsweise als DICOM-Daten zugänglich machen, um damit zur optimalen Position gemäß Schritt 02 zu finden . The coordinates required for this purpose are recorded in this and the following steps using suitable devices, e.g. B. by means of one or more tracking cameras, which record the position of the arm and the hand, make it accessible to the control device 150, for example as DICOM data, in order to find the optimal position according to step 02.
Auf diese Art und Weise findet ebenso eine Überprüfung der Positionen von Roboter, Arm und Hand des Patienten, des C- Bogens und/oder dergleichen statt , was in Fig . 5 durch 05 dargestellt ist . Der Roboter wird vorzugsweise durch den Abgleich der Koordinaten geleitet und kennt seine Position exakt . Die Überprüfung erfolgt durch das System oder die KI , was durch den Arzt überwacht werden kann . In this way, the positions of the robot, arm and hand of the patient, the C-arm and/or the like are also checked, which is shown in FIG. 5 is represented by 05 . The robot is preferably guided by the comparison of the coordinates and knows its position exactly. The verification is done by the system or the AI, which can be monitored by the doctor.
06 repräsentiert die optionale Erstellung eines Röntgenbilds in zwei Ebenen ( oder einer DVT ) sowie die Übertragung der erfassten Bilddaten in die Steuereinheit 150 , welche programmiert ist , den gesamten Vorgang zu steuern und/oder zu regeln . Die Steuereinheit 150 überprüft basierend auf diesen Daten vor dem eigentlichen Bohren die korrekte Position der Hand und der Knochen bzw . deren Marker . 06 represents the optional creation of an X-ray image in two planes (or a DVT) as well as the transmission of the captured image data to the control unit 150, which is programmed to control and/or regulate the entire process. Based on this data, the control unit 150 checks the correct position of the hand and the bones or bones before the actual drilling. their markers.
In 07 ermittelt , und ggf . markiert , ein optionaler - und neben dem autonomen Grei farm zweiter - autonomer Roboterarm 200 die Position für eine Hautinzision . Sie kann anhand der Daten aus Schritt O2 errechnet werden . Die Chirurgin hat die Möglichkeit , die Korrektheit der Ermittlung oder der Markierung zu überprüfen oder auf Plausibi lität zu prüfen, beispielsweise mittels eines Bildschirms oder einer Konsole . Anschließend erfolgt , optional nach der Bestätigung durch die Chirurgin, die Hautinzision selbsttätig mittels des Roboterarms 200 . Determined in 07 and possibly . marks an optional - and in addition to the autonomous gripping arm second - autonomous robotic arm 200 the position for a skin incision. It can be calculated using the data from step O2. The The surgeon has the option of checking the correctness of the determination or the marking or checking for plausibility, for example using a screen or a console. Then, optionally after confirmation by the surgeon, the skin incision is made automatically by means of the robotic arm 200 .
Die Weglinie des Skalpells kann über ein Koordinatensystem ( ebenfalls mittels x- , y- und z-Koordinaten) und entsprechende Vektordaten geplant und mittels Tracking- Kameras 195 verfolgt bzw . über einen Soll- I st-Abgleich korrigiert werden . Die Kraft , mit der die Haut eingeschnitten werden muss , ist abhängig von der Hautbeschaf fenheit und kann in manchen Aus führungs formen individuell korrigier- bzw . anpassbar sein . Sie bewegt sich im Millinewton [mN] -Bereich und wird mittels einer Widerstandskraftmessung im Roboterarm 200 aufgebracht . The path line of the scalpel can be planned using a coordinate system (also using x, y and z coordinates) and corresponding vector data and tracked or recorded using tracking cameras 195 . be corrected via a target-actual comparison. The force with which the skin has to be incised depends on the condition of the skin and can be individually corrected or increased in some versions. be customizable . It moves in the millinewton [mN] range and is applied by means of a resistance force measurement in the robot arm 200 .
Das Instrumentarium wird in 08 am autonomen Roboterarm 200 gewechselt , der Roboterarm 200 bildet nun eine Bohrmaschine mit K Draht nach, als reales Operationsinstrument 207 . Der K- Draht wird in einem, z . B . in Schritt O2 , vorausberechneten Punkt und einem vorausberechneten Eintrittswinkel und mit einer ebenfalls in Schritt O2 vorausberechneten Kraft in das Os scaphoideum gebohrt . The set of instruments is changed in 08 on the autonomous robotic arm 200, the robotic arm 200 now simulates a drill with a K wire as a real operating instrument 207. The K-wire is placed in a z . B. drilled into the scaphoid at step O2 , predicted point and entry angle , and with a force also predicted at step O2 .
Dabei wird mittels im Roboterarm 200 verbauter Lage- bzw . Positionsbestimmungssensorik der Vektor des Roboterarms 200 bestimmt , wobei die Achse des Roboterarms 200 beispielsweise mit dem K-Draht-Vektor übereinstimmt . Der Bohr-Eintrittspunkt wird über die x- , y- , z-Koordinate der K-Draht-Spit ze und des Eintrittspunktes an der Hand definiert . Für die Ermittlung der erforderlichen Daten hierfür kann ebenfalls auf 02 zurückgegri f fen werden . Mithil fe von Tracking-Kameras , die die Position der Hand tracken, wird dieser Vorgang ggf . korrigiert , z . B wenn die Hand bewegt wurde . In this case, using the robot arm 200 installed position or. Position determination sensors determine the vector of the robot arm 200, with the axis of the robot arm 200 matching, for example, with the K-wire vector. The drilling entry point is defined via the x, y, z coordinates of the K-wire tip and the entry point on the hand. To determine the data required for this, you can also refer to 02 be resorted to . With the help of tracking cameras that track the position of the hand, this process may be corrected e.g. B if the hand was moved.
Die Bohrkraft ( in der Einheit [mN] ) ist optional hierbei variabel und wird vorzugsweise im Abgleich mit dem in Schritt O2 erstellten 3D-Modell geregelt , um der Knochendichte (Kortikalis , Spongiosa ) Rechnung zu tragen . The drilling force (in the unit [mN]) is optionally variable and is preferably regulated in comparison with the 3D model created in step O2 in order to take account of the bone density (cortical bone, spongiosa).
Die x- , y- , z-Koordinaten der K-Draht-Spit ze und des Endpunktes werden laufend mit der vorausberechneten Endpunkt- Lage abgeglichen, um eine optimale Eindringtiefe zu erreichen . Hierzu können neben den Tracking-Kameras 195 und der im Roboterarm 200 verbauten Positions- bzw . Lagesensorik auch eine Erfassung mittels Bildgebung, z . B . mittels Durchleuchtung oder mittels des Röntgengeräts dienen . The x, y, z coordinates of the K-wire tip and the end point are continuously compared with the pre-calculated end point position in order to achieve an optimal penetration depth. For this purpose, in addition to the tracking cameras 195 and the position or Position sensors also include detection by means of imaging, e.g. B. by means of fluoroscopy or by means of the X-ray machine.
09 repräsentiert eine radiologische Kontrolle und Bestätigung durch die Chirurgin . Der K-Draht wird anschließend bis in den Radius vorgebohrt und dort fixiert . 09 represents a radiological control and confirmation by the surgeon. The K-wire is then pre-drilled up to the radius and fixed there.
Derselbe Roboterarm 200 wechselt in O10 autonom auf einen kanülierten Bohrer als weiteres Operationsinstrument 207 und bohrt über den K-Draht das Loch für die Schraube aus , exakt bis zur subchondralen Lamelle des Os scaphoideum . Alternativ kommt ein anderer Roboterarm als der mit 200 bezeichnete hierfür zum Einsatz . The same robotic arm 200 changes autonomously in O10 to a cannulated drill as a further surgical instrument 207 and drills the hole for the screw using the K-wire, exactly down to the subchondral lamella of the scaphoid bone. Alternatively, a robot arm other than that designated 200 can be used for this purpose.
Hierbei stimmt vorzugsweise der Vektor des kanülierten Bohrers des Roboterarms 200 mit dem Vektor des K-Drahts überein, um den korrekten Eintrittswinkel des Bohrers sicherzustellen . Die Berechnung des Vektors kann j eweils vorab vom System übernommen worden sein, z . B . in O2 . Die korrekte Positionierung des Roboterarms 200 kann ebenfalls mittels der darin verbauten Lage- bzw . Positionsbestimmungssensorik sowie der Tracking-Kamera ( s ) sichergestellt werden . At this point, the vector of the cannulated drill of the robotic arm 200 preferably matches the vector of the K-wire to ensure the correct entry angle of the drill. The vector can be calculated in advance by the system, e.g. B. in O2 . The Correct positioning of the robot arm 200 can also be done by means of the position or Position determination sensors and the tracking camera (s) are ensured.
Der Eintrittspunkt des kanülierten Bohrers orientiert sich hierbei beispielsweise an der aktuellen Lage des K-Drahts im realen Raum . Hierzu können wiederum die Tracking- Kamera ( s ) 195 verwendet werden . The entry point of the cannulated drill is based on the current position of the K-wire in real space, for example. Again, the tracking camera(s) 195 can be used for this.
Die Bohrkraft ( in der Einheit [mN] ) wird optional mittels der Widerstandskraftmessung im Roboterarm 200 geregelt . Dabei kann ein stetiger Abgleich mit den Daten des in Schritt O2 erstellten 3D-Modells erfolgen, um beispielsweise der vorliegenden Knochendichte (Kortikalis , Spongiosa ) Rechnung zu tragen . The drilling force (in the unit [mN]) is optionally regulated by means of the resistance force measurement in the robot arm 200. A constant comparison with the data of the 3D model created in step O2 can be carried out in order to take account of the existing bone density (cortical bone, spongiosa), for example.
Die Eindringtiefe des kanülierten Bohrers wird vorzugsweise ebenfalls über die x- , y- und z-Koordinaten und der Vektordaten des K-Drahts definiert , wobei der Bohrer nicht bis zur Spitze des K-Drahts vorgeschoben wird, sondern zuvor, vorzugsweise an der subchondralen Lamelle des Os scaphoideum, in seiner Längsbewegung gestoppt wird . An dieser Stelle kann ebenso ein Abgleich mit der vorausberechneten Endpunktlage erfolgen . Diese kann, wie ausgeführt , vorzugsweise so exakt wie möglich, an der subchondralen Lamelle des Os scaphoideum liegen . Hierzu können wiederum die Tracking-Kamera ( s ) 195 verwendet werden, alternativ oder ergänzend die vorzugsweise im Roboterarm 200 verbaute Lage- bzw . Positionsbestimmungssensorik . In manchen Aus führungs formen kann hierzu in diesem Schritt ein Abgleich mit einer, vorzugsweise aktuellen Röntgenaufnahme durchgeführt werden . The penetration depth of the cannulated drill is preferably also defined via the x, y and z coordinates and the vector data of the K-wire, with the drill not being advanced to the tip of the K-wire, but beforehand, preferably at the subchondral lamella of the os scaphoideum, is stopped in its longitudinal movement. At this point, a comparison with the pre-calculated end point position can also take place. As explained, this can preferably lie as precisely as possible on the subchondral lamella of the scaphoid bone. For this purpose, the tracking camera(s) 195 can be used, alternatively or additionally, the position or position determination sensors . In some embodiments, a comparison with a preferably current X-ray image can be carried out for this purpose in this step.
Oll repräsentiert die Aufnahme der kanülierte Schraube durch den Roboterarm 200 , deren Länge z . B . in Schritt 02 ( siehe oben) bereits berechnet wurde oder in einem späteren Schritt , vorzugsweise aber aus den in Schritt O2 gewonnenen Daten gewonnen wurde . Oll represents the pick-up of the cannulated screw by the robotic arm 200, the length of which z. B. was already calculated in step 02 (see above) or was obtained in a later step, but preferably from the data obtained in step O2.
Nach einem erneuten Instrumentenwechsel auf die kanülierte Schraube , oder Heranziehen eines anderen oder weiteren Roboterarms , wird diese mit einem in Schritt O2 vorzugweise bereits vorausberechneten Drehmoment im Schritt 012 in das Os scaphoideum eingeschraubt . After a renewed change of instruments to the cannulated screw, or the use of another or another robot arm, this is screwed into the os scaphoideum in step 012 with a torque that has preferably already been precalculated in step O2.
Dabei findet die Ermittlung des Eintrittswinkels sowie des Eintrittspunkts der Schraube beispielsweise analog zur Ermittlung von Eintrittswinkel und Eintrittspunkt des Bohrers statt . The determination of the entry angle and the entry point of the screw takes place, for example, analogously to the determination of the entry angle and entry point of the drill.
Ein, vorzugsweise variables , Drehmoment (beispielsweise in der Einheit [Nm] ) kann mittels einer Drehmomentmessung im Roboterarm 200 erfolgen . Dabei kann ebenso ein stetiger Abgleich mit den Daten des in Schritt O2 erstellten 3D- Modells erfolgen, um beispielsweise der vorliegenden Knochendichte (Kortikalis , Spongiosa ) Rechnung zu tragen . A preferably variable torque (for example in the unit [Nm]) can take place by means of a torque measurement in the robot arm 200 . A constant comparison with the data of the 3D model created in step O2 can also be carried out in order to take account of the existing bone density (cortical bone, spongiosa), for example.
Die Eindringtiefe bzw . die Endlage des Schraubenendpunkts wird z . B . über dessen x- , y- und z-Koordinaten im Abgleich mit den Daten des Vektors des K-Drahtes , festgelegt . Die Schraubenspitze erreicht bei ihrem Einschrauben vorzugsweise exakt den Bereich der subchondralen Lamelle des Os scaphoideum . An dieser Stelle kann ebenso ein Abgleich mit der vorausberechneten Endpunktlage erfolgen . Hierzu können wiederum die Tracking-Kamera ( s ) 195 verwendet werden, alternativ oder ergänzend die im Roboterarm 200 verbaute Lage- bzw . Positionsbestimmungssensorik . The penetration depth the end position of the screw end point is e.g. B. via its x, y and z coordinates in comparison with the data of the vector of the K-wire. When screwed in, the tip of the screw preferably reaches exactly the area of the subchondral lamella of the os scaphoid . At this point, a comparison with the pre-calculated end point position can also take place. For this purpose, the tracking camera(s) 195 can be used, alternatively or additionally, the position or position sensor installed in the robot arm 200. position determination sensors .
In manchen Aus führungs formen kann auch hier ein Abgleich mit einer, vorzugsweise aktuellen, Röntgenaufnahme durchgeführt werden . In some embodiments, a comparison with a preferably current X-ray image can also be carried out here.
Der Grei farm 200 entfernt im Schritt 013 den K-Draht . The gripping farm 200 removes the K-wire in step 013 .
Hiermit ist der autonome Teil der Operation dieser Aus führungs form beendet , und Menschen grei fen wieder ins Geschehen ein . This ends the autonomous part of the operation of this embodiment, and humans intervene again in what is happening.
014 repräsentiert das Versorgen der Operationswunde durch die Chirurgin und das Einleiten des Aufwachvorgangs durch die Anästhesistin . 014 represents the surgeon treating the surgical wound and the anesthetist initiating the recovery process.
Am Ende (015 ) steht die Entlassung des Patienten . At the end (015) is the discharge of the patient.
Bezugszeichenliste Reference List
1 System 1 system
50 Computertomograph 50 computer tomograph
100 Computersystem 100 computer system
101 Recheneinheit 101 unit of account
103 Datenspeicher 103 data storage
105 Monitor ; Anzeige 105 monitor ; Advertisement
110 virtuelles Obj ekt 110 virtual obj ect
150 Steuereinheit 150 control unit
170 Nutzerschnittstelle 170 user interface
180 Simulationsvorrichtung mit Haptik180 simulation device with haptics
181 Armsegment des Haptikarms 181 arm segment of the haptic arm
182 Gelenk des Haptikarms 182 joint of the haptic arm
183 Handabschnitt 183 hand section
185 Haptik ( generator ) 185 haptic ( generator )
187 Simulationsinstrument 187 simulation tool
187 ' virtuelles ( oder visualisiertes ) 187 ' virtual ( or visualized )
Oper at ions instrument Opera at ions instrument
190 reales Obj ekt 190 real obj ect
195 Tracking-Kamera 195 tracking camera
200 Operationsroboter mit Roboterarm 200 surgical robots with robotic arm
201 Roboterarmsegment 201 robotic arm segment
202 Gelenk 202 joint
203 Speichervorrichtung 203 storage device
205 Aufnahme 205 recording
207 reales Operationsinstrument 207 real surgical instrument
01 bis 015 Schritte einer beispielhaften Operation01 to 015 Steps of an example operation
P Patient S1 bis S18 Verfahrensschritte P patient S1 to S18 process steps
SAug Augmentierungsschritt (e)SAug augmentation step(s)
Ssrf Erfassungsschritt Ssrf capture step
S Seg Segmentierungsschritt (e) U Nutzer S Seg segmentation step(s) U user

Claims

Ansprüche Expectations
1. Computergestütztes Verfahren, mit den Schritten: 1. Computer-aided method, with the steps:
Einlesen von geometrischen Daten eines Objekts in eine Recheneinheit (101) ; Reading geometric data of an object into a computing unit (101);
Zuordnen von Dichtewerten oder Härten zu Volumenabschnitten des Objekts; wobei die geometrischen Daten automatisch segmentierte Volumendaten sind oder umfassen; Visualisieren des Objekts mittels der Recheneinheit (101) anhand der eingelesenen Daten in einem virtuellen, dreidimensionalen (3D) Raum auf einer Anzeige oder einem Monitor (105) unter Erzielen eines virtuellen Objekts (110) ; optional: Bereitstellen eines realen 3D-Objekts, optional basierend auf den geometrischen Daten; Bereitstellen einer Simulationsvorrichtung (180) mit Haptik (185) , optional mit einem Simulationsinstrument (187) , für den Nutzer (U) ; optional: Bereitstellen einer optischen Echtzeit- Tracking-Kamera (195) ; assigning density values or hardnesses to volume sections of the object; wherein the geometric data is or comprises automatically segmented volume data; Visualizing the object using the computing unit (101) based on the data read in in a virtual, three-dimensional (3D) space on a display or a monitor (105) to achieve a virtual object (110); optional: providing a real 3D object, optionally based on the geometric data; Providing a simulation device (180) with haptics (185), optionally with a simulation instrument (187), for the user (U); optional: providing an optical real-time tracking camera (195);
Tracken der Bewegung der Simulationsvorrichtung (180) oder des Simulationsinstruments (187) im realen Raum, optional mittels der Tracking-Kamera (195) ; Tracking the movement of the simulation device (180) or the simulation instrument (187) in real space, optionally using the tracking camera (195);
Führen der Simulationsvorrichtung (180) oder des Simulationsinstruments (187) im Raum durch einen Nutzer; guiding the simulation device (180) or the simulation instrument (187) in space by a user;
Visualisieren eines virtuellen Operationsinstruments (187' ) im virtuellen, dreidimensionalen (3D) Raum auf einer Anzeige oder einem Monitor (105) ; Ermitteln einer Kollision zwischen virtuellem Operationsinstrument (187' ) einerseits und virtuellem Objekt (110) und/oder Volumenabschnitten des virtuellen Objekts (110) im virtuellen Raum andererseits ; Visualizing a virtual surgical instrument (187') in virtual, three-dimensional (3D) space on a display or monitor (105); determining a collision between the virtual surgical instrument (187') on the one hand and the virtual object (110) and/or volume sections of the virtual object (110) in the virtual space on the other hand;
Bestimmen eines Kraft feedbacks für die Dauer der Kollision unter Berücksichtigung der Dichtewerte oder Härten der Volumenabschnitte; determining a force feedback for the duration of the collision, taking into account the density values or hardnesses of the volume sections;
Übertragen des bestimmten Kraft feedbacks auf die Simulationsvorrichtung (180) oder die Haptik (185) derselben . Computergestütztes Verfahren nach Anspruch 1, wobei die geometrischen Daten medizinische Daten sind oder umfassen . Computergestütztes Verfahren nach Anspruch 1 oder 2, wobei das Kraft feedback sich mit virtuellem Eindringen des virtuellen Operationsinstruments (187' ) in das virtuelle Objekt (110) ändert. Computergestütztes Verfahren nach einem der vorangegangenen Ansprüche, wobei Daten bezüglich Sequenzen der Bewegung des Simulationsinstruments (187) und/oder des realen Objekts (190) und/oder des virtuellen Operationsinstruments (187' ) und/oder des virtuellen Objekts (110) im jeweils entsprechenden Raum in einem bereitgestellten Datenspeicher (103) auf gezeichnet und/oder gespeichert werden. Computergestütztes Verfahren nach Anspruch 4, wobei aus einer Vielzahl der auf gezeichneten Daten bezüglich der Sequenzen, welche einen virtuellen Operationsverlauf am virtuellen Objekt (110) , oder Abschnitte des Operationsverlaufs, nachstellen, ein Ziel- Operationsverlauf oder Abschnitte hierfür erstellt und gespeichert werden. Computergestütztes Verfahren nach Anspruch 5, wobei eine Darstellung der Führung eines virtuellen Operationsinstruments (187' ) aus dem Ziel- Operationsverlauf oder des Abschnitts hiervon, insbesondere relativ zu einem virtuellen Objekt (110) , auf einem Monitor oder einer Anzeige (105) dargestellt wird . Computergestütztes Verfahren nach einem der vorangegangenen Ansprüche, wobei die geometrischen Daten reale Daten sind oder umfassen, z. B. Daten zur Körpergeometrie oder Anatomie. Computergestütztes Verfahren nach einem der vorangegangenen Ansprüche, weiter den Schritt aufweisend : Transmission of the specific force feedback on the simulation device (180) or the haptics (185) of the same. Computer-aided method according to claim 1, wherein the geometric data are or include medical data. Computer-aided method according to claim 1 or 2, wherein the force feedback changes with virtual penetration of the virtual surgical instrument (187') into the virtual object (110). Computer-assisted method according to one of the preceding claims, wherein data relating to sequences of movement of the simulation instrument (187) and/or the real object (190) and/or the virtual surgical instrument (187') and/or the virtual object (110) in the respective corresponding Space in a provided data storage (103) are recorded and / or stored. Computer-assisted method according to claim 4, wherein from a large number of recorded data relating to the sequences which am a virtual course of the operation virtual object (110), or sections of the course of the operation, adjust, a target course of the operation or sections for this purpose are created and stored. Computer-assisted method according to claim 5, wherein a representation of the management of a virtual surgical instrument (187 ') from the target operation history or the section thereof, in particular relative to a virtual object (110), on a monitor or a display (105) is displayed. Computer-assisted method according to any one of the preceding claims, wherein the geometric data is or comprises real data, e.g. B. Data on body geometry or anatomy. Computer-aided method according to one of the preceding claims, further comprising the step :
Erfassen der einzulesenden geometrischen Daten an einem realen Objekt (190) oder an einem Patienten (P) . Computergestütztes Verfahren nach einem der vorangegangenen Ansprüche, weiter den Schritt aufweisend : Acquisition of the geometric data to be read in on a real object (190) or on a patient (P). Computer-aided method according to one of the preceding claims, further comprising the step :
Segmentieren der geometrischen Daten unter Erzeugen von segmentierten Volumendaten, insbesondere 75 automatisch, insbesondere unter Zuordnen vonSegmenting the geometric data to generate segmented volume data, in particular 75 automatically, in particular under assignment of
Dichtewerten zu den erzeugten Volumensegmenten . Computergestütztes Verfahren nach einem der vorangegangenen Ansprüche , wobei die geometrischen Daten segmentierte , insbesondere automatisch segmentierte , Volumendaten sind oder umfassen . Computergestütztes Verfahren nach einem der vorangegangenen Ansprüche , wobei die geometrischen Daten medi zinische Volumendaten im DICOM-Format sind oder umfassen . Computergestütztes Verfahren nach einem der vorangegangenen Ansprüche , weiter den Schritt aufweisend : Density values for the generated volume segments. Computer-aided method according to one of the preceding claims, wherein the geometric data is or includes segmented, in particular automatically segmented, volume data. Computer-aided method according to one of the preceding claims, wherein the geometric data are or include medical volume data in DICOM format. Computer-aided method according to one of the preceding claims, further comprising the step:
Augmentieren der eingelesenen geometrischen Daten und Speichern derselben im Datenspeicher ( 103 ) . Computergestütztes Verfahren nach einem der vorangegangenen Ansprüche , wobei die geometrischen Daten augmentierte Daten sind oder umfassen . Computergestütztes Verfahren nach einem der vorangegangenen Ansprüche , weiter den Schritt aufweisend : Augmenting the geometric data that has been read in and storing it in the data memory ( 103 ) . Computer-assisted method according to one of the preceding claims, wherein the geometric data is or includes augmented data. Computer-aided method according to one of the preceding claims, further comprising the step:
Speichern einer Viel zahl von Ziel-Store a variety of destination
Operationsverläufen oder Abschnitten hiervon, gewonnen aus einer Viel zahl von Daten bezüglich auf gezeichneter Sequenzen, welche den virtuellen 76 Operation courses or sections thereof, obtained from a variety of data relating to recorded sequences, which the virtual 76
Operationsverlauf oder Abschnitte zeigen, imShow surgical history or sections, im
Datenspeicher (103) . Computergestütztes Verfahren nach einem der Ansprüche 5 bis 14, weiter umfassend den Schritt Data storage (103) . A computerized method as claimed in any one of claims 5 to 14, further comprising the step
Bereitstellen von Daten, extrahiert aus den Ziel- Operationsverläufen oder Abschnitten hiervon, aus dem Datenspeicher (103) und Übermitteln derselben in eine Speichervorrichtung (203) eines Operationsroboters (200) , wobei die Auswahl der Daten wenigstens ein vorbestimmtes Kriterium erfüllt. Computergestütztes Verfahren nach einem der Ansprüche 5 bis 15, weiter den Schritt aufweisend: Providing data extracted from the target operation courses or sections thereof from the data memory (103) and transmitting them to a storage device (203) of a surgical robot (200), the selection of the data fulfilling at least one predetermined criterion. A computerized method according to any one of claims 5 to 15, further comprising the step of:
Aufzeichnen von Daten bezüglich Sequenzen der Bewegung des Simulationsinstruments (187) und/oder des realen Objekts (190) und/oder des virtuellen Operationsinstruments (187' ) und/oder des virtuellen Objekts (110) , jeweils im entsprechenden Raum, oder von Abschnitten hiervon und Vergleichen von einer oder mehrerer Eigenschaften der auf gezeichneten Daten bezüglich der Sequenz der Bewegung des Simulationsinstruments (187) und/oder des realen Objekts (190) und/oder des virtuellen Operationsinstruments (187' ) und/oder des virtuellen Objekts (110) mit wenigstens einem im bereitgestellten Datenspeicher (103) gespeicherten Ziel-Operationsverlauf oder Abschnitten hierfür. 77 Computergestütztes Verfahren nach Anspruch 16, weiter den Schritt aufweisend: Recording data relating to sequences of movement of the simulation instrument (187) and/or the real object (190) and/or the virtual surgical instrument (187') and/or the virtual object (110), each in the corresponding space, or sections thereof and comparing one or more properties of the recorded data with respect to the sequence of movement of the simulation instrument (187) and/or the real object (190) and/or the virtual surgical instrument (187') and/or the virtual object (110). at least one target operation history or sections thereof stored in the data memory (103) provided. 77 The computerized method of claim 16, further comprising the step of:
Bewerten einer Qualität des Vergleichs anhand vorbestimmter Kriterien und Ausgeben einer Aussage über die Qualität zur Kenntnisnahme des Nutzers. Computersystem (100) , umfassend: einen Datenspeicher (103) , wie in vorstehenden Ansprüchen genannt, mit gespeicherten geometrischen Daten, einer Vielzahl von Objekten, insbesondere einer gemeinsamen Ob ektklasse, gewonnen mittels eines Verfahrens nach einem der Ansprüche 1 bis 17. System (1) , mit einem Computersystem (100) nach Anspruch 18; einem Operationsroboter (200) mit einer Aufnahme (205) für ein reales Operationsinstrument (207) ; einer Steuereinheit (150) zum Steuern des Operationsroboters (200) basierend auf im Datenspeicher (103) gespeicherten Daten. System (1) nach Anspruch 19, weiter umfassend: eine Nutzerschnittstelle (170) zum Eingeben von Steuerbefehlen zum Steuern desAssessing a quality of the comparison based on predetermined criteria and outputting a statement about the quality for the user's attention. Computer system (100), comprising: a data memory (103), as mentioned in the preceding claims, with stored geometric data, a multiplicity of objects, in particular a common object class, obtained by means of a method according to one of claims 1 to 17. System (1 ) , with a computer system (100) according to claim 18; a surgical robot (200) with a receptacle (205) for a real surgical instrument (207); a control unit (150) for controlling the surgical robot (200) based on data stored in the data memory (103). The system (1) of claim 19, further comprising: a user interface (170) for entering control commands for controlling the
Operationsroboters (200) durch den Nutzer. Surgical robot (200) by the user.
PCT/EP2022/078738 2021-10-15 2022-10-14 Surgical system comprising haptics WO2023062231A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE102021126847.8 2021-10-15
DE102021126847 2021-10-15
DE102021132665.6 2021-12-10
DE102021132665.6A DE102021132665A1 (en) 2021-12-10 2021-12-10 OPERATING SYSTEM WITH HAPTICS

Publications (1)

Publication Number Publication Date
WO2023062231A1 true WO2023062231A1 (en) 2023-04-20

Family

ID=84331326

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2022/078738 WO2023062231A1 (en) 2021-10-15 2022-10-14 Surgical system comprising haptics

Country Status (1)

Country Link
WO (1) WO2023062231A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003096255A2 (en) * 2002-05-06 2003-11-20 The Johns Hopkins University Simulation system for medical procedures
US20150325147A1 (en) 2013-01-24 2015-11-12 Surgical Science Sweden Ab Haptic user interface device for surgical simulation system
WO2019195705A1 (en) * 2018-04-07 2019-10-10 University Of Iowa Research Foundation Fracture reduction simulator
WO2019204611A1 (en) * 2018-04-18 2019-10-24 Arizona Board Of Regents On Behalf Of The University Of Arizona Mixed-reality endoscope and surgical tools with haptic feedback for integrated virtual-reality visual and haptic surgical simulation
US20210177519A1 (en) * 2019-05-10 2021-06-17 Fvrvs Limited Virtual reality surgical training systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003096255A2 (en) * 2002-05-06 2003-11-20 The Johns Hopkins University Simulation system for medical procedures
US20150325147A1 (en) 2013-01-24 2015-11-12 Surgical Science Sweden Ab Haptic user interface device for surgical simulation system
WO2019195705A1 (en) * 2018-04-07 2019-10-10 University Of Iowa Research Foundation Fracture reduction simulator
WO2019204611A1 (en) * 2018-04-18 2019-10-24 Arizona Board Of Regents On Behalf Of The University Of Arizona Mixed-reality endoscope and surgical tools with haptic feedback for integrated virtual-reality visual and haptic surgical simulation
US20210177519A1 (en) * 2019-05-10 2021-06-17 Fvrvs Limited Virtual reality surgical training systems

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MAIER JOHANNES ET AL: "Force-feedback assisted and virtual fixtures based K-wire drilling simulation", COMPUTERS IN BIOLOGY AND MEDICINE, NEW YORK, NY, US, vol. 114, 25 September 2019 (2019-09-25), XP085873936, ISSN: 0010-4825, [retrieved on 20190925], DOI: 10.1016/J.COMPBIOMED.2019.103473 *
MCNEELY W. A.PUTERBAUGH K. DTROY J. J: "Proc. of the 26th annual conference on Computer graphics and interactive techniques (ACM SIGGRAPH '99", 1999, article "Six Degree-of-Freedom Haptic Rendering Using Voxel Sampling", pages: 401 - 408
ZILLES, C.SALISBURY, J. K.: "Proc. 1995 of IEEE/RSJ International Conference on Intelligent Robots and Systems", 1995, HUMAN ROBOT INTERACTION AND COOPERATIVE ROBOTS, article "A constraint-based god-object method for haptic display"

Similar Documents

Publication Publication Date Title
EP2449997B1 (en) Medical workstation
EP3012759B1 (en) Method for planning, preparing, accompaniment, monitoring and/or final control of a surgical procedure in the human or animal body, system for carrying out such a procedure and use of the device
DE102015226669B4 (en) Method and system for outputting augmented reality information
EP3449830B1 (en) Control of a medical imaging device
DE102005044033B4 (en) Positioning system for percutaneous interventions
EP2872065A1 (en) Method for generating a graphical 3d computer model of at least one anatomical structure in a selectable pre-, intra-, or postoperative status
DE102010020284A1 (en) Determination of 3D positions and orientations of surgical objects from 2D X-ray images
EP1591075A1 (en) Method and device for planning knee implants
EP2008606B1 (en) Determination of correspondence object pairs for medical navigation
DE102008041709A1 (en) Medical workstation and operating device for manually moving a robotic arm of a medical workstation
EP1930832A1 (en) Automatic landmark determination of anatomic structures
DE102013219470B4 (en) Method for preoperative planning of a surgical intervention and computing system
DE102018116558A1 (en) Medical technology instruments and processes
DE102015208804A1 (en) Apparatus and method for computer-aided simulation of surgical procedures
EP1348394A1 (en) Planning or navigation assistance by generic obtained patient data with two-dimensional adaptation
DE102005029903A1 (en) Method and device for 3D navigation on slice images
DE102015207727A1 (en) Bone repositioning based on automated assignment
EP1498851A1 (en) Determination of a three-dimensional body shape, especially an anatomic structure, from two-dimensional projection images
DE202005014582U1 (en) Positioning system e.g. skin marker, for e.g. invasive surgical treatment, has registration module executing automatic picture to patient registration using data in patient and instrument data sets, and planning module planning trajectory
WO2023062231A1 (en) Surgical system comprising haptics
EP4082474A2 (en) Augmented reality intra-op
DE102021132665A1 (en) OPERATING SYSTEM WITH HAPTICS
DE102013109057A1 (en) A method of planning and preparing an operative procedure in the human or animal body, device for carrying out such an intervention and use of the device
DE10235795B4 (en) Medical device
DE102010042372A1 (en) Method for creating a medical image and medical workstation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22801830

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE