EP3054888A1 - Assistenzeinrichtung zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs - Google Patents

Assistenzeinrichtung zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs

Info

Publication number
EP3054888A1
EP3054888A1 EP14777534.0A EP14777534A EP3054888A1 EP 3054888 A1 EP3054888 A1 EP 3054888A1 EP 14777534 A EP14777534 A EP 14777534A EP 3054888 A1 EP3054888 A1 EP 3054888A1
Authority
EP
European Patent Office
Prior art keywords
endoscope
sensor unit
assistance device
manipulator
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP14777534.0A
Other languages
English (en)
French (fr)
Inventor
Bastian IBACH
Michael Bernhart
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maquet GmbH
Original Assignee
Maquet GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maquet GmbH filed Critical Maquet GmbH
Publication of EP3054888A1 publication Critical patent/EP3054888A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00016Operational features of endoscopes characterised by signal transmission using wireless means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00066Proximal part of endoscope body, e.g. handles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3132Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3417Details of tips or shafts, e.g. grooves, expandable, bendable; Multiple coaxial sliding cannulas, e.g. for dilating
    • A61B17/3421Cannulas
    • A61B17/3423Access ports, e.g. toroid shape introducers for instruments or hands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/044Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for absorption imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • A61B2017/00292Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery mounted on or guided by flexible, e.g. catheter-like, means
    • A61B2017/00296Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery mounted on or guided by flexible, e.g. catheter-like, means mounted on an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00694Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery

Definitions

  • Assistance device for the imaging support of an operator during a surgical procedure
  • the invention relates to an assistant device for imaging assistance of an operator during a surgical procedure, comprising an endoscope with a camera for generating image data, a display device for displaying a moving image on the basis of the image data generated by the camera, a manipulator coupled to the endoscope for moving the endoscope Endoscope, and a controller for driving the manipulator in response to a control command such that the moving image displayed on the display device can be influenced by moving the endoscope.
  • a minimally invasive surgical procedure such as a laparoscopic procedure
  • the operator views the moving image of the surgical site on a viewing device, e.g. a monitor.
  • the moving image shows the surgical instruments with which the surgeon manipulates the anatomical structures and organs in the patient.
  • the moving image displayed on the viewing device in real time is recorded by a camera which is part of an endoscope introduced via a trocar into the patient's body and directed to the surgical site.
  • the endoscope with the camera is held by a wizard who stands by the surgeon during the procedure.
  • the assistant tries to direct the endoscope onto the surgical site in such a way that the target area in which the instrument tips and the anatomical structures to be manipulated are located are seen in a reference position of the moving image.
  • this reference position is located approximately in the middle of the moving image. If the viewed image section is to be changed, then the endoscope must be moved in order to bring the new target area back into the center of the moving image.
  • image movements are relevant.
  • these are two-dimensional changes in the image detail, namely up and down movements of the image section on the display device, right and left movements of the image section on the display device, as well as combined movements, e.g. from bottom left to top right.
  • the image section on the viewing device must be changed by a corresponding zoom operation in the third dimension, i. can be enlarged and reduced.
  • Document EP 1937177 B1 proposes, for the operation of an assistant device, an operating lever which is also referred to as a joystick and which is attached to a laparoscopic instrument. The surgeon can thus also control the endoscope movement with the hand with which he holds the instrument.
  • the object of the invention is to provide an assisting device, which can operate the surgeon particularly easily and safely while performing a surgical procedure.
  • the invention solves this problem in an assistant device of the type mentioned by a sensor unit coupled to the controller, which detects an object moved to perform the surgical procedure and generates a motion signal corresponding to the object movement, on the basis of which the controller generates the control command, and a the controller coupled to the control element, which is operable to set a release state in which the control of the manipulator is released by the controller for moving the endoscope by the operator.
  • the invention provides a particularly advantageous interaction of an automatic, i. without the intervention of the surgeon working sensor unit and an explicitly to be operated by the operator control.
  • the control element alone is used to set a release state in which the sensor unit is effectively switched and automatically detects an object moved to perform the surgical procedure and generates a motion signal corresponding to the object movement, which forms the basis for the control of the manipulator by the controller and thus the tracking of the endoscope forms.
  • the operator must notify the assistant by actuating the operating element that he wishes to track the endoscope at a given time, whereupon the sensor unit and the controller coupled thereto take over the control of the endoscope tracking. This makes it possible for the surgeon in a particularly simple and secure way to use the assistance device for imaging support during the surgical procedure.
  • the sensor unit according to the invention forms a separate unit from the endoscope camera.
  • it is intended to detect an object located outside the human body, which is moved during the surgical procedure, and to approach the detected object movement for actuating the manipulator. move on.
  • a moving object for example, a part of a surgical instrument located outside the patient's body is considered, which is inserted through a trocar tube into the body of the patient.
  • the sensor unit can be used to detect the movement of a surgical instrument forming the moving object according to the invention relative to a reference object.
  • the reference object is, for example, the trocar tube, through which the instrument is guided into the body of the patient.
  • the control command provided to the manipulator which control generates based on the motion signal that the sensor unit generates to detect movement of the surgical instrument relative to the reference object, includes a zoom command that causes zooming movement of the camera by the manipulator.
  • the movement of the surgical instrument along an axis defined by the reference object e.g. the longitudinal axis of the Trokartubus detected and implemented this one-dimensional object movement in a corresponding control command, by means of which the endoscope is moved along the optical axis of the camera lens contained in it to perform a corresponding zoom operation.
  • the motion signal generated by the sensor unit indicates movement of the surgical instrument, preferably relative to an entry point, where the trocar tube enters the body of the patient being treated.
  • This entry point forms a largely fixed reference point, which is referred to in the determination of the object movement.
  • the sensor unit arranged in the trocar tube comprises a light source and an image sensor which are aligned with a window formed in an inner wall of the trocar tube, and a processor, wherein the image sensor sequentially passes images of the past on the Trokartubus and of the Light source illuminated surgical instrument receives and the processor generates the motion signal based on differences in the successive recorded images.
  • the motion signal in this embodiment indicates the position of the surgical instrument relative to the trocar tube along its tube axis.
  • This instrument position relative to the trocar tube can be used as zoom information in order to move the endoscope in the body of the patient along the optical axis of the camera optics contained in the endoscope and thus to reduce or enlarge the image detail displayed on the display unit.
  • the sensor unit is arranged in a widened instrument inlet of the trocar tube.
  • conventional Trokartuben can be retrofitted with the sensor unit according to the invention particularly simple. An exchange of a defective sensor unit is also easy in this arrangement.
  • the control for generating the control command also takes into account the image data generated by the camera in addition to the motion signal generated by the sensor unit.
  • the controller includes an image processing module that, based on the image data generated by the camera, a surgical instrument as a moving object in the recorded moving image and determines a positional deviation of the surgical instrument with respect to a fixed reference position within the video image shown. The controller then determines in the release state based on the position deviation in a control command considered value and controls the manipulator in response to this setpoint such that the detected in the moving image surgical instrument is brought by tracking the endoscope in the specified reference position.
  • two-dimensional changes of the image section on the viewing device e.g. upwards or downwards or to the right and left movements of the image section, carried out by means of instrument identification made within the patient's body.
  • An enlargement or reduction of the image section on the viewing device by a zooming operation can additionally be undertaken on the basis of the movement signal which generates the sensor unit outside the patient's body.
  • the motion signal generated by the sensor unit and the image data generated by the camera are combined with one another in a particularly advantageous manner in order to bring about the desired image movements on the viewing device.
  • the image processing module preferably detects the tip of the medical instrument and determines the positional deviation of this instrument tip.
  • the instrument recognition carried out by the image processing module which provides information about the position of the instrument tip in the moving image, can be combined particularly advantageously with the operation of the control element according to the invention, which functions as a release switch here. So it is possible to use the instrument tip to move the moving image dynamically in any direction.
  • the moving image follows the recognized instrument as long as the release state is present. As soon as the release state is ended, the moving image remains in place.
  • conventional assistance devices which as a rule only allow movements in fixed directions, for example upwards or downwards or to the right or left, any movement directions can be realized.
  • the moving object detected by the sensor unit is formed by a marking body, which can be attached to a surgical instrument or to the surgeon.
  • the moving object referred to for the endoscope tracking can be easily exchanged, such as by removing the marking body from an instrument and attaching it to another instrument.
  • the marking body is preferably a rigid body which has at least three non-collinear marking points detectable by the sensor unit. Since the marking points in the room do not lie on a line, they define a marking plane whose movement in space can be detected by the sensor unit.
  • the sensor unit includes an acceleration sensor, e.g. a three-axis accelerometer that detects the moving object in space.
  • This acceleration sensor can be attached, for example, to a bangle which the surgeon carries in the region of his wrist. Alternatively, it can also be glued to the back of the hand of the surgeon. It is also possible to attach the acceleration sensor to the surgical instrument.
  • the sensor unit is not subject to any restrictions with regard to the measuring principle on which the detection of the moving object is based. So the sensor unit, as indicated above, contain an optical sensor. However, it is also conceivable to use a magnetically operating sensor, for example a differential transformer, LVDT for short, or an electromechanically operating sensor. Such an electromechanical sensor can, for example, be designed such that it receives the movement of the object via a roller and converts the roller movement into an electrical measured variable, which then represents the movement signal. Likewise, it is conceivable to use an RFID sensor system for detecting the moving object, which is formed from a transponder attached to the object and a reading device communicating with this transponder. The sensor unit according to the invention can also operate according to an electromagnetic tracking method.
  • a magnetically operating sensor for example a differential transformer, LVDT for short
  • electromechanically operating sensor can, for example, be designed such that it receives the movement of the object via a roller and converts the roller movement into an electrical measured variable, which then represents the movement signal.
  • the assistant device comprises a means for wireless transmission of the movement signal generated by the sensor unit to the controller.
  • the transmission of the motion signal can be carried out by radio.
  • the control element is formed from a single switching element with exactly two switching states, one switching state of which is assigned to the release state and the other switching state to a blocking state in which the control of the manipulator is blocked by the controller. Since the surgeon in this case only needs to operate a single switching element, the handling is simplified considerably. Thus, the motion signal generated by the sensor unit only becomes effective when the surgeon actuates the switching element and thus releases the movement of the manipulator.
  • the individual switching element can be easily and clearly positioned, for example on the surgical instrument with which the surgeon performs the procedure, or on the hand or the fingers of the surgeon. Also, the Heidelbergelennent be designed as a footswitch.
  • Fig. 1 is a block diagram of an assistant device according to the invention.
  • Figure 2 shows a surgical instrument and a Trokartubus, in which a sensor unit is housed.
  • Fig. 3 shows the structure of housed in the Trokartubus sensor unit after
  • FIG. 4 shows an alternative embodiment of the sensor unit according to the invention, which detects a marking body attached to a surgical instrument
  • FIG. 5 is a schematic representation for illustrating an alternative attachment of the marker body.
  • FIG. 1 shows an assistant device 10 according to the invention in a block diagram.
  • the assistance device 10 comprises an endoscope 12, which is held by a manipulator 14, which is designed, for example, as a robot arm.
  • the manipulator 14 has mechanical degrees of freedom which enable a tracking of the endoscope 12.
  • a camera 16 is placed, which forms a unit with the endoscope 12.
  • the camera 16 is integrated into the endoscope 12 from the outset.
  • the camera 16 captures an image of the treated anatomical structure. Accordingly, it generates image data which is output to a camera controller 18 in the form of a data stream.
  • the camera controller 18 transmits this image data to a viewer 20, e.g. a screen on which a moving image corresponding to the image data of the treated anatomical structure is displayed.
  • the camera controller 18 supplies the image data stream to a controller 22 via an image acquisition module, not shown in FIG. 1, for example a so-called frame grabber.
  • the controller 22 includes an image processing module 24 that uses the image data stream supplied thereto as an input to perform instrument recognition. Instrument recognition is performed using image processing algorithms. In this case, visible surgical instruments in the moving image are recognized by the image processing module 24 and their positions are recorded. In particular, the image processing module 24 determines a positional deviation for each detected instrument which the tip of this instrument has relative to the center of the moving image displayed on the screen 20. The image processing module 24 outputs the determined position deviations of the instrument tips to a path controller 26, which determines therefrom setpoint values for the actuation of the manipulator 14. If necessary, the manipulator 14 is driven in response to these set points, to move the endoscope 12 so that the instrument tip of an instrument selected as a management instrument is placed in the center of the moving image.
  • the assistant device 10 further has an operating element 28 which is coupled to an interface control unit 30 contained in the controller 22.
  • the control element 28 is in the present embodiment, a monostable, push-button with exactly two switching states, namely an actuated state and a non-actuated state.
  • the assistance device 10 also contains a graphical user interface 72, which is coupled on the one hand to the image processing module 24 and the interface control unit 30 and on the other hand to the screen 20.
  • the assistant device 10 comprises a sensor unit 32, which is connected to the path control unit 26 of the controller 22.
  • the sensor unit 32 is used to detect an object, not shown in FIG. 1, which is moved outside the body of the patient in the course of the surgical procedure and to generate a movement signal which represents the movement of this object.
  • the sensor unit 32 outputs the thus generated motion signal to the path control unit 26.
  • the coupling of the sensor unit 32 to the web control unit 26 can be via a wire connection or wirelessly, for example by radio.
  • the path control unit 26 accordingly controls the manipulator 14 not only as a function of the setpoint values generated in the course of the instrument recognition, which are generated from the position deviations output by the image processing module 24, but also as a function of the movement signal generated by the sensor unit 32.
  • the setpoint values and the movement signal are thus combined by the path control unit 26 into a control command with which the path control unit 26 controls the manipulator 14 for tracking the endoscope 12.
  • the surgeon can set a release state and a blocking state of the assistance device 10.
  • the release state is assigned to the actuated switching state of the operating element 28 and the blocking state to the non-actuated switching state of the operating element 28. Only in the release state is a control of the manipulator 14 carried out as a function of the control command generated by the path control unit 26. If, on the other hand, the blocking state is set, no control of the manipulator 14 takes place on the basis of the control command.
  • manipulation of the manipulator 14 takes place in such a way that the setpoint values obtained from the instrument recognition, which enter the control command issued by the path control unit 26 to the manipulator 14, are perpendicular to the movement of the endoscope 12 optical axis of the camera optics not explicitly shown in Figure 1 are used, while the motion signal generated by the sensor unit 32, which also enters the control command, is used for a zoom movement of the endoscope 12 along the optical axis of the camera optics.
  • a control of the manipulator unit 14 results both in dependence on control data, the in the body of the patient, as well as in response to control data obtained outside the patient's body.
  • FIGS. 2 and 3 show a possible embodiment of the sensor unit 32 according to the invention.
  • the sensor unit 32 is integrated into a trocar tube 34 which serves to introduce a surgical instrument 36 through an abdominal wall 38 into an abdominal cavity 40.
  • the surgical instrument 36 is inserted with its tip 42 into a widened instrument inlet 44 of the trocar tube 34 and pushed into the trocar tube 34 so far that the instrument tip 42 exits the trocar tube 34 and is exposed in the abdominal cavity 40.
  • the sensor unit 32 is arranged in the instrument inlet 44 of the trocar tube 34.
  • the sensor unit 32 serves to detect the movement of the surgical instrument 36 relative to the trocar tube 34 along its tube axis and to transmit the motion signal corresponding to this relative movement to the path control unit 26.
  • the path control unit 26 In dependence on the movement signal, the path control unit 26 generates the control command for controlling the manipulator 14, wherein the motion signal generated by the sensor unit 32 causes a zoom movement of the endoscope 12 along the optical axis of the camera optics.
  • the longitudinal axis of the trocar tube 34 and the optical axis of the camera optics correspond to one another. of the.
  • a transmission line 46 is provided in the embodiment according to FIG. 2, which connects the sensor unit 32 to the path control unit 26 of the controller 22.
  • FIG. 3 shows a possible structure of the sensor unit 32 integrated in the trocar tube 34.
  • the sensor unit 32 comprises a semiconductor laser 48 as a light source and an image sensor 50, which are arranged in the instrument inlet 44 of the trocar tube 34 in the region of a window 52 which is formed in an inner wall 74 of the instrument inlet 44.
  • the semiconductor laser 48 is a so-called surface emitter, briefly VCSEL, i. a semiconductor chip in which the light is emitted perpendicular to the chip plane.
  • the semiconductor laser 48 and its associated image sensor 50 are aligned with the window 52 such that the portion of the surgical instrument 36 passing the window 52 and illuminated by the semiconductor laser 48 is imaged onto the image sensor 50.
  • the image sensor 50 thus successively picks up images of the surgical instrument 36 guided past the window 52.
  • the sensor unit 32 further has a microprocessor 54 coupled to the image sensor 50, which evaluates the images taken by the sensor 50 successively.
  • the microprocessor 54 detects differences in the successively recorded images of the guided past the window 52 surgical instrument and generated based on this distinction, the movement signal.
  • 4 shows an alternative embodiment of the sensor unit 32.
  • the sensor unit 32 comprises a 3D camera 56, ie a camera, which is designed to detect the movement of an object in space and to generate a movement signal corresponding to this object movement.
  • a marking body 58 is provided, which is attachable to a handle 60 of the surgical instrument 36.
  • the marking body 58 is made of a rigid plastic, for example. In the present embodiment, it has three marker points 62, 64 and 66 which are non-collinear, i. not lying on a straight line.
  • the 3D camera 56 can thus detect the arrangement of the marking body 58 and thus of the instrument 36 in space and generate therefrom the motion signal.
  • the movement of the marking body 58 is thereby related to an entry point 68 which is formed by the point at which the trocar tube 34 enters the abdominal wall 38.
  • FIG. 1 An alternative embodiment is shown in FIG. 1
  • a bangle 70 is provided, which the surgeon carries on his wrist.
  • the bangle 70 includes a three-axis acceleration sensor 72 which senses the movement of the surgeon's wrist in space and emits a corresponding motion signal. This movement signal is transmitted wirelessly, for example by radio, to the path control unit 26.
  • the acceleration sensor 72 can also be mounted on the back of the hand of the surgeon or on the surgical instrument 36. LIST OF REFERENCE NUMBERS

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Robotics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Endoscopes (AREA)
  • Manipulator (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)

Abstract

Beschrieben ist eine Assistenzeinrichtung (10) zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs, umfassend ein Endoskop (12) mit einer Kamera (16) zum Erzeugen von Bilddaten; ein Sichtgerät (20) zum Darstellen eines Bewegtbildes; einen mit dem Endoskop (12) gekoppelten Manipulator (14) zum Bewegen des Endoskops (12); und eine Steuerung (22) zum Ansteuern des Manipulators (14) in Abhängigkeit eines Steuerbefehls derart, dass das auf dem Sichtgerät (20) dargestellte Bewegtbild durch Bewegen des Endoskops (12) beeinflussbar ist. Die Assistenzeinrichtung (10) umfasst ferner eine Sensoreinheit (32), die ein zur Durchführung des chirurgischen Eingriffs bewegtes Objekt (36, 58) erfasst und ein der Objektbewegung entsprechendes Bewegungssignal generiert, auf Grundlage dessen die Steuerung (22) den Steuerbefehl erzeugt; und ein Bedienelement (28), das zum Einstellen eines Freigabezustands, in dem die Ansteuerung des Manipulators (14) durch die Steuerung (22) zum Bewegen des Endoskops (12) freigegeben ist, durch den Operateur betätigbar ist.

Description

Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs
Die Erfindung betrifft eine Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs, umfassend ein Endoskop mit einer Kamera zum Erzeugen von Bilddaten, ein Sichtgerät zur Darstellen eines Bewegtbildes auf Grundlage der von der Kamera erzeugten Bilddaten, einen mit dem Endoskop gekoppelten Manipulator zum Bewegen des Endoskops, und eine Steuerung zum Ansteuern des Manipulators in Abhängigkeit eines Steuerbefehls derart, dass das auf dem Sichtgerät dargestellte Bewegtbild durch Bewegen des Endoskops beeinflussbar ist.
Während eines minimal invasiven chirurgischen Eingriffs, beispielsweise laparoskopischen Eingriffs betrachtet der Operateur das Bewegtbild des Operationssitus auf einem Sichtgerät, z.B. einem Monitor. In dem Bewegtbild sind die chirurgischen Instrumente zu sehen, mit denen der Operateur die anatomischen Strukturen und Organe im Patienten manipuliert. Das auf dem Sichtgerät in Echtzeit dargestellte Bewegtbild wird von einer Kamera aufgenommen, die Teil eines über einen Trokar in den Körper des Patienten eingeführten und auf den Operationssitus gerichteten Endoskops ist.
Üblicherweise wird das Endoskop mit der Kamera von einem Assistenten gehalten, der dem Operateur während des Eingriffs zur Seite steht. Dabei versucht der Assistent das Endoskop so auf den Operationssitus richten, dass sich der Zielbereich, in dem die Instrumentenspitzen und die zu manipulierenden anatomischen Strukturen zu sehen sind, in einer Referenzposition des Bewegtbildes befindet. Üblicherweise liegt diese Referenzposition etwa in der Mitte des Bewegtbildes. Soll der betrachtete Bildausschnitt verändert werden, so muss das Endoskop bewegt werden, um den neuen Zielbereich wieder in die Mitte des Bewegtbildes zu bringen.
Für den auf das Sichtgerät blickenden Operateur sind verschiedene Bildbewegungen relevant. Zunächst sind dies zweidimensionale Veränderungen des Bildausschnitts, nämlich auf dem Sichtgerät nach oben und unten gerichtete Bewegungen des Bildausschnitts, auf dem Sichtgerät nach rechts und links gerichtete Bewegungen des Bildausschnitts, sowie kombinierte Bewegungen, z.B. von links unten nach rechts oben. Ferner muss der Bildausschnitt auf dem Sichtgerät durch eine entsprechende Zoomoperation auch in der dritten Dimension verändert, d.h. vergrößert und verkleinert werden können.
Aus dem Stand der Technik sind Assistenzeinrichtungen zur bildgebenden Unterstützung der Operateurs bekannt, die ohne einen menschlichen Assistenten auskommen. Dementsprechend müssen diese Assistenzeinrichtungen vom Operateur selbst über entsprechende Steuerbefehle bedient werden können.
Beispielsweise ist aus dem Stand der Technik ein Bedienkonzept bekannt, bei dem der Operateur die Bewegungsrichtung des auf dem Sichtgerät dargestellten Bildes über eine Kopfbewegung vorgeben kann. Mittels eines Aktivierungspedals wird die Endoskopbewegung freigegeben. Hierzu wird beispielhaft auf die Druckschriften EP 2169348 B8, EP 2052675 AI, US 2009/0112056 AI, EP 0761177 Bl und US 5766126 A verwiesen.
Andere Bedienkonzepte sehen eine Sprachsteuerung oder eine Steuerung der Endoskopbewegung mittels eines mit mehreren Schaltern ausgestatteten Fußpedals vor. Hierzu ist auf die Druckschriften US 6932089 Bl, US 2006/0100501 AI und US
2011/0257475 A zu verweisen.
Assistenzeinrichtungen, die eine automatische Verfolgung markierter Instrumente ermöglichen, sind in den Druckschriften US 6820545 AI und DE 19529950 Cl beschrieben.
Die Druckschrift EP 1937177 Bl schlägt zur Bedienung einer Assistenzeinrichtung einen auch als Joystick bezeichneten Bedienungshebel vor, der an einem laparoskopischen Instrument angebracht wird. Der Operateur kann so mit der Hand, mit der er das Instrument hält, auch die Endoskopbewegung steuern.
Ein vollautomatisch arbeitendes System, die eine automatische Verfolgung markierter Instrumente ermöglicht, ist schließlich in der DE 199 61 971 B4 beschrieben.
Trotz der vorstehend dokumentierten Vielzahl an technischen Lösungen besteht weiterhin der Wunsch, eine Assistenzeinrichtung so zu optimieren, dass sie auf der einen Seite eine möglichst weitgehende Automatisierung der Endoskopnachführung ermöglicht, um den Operateur so wenig wie nur möglich mit der Bedienung der Assistenzeinrichtung zu belasten, und die auf der anderen Seite jedes Risiko für den Patienten vermeidet. Zudem sollte die Bedienung einer solchen Assistenzeinrichtung leicht erlernbar sein und einfach durchzuführen sein.
Aufgabe der Erfindung ist es, eine Assistenzeinrichtung anzugeben, die der Operateur während der Durchführung eines chirurgischen Eingriffs besonders einfach und sicher bedienen kann. Die Erfindung löst diese Aufgabe bei einer Assistenzeinrichtung der eingangs genannter Art durch eine mit der Steuerung gekoppelte Sensoreinheit, die ein zur Durchführung des chirurgischen Eingriffs bewegtes Objekt erfasst und ein der Objektbewegung entsprechendes Bewegungssignal generiert, auf Grundlage dessen die Steuerung den Steuerbefehl erzeugt, und ein mit der Steuerung gekoppeltes Bedienelement, das zum Einstellen eines Freigabezustands, in dem die Ansteuerung des Manipulators durch die Steuerung zum Bewegen des Endoskops freigegeben ist, durch den Operateur betätigbar ist.
Die Erfindung sieht ein besonders vorteilhaftes Zusammenwirken einer selbsttätig, d.h. ohne Zutun des Operateurs arbeitenden Sensoreinheit und eines explizit durch den Operateur zu betätigenden Bedienelementes vor. Dabei dient das Bedienelement allein der Einstellung eines Freigabezustands, in dem die Sensoreinheit gleichsam wirksam geschaltet ist und selbsttätig ein zur Durchführung des chirurgischen Eingriffs bewegtes Objekt erfasst und ein der Objektbewegung entsprechendes Bewegungssignal generiert, das die Grundlage für die Ansteuerung des Manipulators durch die Steuerung und damit die Nachführung des Endoskops bildet. Damit muss der Operateur durch Betätigen des Bedienelementes der Assistenzeinrichtung mitteilen, dass er zu einem gegebenen Zeitpunkt die Nachführung des Endoskops wünscht, worauf die Sensoreinheit und die mit dieser gekoppelte Steuerung die Kontrolle der En- doskopnachführung übernehmen. Dadurch ist es dem Operateur auf besonders einfache und sichere Weise möglich, die Assistenzeinrichtung zur bildgebenden Unterstützung während des chirurgischen Eingriffs zu nutzen.
Die erfindungsgemäße Sensoreinheit bildet eine von der Endoskopkamera separate Einheit. Sie ist insbesondere dafür vorgesehen, ein außerhalb des menschlichen Körpers befindliches Objekt, das während des chirurgischen Eingriffs bewegt wird, zu erfassen und die erfasste Objektbewegung zum Ansteuern des Manipulators heran- zuziehen. Als bewegtes Objekt kommt beispielsweise ein außerhalb des Patientenkörpers befindlicher Teil eines chirurgischen Instrumentes in Betracht, der durch einen Trokartubus in den Körper des Patienten eingeführt wird.
Die Sensoreinheit kann dazu genutzt werden, die Bewegung eines das erfindungsgemäß bewegte Objekt bildenden chirurgischen Instrumentes relativ zu einem Referenzobjekt zu erfassen. Dabei ist das Referenzobjekt beispielsweise der Trokartubus, durch den das Instrument in den Körper des Patienten geführt ist.
Vorzugsweise beinhaltet der zur Ansteuerung des Manipulators vorgesehene Steuerbefehl, den die Steuerung auf Grundlage des Bewegungssignals erzeugt, welches die Sensoreinheit mit Erfassen der Bewegung des chirurgischen Instrumentes relativ zu dem Referenzobjekt generiert, einen Zoombefehl, der eine zoomende Bewegung der Kamera durch den Manipulator veranlasst. In dieser Ausführung wird beispielsweise die Bewegung des chirurgischen Instrumentes längs einer durch das Referenzobjekt definierten Achse, z.B. der Längsachse des Trokartubus, erfasst und diese eindimensionale Objektbewegung in einen entsprechenden Steuerbefehl umgesetzt, anhand dessen das Endoskop längs der optischen Achse der in ihm enthaltenden Kameraoptik bewegt wird, um eine entsprechende Zoomoperation durchzuführen.
Erfasst die Sensoreinheit die Bewegung des chirurgischen Instrumentes relativ zu einem das Referenzobjekt bildenden Trokartubus, so gibt das von der Sensoreinheit generierte Bewegungssignal die Bewegung des chirurgischen Instrumentes vorzugsweise relativ zu einem Eintrittspunkt an, in dem der Trokartubus in den Körper des behandelnden Patienten eintritt. Dieser Eintrittspunkt bildet einen weitgehend festen Referenzpunkt, auf den bei der Ermittlung der Objektbewegung Bezug genommen wird. In einer besonders bevorzugten Ausführungsform umfasst die in dem Trokartubus angeordnete Sensoreinheit eine Lichtquelle und einen Bildsensor, die auf ein in einer Innenwand des Trokartubus ausgebildetes Fenster ausgerichtet sind, sowie einen Prozessor, wobei der Bildsensor nacheinander Bilder des an dem Fenster des Trokartubus vorbeigeführten und von der Lichtquelle beleuchteten chirurgischen Instrumentes aufnimmt und der Prozessor anhand von Unterschieden in den nacheinander aufgenommenen Bildern das Bewegungssignal generiert. Das Bewegungssignal gibt in dieser Ausführungsform die Lage des chirurgischen Instrumentes relativ zu dem Trokartubus längs dessen Tubusachse an. Diese Instrumentenlage relativ zu dem Trokartubus kann als Zoominformation genutzt werden, um das im Körper des Patienten befindliche Endoskop längs der optischen Achse der in dem Endoskop enthaltenden Kameraoptik zu bewegen und so den auf dem Sichtgerät dargestellten Bildausschnitt zu verkleinern oder zu vergrößern.
Vorzugsweise ist die Sensoreinheit in einem aufgeweiteten Instrumenteneintritt des Trokartubus angeordnet. Befindet sich in dem Instrumenteneintritt des Trokartubus ein Rückschlagventil, das ein Entweichen eines in den Körper des Patienten eingeblasenem Gases verhindert, so ist die Sensoreinheit vorzugsweise dem Rückschlagventil vorgeordnet. Auf diese Weise lassen sich herkömmliche Trokartuben besonders einfach mit der erfindungsgemäßen Sensoreinheit nachrüsten. Auch ein Austausch einer defekten Sensoreinheit gestaltet sich bei dieser Anordnung einfach.
Vorzugsweise berücksichtigt die Steuerung zur Erzeugung des Steuerbefehls zusätzlich zu dem von der Sensoreinheit generierten Bewegungssignal auch die von der Kamera erzeugten Bilddaten. So enthält in einer besonders bevorzugten Ausführungsform die Steuerung ein Bildverarbeitungsmodul, das auf Grundlage der von der Kamera erzeugten Bilddaten ein chirurgisches Instrument als bewegtes Objekt in dem dargestellten Bewegtbild erfasst und eine Positionsabweichung des chirurgischen Instrumentes gegenüber einer innerhalb des dargestellten Bewegtbildes festgelegten Referenzposition ermittelt. Die Steuerung ermittelt dann in dem Freigabezustand anhand der Positionsabweichung einen in dem Steuerbefehl berücksichtigten Sollwert und steuert den Manipulator in Abhängigkeit dieses Sollwertes derart an, dass das in dem dargestellten Bewegtbild erfasste chirurgische Instrument durch Nachführen des Endoskops in die festgelegte Referenzposition gebracht wird.
Bei dieser besonders bevorzugten Ausführungsform werden zweidimensionale Veränderungen des Bildausschnitts auf dem Sichtgerät, z.B. nach oben und unten oder nach rechts und links gerichtete Bewegungen des Bildausschnitts, im Wege der innerhalb des Körpers des Patienten vorgenommenen Instrumentenerkennung durchgeführt. Eine Vergrößerung oder Verkleinerung des Bildausschnitts auf dem Sichtgerät durch eine Zoomoperation kann ergänzend anhand des Bewegungssignals vorgenommen werden, das die Sensoreinheit außerhalb des Körpers des Patienten generiert. Auf diese Weise werden das von der Sensoreinheit generierte Bewegungssignal und die von der Kamera erzeugten Bilddaten in besonders vorteilhafter Weise miteinander kombiniert, um die gewünschten Bildbewegungen auf dem Sichtgerät zu bewirken.
Zur Instrumentenerkennung erfasst das Bildverarbeitungsmodul vorzugsweise die Spitze des medizinischen Instrumentes und ermittelt die Positionsabweichung dieser Instrumentenspitze. Dabei lässt sich die durch das Bildverarbeitungsmodul durchgeführte Instrumentenerkennung, die eine Information über die Position der Instrumentenspitze in dem Bewegtbild liefert, besonders vorteilhaft mit der Funktionsweise des erfindungsgemäßen Bedienelementes kombinieren, das hier als Freigabeschalter fungiert. So ist es möglich, mit der Instrumentenspitze das Bewegtbild dynamisch in jede beliebige Richtung zu führen. Das Bewegtbild folgt dem erkannten Instru- ment, solange der Freigabezustand vorliegt. Sobald der Freigabezustand beendet wird, bleibt das Bewegtbild an Ort und Stelle stehen. Somit lassen sich im Unterschied zu herkömmlichen Assistenzeinrichtungen, die in der Regel nur Bewegungen in fest vorgegebenen Richtungen, etwa nach oben oder unten bzw. nach rechts oder links ermöglichen, beliebige Bewegungsrichtungen realisieren.
In einer möglichen Ausführungsform ist das von der Sensoreinheit erfasste bewegte Objekt durch einen Markierungskörper gebildet, der an einem chirurgischen Instrument oder an dem Operateur anbringbar ist. Auf diese Weise lässt sich das bewegte Objekt, auf das für die Endoskopnachführung Bezug genommen wird, einfach austauschen, etwa indem der Markierungskörper von einem Instrument abgenommen und an einem anderen Instrument angebracht wird.
Vorzugsweise ist der Markierungskörper ein starrer Köper, der mindestens drei durch die Sensoreinheit erfassbare, nicht-kollineare Markierungspunkte aufweist. Da die Markierungspunkte im Raum nicht auf einer Linie liegen, definieren sie eine Markierungsebene, deren Bewegung im Raum durch die Sensoreinheit erfassbar ist.
In einer alternativen Ausführungsform enthält die Sensoreinheit einen Beschleunigungssensor, z.B. einen Drei-Achsen-Beschleunigungssensor, der das bewegte Objekt im Raum erfasst. Dieser Beschleunigungssensor kann beispielsweise an einem Armreif angebracht sein, den der Operateur im Bereich seines Handgelenk trägt. Alternativ kann er auch auf den Handrücken des Operateurs aufgeklebt werden. Ebenso ist es möglich, den Beschleunigungssensor an dem chirurgischen Instrument anzubringen.
Die Sensoreinheit unterliegt im Hinblick auf das Messprinzip, das der Erfassung des bewegten Objektes zugrunde liegt, keinen Beschränkungen. So kann die Sensorein- heit, wie weiter oben angedeutet, einen optischen Sensor enthalten. Es ist jedoch ebenso denkbar, einen magnetisch arbeitenden Sensor, z.B. einen Differentialtransformator, kurz LVDT, oder einen elektromechanisch arbeitenden Sensor zu verwenden. Ein solcher elektromechanischer Sensor kann beispielsweise so ausgebildet sein, dass er die Bewegung des Objektes über eine Rolle aufnimmt und die Rollenbewegung in eine elektrische Messgröße umwandelt, die dann das Bewegungssignal darstellt. Ebenso ist es denkbar, zur Erfassung des bewegten Objektes eine RFID-Sensorik einzusetzen, die aus einem an dem Objekt angebrachten Transponder und einem mit diesem Transponder kommunizierenden Lesegerät gebildet ist. Auch kann die erfindungsgemäße Sensoreinheit nach einem elektromagnetischen Tracking-Verfahren arbeiten.
Vorzugsweise umfasst die erfindungsgemäße Assistenzeinrichtung ein Mittel zur drahtlosen Übertragung des von der Sensoreinheit generierten Bewegungssignals an die Steuerung. Beispielsweise kann die Übertragung des Bewegungssignals per Funk erfolgen. Es ist jedoch ebenso möglich, eine drahtgebundene Signalübertragung vorzusehen.
In einer besonders bevorzugten Ausführungsform ist das Bedienelement aus einem einzigen Schaltelement mit genau zwei Schaltzuständen gebildet, von denen ein Schaltzustand dem Freigabezustand und der andere Schaltzustand einem Sperrzustand zugeordnet ist, in dem die Ansteuerung des Manipulators durch die Steuerung gesperrt ist. Da der Operateur in diesem Fall nur ein einziges Schaltelement bedienen muss, vereinfacht sich die Handhabung erheblich. So wird das von der Sensoreinheit erzeugte Bewegungssignal erst dann wirksam, wenn der Operateur das Schaltelement betätigt und damit die Bewegung des Manipulators freigibt. Das einzelne Schaltelement lässt sich einfach und eindeutig positionieren, etwa an dem chirurgischen Instrument, mit dem der Operateur den Eingriff durchführt, oder an der Hand bzw. den Fingern des Operateurs. Auch kann das Schaltelennent als Fußschalter ausgeführt sein.
Da dem Operateur nur ein einziges Schaltelement zur Verfügung steht, über das er die Assistenzeinrichtung steuern kann, ist die Bedienung der Assistenzeinrichtung einfach und intuitiv.
Nach einem weiteren Aspekt der Erfindung ist ein Verfahren nach Anspruch 15 vorgesehen.
Die Erfindung wird im Folgenden anhand der Figuren näher erläutert. Darin zeigen:
Fig. 1 ein Blockdiagramm einer erfindungsgemäßen Assistenzeinrichtung;
Fig. 2 ein chirurgisches Instrument und einen Trokartubus, in dem eine Sensoreinheit untergebracht ist;
Fig. 3 den Aufbau der in dem Trokartubus untergebrachten Sensoreinheit nach
Figur 2;
Fig. 4 eine alternative Ausführungsform der erfindungsgemäßen Sensoreinheit, die einen an einem chirurgischen Instrument angebrachten Markierungskörper erfasst; und
Fig. 5 eine schematische Darstellung zur Illustration einer alternativen Anbringung des Markierungskörpers. Figur 1 zeigt eine erfindungsgemäße Assistenzeinrichtung 10 in einenn Blockdiagramm.
Die Assistenzeinrichtung 10 umfasst ein Endoskop 12, das von einem Manipulator 14, der beispielsweise als Roboterarm ausgeführt ist, gehalten wird. Der Manipulator 14 weist mechanische Freiheitsgrade auf, die eine Nachführung des Endoskops 12 ermöglichen.
Auf das Endoskop 12 ist eine Kamera 16 aufgesetzt, die so mit dem Endoskop 12 eine Einheit bildet. Es ist jedoch ebenso möglich, dass die Kamera 16 von vorneherein in das Endoskop 12 integriert ist. Die Kamera 16 nimmt ein Bild der behandelten anatomischen Struktur auf. Dementsprechend erzeugt sie Bilddaten, die in Form eines Datenstroms an eine Kamerasteuerung 18 ausgegeben werden. Die Kamerasteuerung 18 übermittelt diese Bilddaten einem Sichtgerät 20, z.B. einem Bildschirm, auf dem ein den Bilddaten entsprechendes Bewegtbild der behandelten anatomischen Struktur dargestellt wird.
Die Kamerasteuerung 18 leitet den Bilddatenstrom über ein in Figur 1 nicht gezeigtes Bilderfassungsmodul, beispielsweise einen sogenannten Framegrabber, einer Steuerung 22 zu. Die Steuerung 22 enthält ein Bildverarbeitungsmodul 24, das den ihr zugeführten Bilddatenstrom als Eingangssignal nutzt, um eine Instrumentenerkennung durchzuführen. Die Instrumentenerkennung erfolgt unter Anwendung von Bildverarbeitungsalgorithmen. Hierbei werden in dem Bewegtbild sichtbare chirurgische Instrumente von dem Bildverarbeitungsmodul 24 erkannt und deren Positionen er- fasst. Insbesondere ermittelt das Bildverarbeitungsmodul 24 für das jeweils erkannte Instrument eine Positionsabweichung, welche die Spitze dieses Instrumentes gegenüber dem Mittelpunkt des auf dem Bildschirm 20 dargestellten Bewegtbildes aufweist. Das Bildverarbeitungsmodul 24 gibt die ermittelten Positionsabweichungen der Instrumentenspitzen an eine Bahnsteuerung 26 aus, die daraus Sollwerte zur Ansteue- rung des Manipulators 14 ermittelt. Bei Bedarf wird der Manipulator 14 in Abhängigkeit dieser Sollwerte angesteuert, das Endoskop 12 so zu bewegen, dass die Instrumentenspitze eines als Führungsinstrument ausgewählten Instrumentes in die Mitte des Bewegtbildes gebracht wird.
Die Assistenzeinrichtung 10 weist ferner ein Bedienelement 28 auf, das mit einer in der Steuerung 22 enthaltenen Schnittstellensteuereinheit 30 gekoppelt ist. Das Bedienelement 28 ist in dem vorliegenden Ausführungsbeispiel ein monostabiler, durch Drücken betätigbarer Taster mit genau zwei Schaltzuständen, nämlich einem betätigten Zustand und einem nicht-betätigten Zustand.
Die Assistenzeinrichtung 10 enthält zudem eine grafische Benutzerschnittstelle 72, die einerseits mit dem Bildverarbeitungsmodul 24 und der Schnittstellensteuereinheit 30 und andererseits mit dem Bildschirm 20 gekoppelt ist.
Schließlich umfasst die Assistenzeinrichtung 10 eine Sensoreinheit 32, die mit der Bahnsteuereinheit 26 der Steuerung 22 verbunden ist.
Die Sensoreinheit 32 dient dazu, ein in Figur 1 nicht dargestelltes Objekt, das bei der Durchführung des chirurgischen Eingriffs außerhalb des Körpers des Patienten bewegt wird, zu erfassen und ein Bewegungssignal zu generieren, das die Bewegung dieses Objektes repräsentiert. Die Sensoreinheit 32 gibt das so generierte Bewegungssignal an die Bahnsteuereinheit 26 aus. Die Ankopplung der Sensoreinheit 32 an die Bahnsteuereinheit 26 kann über eine Drahtverbindung oder auch drahtlos, z.B. per Funk, erfolgen. Die Bahnsteuereinheit 26 steuert demnach den Manipulator 14 nicht nur in Abhängigkeit der im Rahmen der Instrumentenerkennung erzeugten Sollwerte an, die aus den von dem Bildverarbeitungsmodul 24 ausgegebenen Positionsabweichungen erzeugt werden, sondern auch in Abhängigkeit des von der Sensoreinheit 32 generierten Bewegungssignals. Die Sollwerte und das Bewegungssignal werden so von der Bahnsteuereinheit 26 zu einem Steuerbefehl zusammengesetzt, mit dem die Bahnsteuereinheit 26 den Manipulator 14 zur Nachführung des Endoskops 12 steuert.
Über das Bedienelement 28 kann der Operateur einen Freigabezustand und einen Sperrzustand der Assistenzeinrichtung 10 einstellen. Dabei ist der Freigabezustand dem betätigten Schaltzustand des Bedienelementes 28 und der Sperrzustand dem nicht-betätigten Schaltzustand des Bedienelementes 28 zugeordnet. Nur in dem Freigabezustand erfolgt eine Ansteuerung des Manipulators 14 in Abhängigkeit des von der Bahnsteuereinheit 26 erzeugten Steuerbefehls. Ist dagegen der Sperrzustand eingestellt, so erfolgt keine Ansteuerung des Manipulators 14 an Hand des Steuerbefehls.
In dem in der Figur 1 gezeigten Ausführungsbeispiel erfolgt die Ansteuerung des Manipulators 14 derart, dass die aus der Instrumentenerkennung gewonnenen Sollwerte, die in den von der Bahnsteuereinheit 26 an den Manipulator 14 ausgegebenen Steuerbefehl eingehen, für die Bewegung des Endoskops 12 in einer Ebene senkrecht zur optischen Achse der in Figur 1 nicht explizit gezeigten Kameraoptik herangezogen werden, während das von der Sensoreinheit 32 generierte Bewegungssignal, das ebenfalls in den Steuerbefehl eingeht, für eine Zoombewegung des Endoskops 12 längs der optischen Achse der Kameraoptik genutzt wird. Somit ergibt sich eine Ansteuerung der Manipulatoreinheit 14 sowohl in Abhängigkeit von Steuerdaten, die im Körper des Patienten erzeugt werden, als auch in Abhängigkeit von Steuerdaten, die außerhalb des Körpers des Patienten gewonnen werden.
Die in Figur 1 gezeigte Ausführungsform ist lediglich beispielhaft zu verstehen. So ist es etwa möglich, bei der Realisierung der erfindungsgemäßen Assistenzeinrichtung auf die vorstehend erläuterte Instrumentenerkennung und damit das Bildverarbeitungsmodul 24 zu verzichten und den Steuerbefehl allein aus dem von der Sensoreinheit 32 generierten Bewegungssignal zu erzeugen.
In den Figuren 2 und 3 ist eine mögliche Ausführungsform der erfindungsgemäßen Sensoreinheit 32 gezeigt.
In dieser Ausführungsform ist die Sensoreinheit 32 in einem Trokartubus 34 integriert, der dazu dient, ein chirurgisches Instrument 36 durch eine Bauchdecke 38 in einen Bauchraum 40 einzuführen. Dabei wird das chirurgische Instrument 36 mit seiner Spitze 42 in einen aufgeweiteten Instrumenteneintritt 44 des Trokartubus 34 eingesetzt und soweit in den Trokartubus 34 eingeschoben, dass die Instrumentenspitze 42 aus dem Trokartubus 34 austritt und in dem Bauchraum 40 freiliegt.
Die Sensoreinheit 32 ist in dem Instrumenteneintritt 44 des Trokartubus 34 angeordnet. Die Sensoreinheit 32 dient dazu, die Bewegung des chirurgischen Instrumentes 36 relativ zu dem Trokartubus 34 längs dessen Tubusachse zu erfassen und das dieser Relativbewegung entsprechende Bewegungssignal an die Bahnsteuereinheit 26 zu übertragen. In Abhängigkeit des Bewegungssignals erzeugt die Bahnsteuereinheit 26 den Steuerbefehl zur Ansteuerung des Manipulators 14, wobei das von der Sensoreinheit 32 generierte Bewegungssignal eine Zoombewegung des Endoskops 12 längs der optischen Achse der Kameraoptik veranlasst. Insoweit korrespondieren die Längsachse des Trokartubus 34 und die optische Achse der Kameraoptik miteinan- der. Für die Übertragung des Bewegungssignals ist in der Ausführungsform nach Figur 2 eine Übertragungsleitung 46 vorgesehen, welche die Sensoreinheit 32 mit der Bahnsteuereinheit 26 der Steuerung 22 verbindet.
Figur 3 zeigt einen möglichen Aufbau der in dem Trokartubus 34 integrierten Sensoreinheit 32.
Die Sensoreinheit 32 umfasst einen Halbleiterlaser 48 als Lichtquelle und einen Bildsensor 50, die in dem Instrumenteneintritt 44 des Trokartubus 34 im Bereich eines Fensters 52 angeordnet sind, das in einer Innenwand 74 des Instrumenteneintritts 44 ausgebildet ist.
In der vorliegenden Ausführungsform ist der Halbleiterlaser 48 ein sogenannter Oberflächenemitter, kurz VCSEL, d.h. ein Halbleiterchip, bei dem das Licht senkrecht zur Chipebene abgestrahlt wird.
Der Halbleiterlaser 48 und der ihm zugeordnete Bildsensor 50 sind so auf das Fenster 52 ausgerichtet, dass derjenige Teil des chirurgischen Instrumentes 36, der an dem Fenster 52 vorbeiläuft und von dem Halbleiterlaser 48 beleuchtet wird, auf den Bildsensor 50 abgebildet wird. Der Bildsensor 50 nimmt so sukzessive Bilder des an dem Fenster 52 vorbeigeführten chirurgischen Instrumentes 36 auf.
Die Sensoreinheit 32 weist ferner ein mit dem Bildsensor 50 gekoppelten Mikroprozessor 54 auf, der die von dem Sensor 50 sukzessive aufgenommenen Bilder auswertet. Dabei erfasst der Mikroprozessor 54 Unterschiede in den sukzessiv aufgenommenen Bildern des an dem Fenster 52 vorbeigeführten chirurgischen Instrumentes und generiert anhand dieser Unterscheide das Bewegungssignal. Figur 4 zeigt eine alternative Ausführungsform der Sensoreinheit 32. In dieser Ausführungsform umfasst die Sensoreinheit 32 eine 3D-Kamera 56, d.h. eine Kamera, die ausgebildet ist, die Bewegung eines Objektes im Raum zu erfassen und ein dieser Objektsbewegung entsprechendes Bewegungssignal zu generieren.
In der Ausführungsform nach Figur 4 ist ein Markierungskörper 58 vorgesehen, der an einem Griff 60 des chirurgischen Instrumentes 36 anbringbar ist. Der Markierungskörper 58 ist beispielsweise aus einem starren Kunststoff gefertigt. In der vorliegenden Ausführungsform weist er drei Markierungspunkte 62, 64 und 66 auf, die nicht-kollinear, d.h. nicht auf einer Gerade liegend angeordnet sind. Anhand der drei Markierungspunkte 62, 64 und 66 kann so die 3D-Kamera 56 die Anordnung des Markierungskörpers 58 und damit des Instruments 36 im Raum erfassen und daraus das Bewegungssignal generieren. Die Bewegung des Markierungskörpers 58 wird dabei auf einen Eintrittspunkt 68 bezogen, der durch die Stelle gebildet ist, an der der Trokartubus 34 in die Bauchdecke 38 eintritt.
Eine alternative Ausführungsform ist in Figur 5 dargestellt.
In der Ausführungsform nach Figur 5 ist ein Armreif 70 vorgesehen, den der Operateur an seinem Handgelenk trägt. Der Armreif 70 enthält einen Drei-Achsen- Beschleunigungssensor 72, der die Bewegung des Handgelenks des Operateurs im Raum erfasst und ein entsprechendes Bewegungssignal aussendet. Dieses Bewegungssignal wird drahtlos, z.B. per Funk, an die Bahnsteuereinheit 26 gesendet. Es versteht sich von selbst, dass die vorstehend erläuterten Ausführungsformen lediglich beispielhaft zu verstehen sind. So kann der Beschleunigungssensor 72 beispielsweise auch auf dem Handrücken des Operateurs oder an dem chirurgischen Instrument 36 angebracht werden. Bezugszeichenliste
10 Assistenzeinrichtung
12 Endoskop
14 Manipulator
16 Kamera
18 Kamerasteuerung
20 Bildschirm
22 Steuerung
24 Bildverarbeitungsmodul
26 Bahnsteuereinheit
28 Bedienelement
30 Schnittstellensteuereinheit
32 Sensoreinheit
34 Trokartubus
36 Chirurgisches Instrument
38 Bauchdecke
40 Bauchraum
42 Instrumentenspitze
44 Instrumenteneintritt
46 Übertragungsleitung
48 Halbleiterlaser
50 Bildsensor
52 Fenster
54 Mikroprozessor
56 3D-Kamera
58 Markierungskörper
60 Griff Markierungspunkte Eintrittspunkt
Armreif
Benutzerschnittstelle Innenwand
Beschleunigungssensor

Claims

Patentansprüche
1. Assistenzeinrichtung (10) zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs, umfassend: ein Endoskop (12) mit einer Kamera (16) zum Erzeugen von Bilddaten; ein Sichtgerät (20) zum Darstellen eines Bewegtbildes auf Grundlage der von der Kamera (16) erzeugten Bilddaten; einen mit dem Endoskop (12) gekoppelten Manipulator (14) zum Bewegen des Endoskops (12); und eine Steuerung (22) zum Ansteuern des Manipulators (14) in Abhängigkeit eines Steuerbefehls derart, dass das auf dem Sichtgerät (20) dargestellte Bewegtbild durch Bewegen des Endoskops (12) beeinflussbar ist; gekennzeichnet durch eine mit der Steuerung (22) gekoppelte Sensoreinheit (32), die ein zur Durchführung des chirurgischen Eingriffs bewegtes Objekt (36, 58) erfasst und ein der Objektbewegung entsprechendes Bewegungssignal generiert, auf Grundlage dessen die Steuerung (22) den Steuerbefehl erzeugt; und ein mit der Steuerung (22) gekoppeltes Bedienelement (28), das zum Einstellen eines Freigabezustands, in dem das Ansteuern des Manipulators (14) durch die Steuerung (22) zum Bewegen des Endoskops (12) freigegeben ist, durch den Operateur betätigbar ist.
Assistenzeinrichtung (10) nach Anspruch 1, dadurch gekennzeichnet, dass die Sensoreinheit (32) die Bewegung eines das bewegte Objekt bildenden chirurgischen Instrumentes (36) relativ zu einem Referenzobjekt (34) erfasst.
Assistenzeinrichtung (10) nach Anspruch 2, dadurch gekennzeichnet, dass der zur Ansteuerung des Manipulators (14) vorgesehene Steuerbefehl, den die Steuerung (22) auf Grundlage des Bewegungssignals erzeugt, welches die Sensoreinheit (32) mit Erfassen der Bewegung des chirurgischen Instrumentes (36) relativ zu dem Referenzobjekt (34) generiert, einen Zoombefehl beinhaltet, der eine zoomende Bewegung des Endoskops (12) mit der Kamera (16) durch den Manipulator (14) veranlasst.
Assistenzeinrichtung (10) nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass die Sensoreinheit (32) die Bewegung des chirurgischen Instrumentes (36) relativ zu einem das Referenzobjekt bildenden Trokartubus (34) erfasst, in dem das chirurgische Instrument (36) geführt ist.
Assistenzeinrichtung (10) nach Anspruch 4, dadurch gekennzeichnet, dass die in dem Trokartubus (34) angeordnete Sensoreinheit (32) eine Lichtquelle (48) und einen Bildsensor (50), die auf ein in einer Innenwand (74) des Trokartubus (34) ausgebildetes Fenster (52) ausgerichtet sind, sowie einen Prozessor (54) um- fasst; der Bildsensor (50) nacheinander Bilder des an dem Fenster (52) des Trokartubus (34) vorbeigeführten und von der Lichtquelle (48) beleuchteten chirurgischen Instrumentes (36) aufnimmt; und der Prozessor (54) an Hand von Unterschieden in den nacheinander aufgenommenen Bildern das Bewegungssignal generiert.
6. Assistenzeinrichtung (10) nach Anspruch 5, dadurch gekennzeichnet, die Sensoreinheit (32) in einem aufgeweiteten Instrumenteneintritt (44) des Trokar- tubus (34) angeordnet ist.
7. Assistenzeinrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuerung (22) zur Erzeugung des Steuerbefehls zusätzlich zu dem von der Sensoreinheit (32) generierten Bewegungssignal auch die von der Kamera (16) erzeugten Bilddaten berücksichtigt.
8. Assistenzeinrichtung (10) nach Anspruch 7, dadurch gekennzeichnet, dass die Steuerung (22) ein Bildverarbeitungsmodul (24) enthält, das auf Grundlage der von der Kamera (16) erzeugten Bilddaten ein chirurgisches Instrument (36) als bewegtes Objekt in dem dargestellten Bewegtbild erfasst und eine Positionsabweichung des chirurgischen Instrumentes (36) gegenüber einer innerhalb des dargestellten Bewegtbildes festgelegten Referenzposition ermittelt; und die Steuerung (22) in dem Freigabezustand an Hand der Positionsabweichung einen in dem Steuerbefehl berücksichtigten Sollwert ermittelt und den Manipulator (14) in Abhängigkeit dieses Sollwertes derart ansteuert, dass das in dem dargestellten Bewegtbild erfasste chirurgische Instrument (36) durch Nachführen des Endoskops (12) mit der Kamera in die festgelegte Referenzposition gebracht wird.
9. Assistenzeinrichtung (10) nach einenn der vorhergehenden Ansprüche, gekennzeichnet durch einen das bewegte Objekt (58) bildenden Markierungskörper, der an einem chirurgischen Instrument (36) anbringbar ist.
10. Assistenzeinrichtung (10) nach Anspruch 9, dadurch gekennzeichnet, dass der Markierungskörper (58) ein starrer Körper ist, der mindestens drei durch die Sensoreinheit (32) erfassbare, nicht-kollineare Markierungspunkte (62, 64, 66) aufweist.
11. Assistenzeinrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Sensoreinheit (32) einen Beschleunigungssensor (76) enthält.
12. Assistenzeinrichtung (10) nach Anspruch 11, dadurch gekennzeichnet, dass der Beschleunigungssensor (76) an einem Armreif angebracht ist.
13. Assistenzeinrichtung (10) nach einem der vorhergehenden Ansprüche, gekennzeichnet durch ein Mittel zur drahtlosen Übertragung des von der Sensoreinheit (32) generierten Bewegungssignals an die Steuerung (22).
14. Assistenzeinrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Bedienelement aus einem einzigen Schaltelement (28) mit genau zwei Schaltzuständen gebildet ist, von denen ein Schaltzustand dem Freigabezustand und der andere Schaltzustand einem Sperrzustand zugeordnet ist, in dem die Ansteuerung des Manipulators (14) durch die Steuerung (22) gesperrt ist. Verfahren zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs, umfassend folgende Schritte:
Erzeugen von Bilddaten nnittels einer in einem Endoskop (12) enthaltenen Kamera (16);
Darstellen eines Bewegtbildes auf Grundlage der von der Kamera (16) erzeugten Bilddaten auf einem Sichtgerät (20);
Bewegen des Endoskops (12) mittels eines mit dem Endoskop (12) gekoppelten Manipulators (14); und
Ansteuern des Manipulators (14) in Abhängigkeit eines Steuerbefehls derart, dass das auf dem Sichtgerät (20) dargestellte Bewegtbild durch Bewegen des Endoskops (12) beeinflusst wird; gekennzeichnet durch folgende Schritte:
Erfassen eines zur Durchführung des chirurgischen Eingriffs bewegten Objektes (36, 58) mittels einer Sensoreinheit (32);
Generieren eines der Objektbewegung entsprechenden Bewegungssignals;
Erzeugen des Steuerbefehls auf Grundlage des Bewegungssignals; und
Vorsehen eines Bedienelementes (28), das zum Einstellen eines Freigabezustands, in dem die Ansteuerung des Manipulators (14) zum Bewegen des Endoskops (12) freigegeben ist, durch den Operateur betätigbar ist.
EP14777534.0A 2013-09-05 2014-09-02 Assistenzeinrichtung zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs Withdrawn EP3054888A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102013109677.8A DE102013109677A1 (de) 2013-09-05 2013-09-05 Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs
PCT/EP2014/068585 WO2015032738A1 (de) 2013-09-05 2014-09-02 Assistenzeinrichtung zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs

Publications (1)

Publication Number Publication Date
EP3054888A1 true EP3054888A1 (de) 2016-08-17

Family

ID=51655693

Family Applications (1)

Application Number Title Priority Date Filing Date
EP14777534.0A Withdrawn EP3054888A1 (de) 2013-09-05 2014-09-02 Assistenzeinrichtung zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs

Country Status (8)

Country Link
US (1) US20160175057A1 (de)
EP (1) EP3054888A1 (de)
JP (1) JP2016538089A (de)
KR (1) KR20160054526A (de)
CN (1) CN105682601A (de)
DE (1) DE102013109677A1 (de)
RU (1) RU2016112386A (de)
WO (1) WO2015032738A1 (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6076469B2 (ja) * 2012-05-09 2017-02-08 イーオン サージカル リミテッド 腹腔鏡ポート
WO2015189839A1 (en) * 2014-06-08 2015-12-17 M.S.T. Medical Surgery Technologies Ltd. Device and method for assisting laparoscopic surgery utilizing a touch screen
DE102014016843A1 (de) * 2014-11-13 2016-05-19 Kuka Roboter Gmbh System mit einem medizinischen Instrument und ein Aufnahmemittel
US11020144B2 (en) * 2015-07-21 2021-06-01 3Dintegrated Aps Minimally invasive surgery system
DE102016107853A1 (de) * 2016-04-28 2017-11-02 Aktormed Gmbh Operations-Assistenz-System und Verfahren zur Erzeugung von Steuersignalen zur Ansteuerung einer motorisch gesteuerten bewegbaren Roboterkinematik eines derartigen Operations-Assistenz-Systems
EP3629973A4 (de) * 2017-05-26 2021-01-27 Covidien LP Steuergerät für bildgebungsvorrichtung
CN117503384A (zh) * 2017-06-28 2024-02-06 直观外科手术操作公司 用于将内窥镜图像数据集映射到三维体积上的系统
US20190383158A1 (en) * 2018-06-14 2019-12-19 General Electric Company Probe Motion Compensation
US10769443B2 (en) * 2018-06-14 2020-09-08 Sony Corporation Dominant tool detection system for surgical videos
US11457154B2 (en) * 2019-06-20 2022-09-27 Cilag Gmbh International Speckle removal in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
DE102020104574A1 (de) * 2020-02-21 2021-08-26 Olympus Winter & Ibe Gmbh Medizinisches System, Medien- und/oder Energiequelle, und Trokar
DE102020204985A1 (de) 2020-04-21 2021-10-21 Siemens Healthcare Gmbh Steuerung eines robotisch bewegten medizinischen Objekts
USD1022197S1 (en) 2020-11-19 2024-04-09 Auris Health, Inc. Endoscope

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4281931A (en) * 1977-12-21 1981-08-04 Machida Endoscope Co., Ltd. Measuring apparatus comprising light optics utilizing cylindrical focusing glass fiber
JP3236070B2 (ja) * 1992-06-04 2001-12-04 オリンパス光学工業株式会社 スコープ保持装置およびスコープ装置
US5836869A (en) * 1994-12-13 1998-11-17 Olympus Optical Co., Ltd. Image tracking endoscope system
DE19529950C1 (de) 1995-08-14 1996-11-14 Deutsche Forsch Luft Raumfahrt Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie
GB9518402D0 (en) 1995-09-08 1995-11-08 Armstrong Projects Ltd Improvements in or relating to a robotic apparatus
FR2796263B1 (fr) 1999-07-15 2001-09-21 Univ Joseph Fourier Systeme telecommandable de positionnement sur un patient d'un dispositif d'observation/intervention
DE19961971B4 (de) 1999-12-22 2009-10-22 Forschungszentrum Karlsruhe Gmbh Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments
US6715413B2 (en) 2000-05-09 2004-04-06 Matsushita Electric Industrial Co., Ltd. Apparatus and method of screen printing
FR2839440B1 (fr) 2002-05-13 2005-03-25 Perception Raisonnement Action Systeme de positionnement sur un patient d'un dispositif d'observation et/ou d'intervention
JP4533638B2 (ja) * 2004-01-30 2010-09-01 オリンパス株式会社 バーチャル画像表示システム
US20050033117A1 (en) * 2003-06-02 2005-02-10 Olympus Corporation Object observation system and method of controlling object observation system
EP1691666B1 (de) * 2003-12-12 2012-05-30 University of Washington Katheterskop-3d-führung und schnittstellensystem
CA2621738A1 (en) * 2005-04-18 2006-10-26 M.S.T. Medical Surgery Technologies Ltd Camera holder device and method thereof
US7643862B2 (en) * 2005-09-15 2010-01-05 Biomet Manufacturing Corporation Virtual mouse for use in surgical navigation
EP1937177B1 (de) 2005-09-20 2010-09-22 Medsys S.A. Vorrichtung und verfahren zur kontrolle einer entfernten vorrichtung
US7841980B2 (en) * 2006-05-11 2010-11-30 Olympus Medical Systems Corp. Treatment system, trocar, treatment method and calibration method
GB2454017A (en) 2007-10-26 2009-04-29 Prosurgics Ltd A control assembly
JP5213201B2 (ja) * 2008-02-27 2013-06-19 国立大学法人浜松医科大学 体内挿入器具の種類を識別可能な手術支援システム
JP5301228B2 (ja) 2008-09-25 2013-09-25 株式会社トプコン ライン状レーザー光束照射装置
EP2558011A4 (de) * 2010-04-14 2017-11-15 Smith & Nephew, Inc. Systeme und verfahren für computergestützte chirurgische eingriffe auf patientenbasis
DE102010029275A1 (de) * 2010-05-25 2011-12-01 Siemens Aktiengesellschaft Verfahren zum Bewegen eines Instrumentenarms eines Laparoskopierobotors in einer vorgebbare Relativlage zu einem Trokar
JP5956711B2 (ja) * 2010-06-04 2016-07-27 東芝メディカルシステムズ株式会社 X線撮影装置
US9439556B2 (en) * 2010-12-10 2016-09-13 Wayne State University Intelligent autonomous camera control for robotics with medical, military, and space applications
JP5816457B2 (ja) * 2011-05-12 2015-11-18 オリンパス株式会社 術具装置
US10092164B2 (en) * 2011-08-21 2018-10-09 M.S.T. Medical Surgery Technologies Ltd Device and method for assisting laparoscopic surgery—rule based approach
KR101876386B1 (ko) * 2011-12-29 2018-07-11 삼성전자주식회사 의료용 로봇 시스템 및 그 제어 방법

Also Published As

Publication number Publication date
DE102013109677A1 (de) 2015-03-05
RU2016112386A3 (de) 2018-05-25
JP2016538089A (ja) 2016-12-08
US20160175057A1 (en) 2016-06-23
RU2016112386A (ru) 2017-10-09
KR20160054526A (ko) 2016-05-16
CN105682601A (zh) 2016-06-15
WO2015032738A1 (de) 2015-03-12

Similar Documents

Publication Publication Date Title
WO2015032738A1 (de) Assistenzeinrichtung zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs
EP2449997B1 (de) Medizinischer Arbeitsplatz
DE102013110847B3 (de) Steuervorrichtung und Verfahren zum Steuern eines Robotersystems mittels Gestensteuerung
EP3486915B1 (de) Verfahren zur steuerung des betriebs einer medizintechnikeinrichtung, bediengerät, bediensystem und medizintechnikeinrichtung
EP2502558B1 (de) Medizinischer Arbeitsplatz
DE102012110190B4 (de) Manuell betätigte Robotersteuerung und Verfahren zum Steuern eines Robotersystems
DE10004264C2 (de) Vorrichtung zur intrakorporalen, minimal-invasiven Behandlung eines Patienten
EP3363358B1 (de) Vorrichtung zum festlegen und wiederauffinden eines bezugspunkts während eines chirurgischen eingriffs
EP3412242A1 (de) Ausgabe von positionsinformationen eines medizintechnischen instruments
WO2016096366A1 (de) System zur roboterunterstützten medizinischen behandlung
DE19961971A1 (de) Verfahren zur sicheren automatischen Nachführung eines Endoskops und Verfolgung (Tracking) eines chirurgischen Instrumentes mit einem Endoskopführungssystem (EFS) für die minimal invasive Chirurgie
WO2010097315A1 (de) Navigation endoskopischer vorrichtungen mittels eye-tracker
EP2328501A1 (de) Medizinischer arbeitsplatz und bedienvorrichtung zum manuellen bewegen eines roboterarms eines medizinischen arbeitsplatzes
DE10353110A1 (de) Aktorplattform zur Führung von Endeffektoren bei minimal invasiven Interventionen
DE102013108115A1 (de) Verfahren und Vorrichtung zum Festlegen eines Arbeitsbereichs eines Roboters
EP3639782A1 (de) Steuerungsanordnung zur steuerung einer bewegung eines roboterarms und behandlungsvorrichtung mit steuerungsanordnung
WO2021116494A1 (de) Chirurgieroboter für endoskopische anwendungen
DE102016107853A1 (de) Operations-Assistenz-System und Verfahren zur Erzeugung von Steuersignalen zur Ansteuerung einer motorisch gesteuerten bewegbaren Roboterkinematik eines derartigen Operations-Assistenz-Systems
WO2013144334A1 (de) Medizinisches navigationssystem mit drahtlos verbundenem, berührungsempfindlichem bildschirm
DE102014019752A1 (de) Haltearm für medizinische Zwecke mit zwei mechatronischen Schnittstellen
WO2015014952A1 (de) Assistenzeinrichtung zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs
DE10335369B4 (de) Verfahren zum Bereitstellen einer berührungslosen Gerätefunktionssteuerung und Vorrichtung zum Durchführen des Verfahrens
DE102014210056A1 (de) Verfahren zur Ansteuerung eines chirurgischen Geräts sowie chirurgisches Gerät
EP2441410A1 (de) Verfahren zum Erstellen eines medizinischen Bildes und medizinischer Arbeitsplatz
DE102021114429A1 (de) Robotersystem für minimalinvasive Chirurgie

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20160615

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20170131