WO2022242863A1 - Computer-supported method for a moving display of an image of a real surrounding area and at least two virtual objects on a screen - Google Patents

Computer-supported method for a moving display of an image of a real surrounding area and at least two virtual objects on a screen Download PDF

Info

Publication number
WO2022242863A1
WO2022242863A1 PCT/EP2021/063500 EP2021063500W WO2022242863A1 WO 2022242863 A1 WO2022242863 A1 WO 2022242863A1 EP 2021063500 W EP2021063500 W EP 2021063500W WO 2022242863 A1 WO2022242863 A1 WO 2022242863A1
Authority
WO
WIPO (PCT)
Prior art keywords
screen
virtual
virtual objects
image
real
Prior art date
Application number
PCT/EP2021/063500
Other languages
German (de)
French (fr)
Inventor
Ralf Schumacher
Florian Coigny
Daniel XANDER
Original Assignee
Medartis Holding Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Medartis Holding Ag filed Critical Medartis Holding Ag
Priority to PCT/EP2021/063500 priority Critical patent/WO2022242863A1/en
Publication of WO2022242863A1 publication Critical patent/WO2022242863A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Definitions

  • the present invention deals with computer-aided methods for the moving display of an image of a real environment and at least two virtual objects on a screen.
  • the method can be used to plan an operation on an anatomical structure, in particular to plan an operation on a fractured bone containing multiple fragments.
  • the system contains "Virtual Reality” glasses and two hand-held controllers.
  • the glasses can display virtual hands of the user, virtual tools and virtual bones. Virtual fragments of a bone can be moved independently of each other. Nevertheless, this movement Not very intuitive.
  • glasses of this type are expensive, not least because of the high graphics performance required, which stands in the way of their spread. Furthermore, they limit mobility due to their weight and size. They also ensure visual isolation from the real environment, which can occasionally even make the user feel nauseous.
  • gesture control Although this can be operated quite intuitively, it is limited by the lack of spatial reference. It is therefore an object of the present invention to provide a computer-aided method that allows virtual objects to be moved on a screen in a simpler and more intuitive manner. This should be achieved in particular in the field of surgery, especially bone surgery, but also in other technical fields - for example in hostile environments such as nuclear power plants, in space, under water or in the case of very small or very large (component) parts which robot technology is used.
  • the method includes the steps a) capturing an image of a real environment b) joint three-dimensional display of the image of the real environment, in particular the at least one real object, and at least one of the virtual objects on the screen, c) selection of at least one of the virtual objects in Response to the activation of a gripping function, d) determining a rotational and/or translational movement of a manipulation device, e) rotational and/or translational movement of a selected virtual object relative to images of the environment, in particular the real object, and not from selected virtual objects, depending on the rotational and / or translational determined in step d) see movement of the manipulation device as long as the gripping function is activated.
  • This method enables a particularly simple and intuitive rotary and/or translatory movement of the virtual objects relative to one another. For this purpose, only the rotational and/or translational movement of the manipulation device has to be determined. Depending on this, the virtual object is also moved on the screen.
  • the real environment contains at least one real object.
  • the image of the real environment, in particular of the at least one real object can be captured in step a) using an imaging device, for example using a camera.
  • the real object in the environment is recorded and can be displayed in relation to the environment.
  • the real object can be any reference in the environment.
  • the virtual objects can be read from an imaging device or from a memory, for example.
  • the three-dimensional display in step b) can contain the superimposition of a live image from a camera on the one hand and at least two virtual objects on the other.
  • the representation of another virtual or a real object for example an anatomical structure such as a bone, preferably overlays the originally selected position of the real object. If the manipulation device moves and the perspective of the image changes as a result, the position of the overlay in the image and the perspective of the 3D representation are updated in such a way that the viewer has the impression that the virtual objects displayed are fixed to the selected one position and in the selected orientation in the environment. This is referred to as "anchored" in the context of the invention no translation or rotation of other virtual or real objects relative to the environment takes place.
  • a single virtual object can be displayed on the screen.
  • this single virtual object can be divided into at least two virtual objects, which can then be selected separately in step c).
  • the anchoring can be rigid. This means that the real movement of the manipulation device is converted into the movement of the virtual objects as simultaneously as possible and on a scale of 1:1. However, it is also possible for translational movements to be implemented on a different scale, in which case the paths actually covered by the manipulation device are either increased or decreased. A reduction in size can be particularly useful if small virtual objects are to be moved, as is often necessary, for example, in surgery, in particular in bone surgery. As an alternative or in addition to this, the conversion of the real movement into the virtual movement can be filtered. For example, a tremor reduction known per se from surgical robotics can be carried out, in which small movements of the manipulation device are filtered out in a specific frequency range.
  • the manipulation device is preferably a mobile device that can contain the said screen and will be explained further below.
  • it can be a tablet or a smartphone.
  • the manipulation device whose movement is determined to be a separate controller.
  • the camera can also be part of the manipulation device or be separate from it.
  • the rotational and/or translational movement of the manipulation device in step d) can be determined on the basis of the images recorded by the camera.
  • the movement of a real environment, in particular of a real object, in the image recorded by the camera can be determined with image processing methods that are known per se from "augmented reality" and converted into the movement of the virtual objects.
  • the invention also covers the fact that the rotational and/or translational movement is determined with the aid of acceleration sensors that are known per se.
  • the screen on which the objects are displayed is part of the manipulation device. In this way, the effect of the movement of the manipulation device can be read directly from it.
  • a virtual selection mark is displayed on the image screen, in particular a screen of the manipulation device.
  • the gripping function When the gripping function is activated, that virtual object is selected to which the selection mark on the screen is directed. It is expedient for this if the virtual selection mark is displayed in a central area of the screen. This also simplifies operation.
  • the screen can be a touchscreen.
  • the gripping function can be activated when a user touches the touch screen. This touch does not necessarily have to be at the point of the selection mark.
  • the gripping function can be activated by pressing a physical button.
  • the gripping function can remain activated as long as the user is touching the touch screen or holding down the physical button, and can be deactivated when the user stops touching the touch screen or is releasing the button.
  • the selected virtual object is left in that position and that orientation in relation to the other virtual objects on the screen, in particular the touchscreen, that it was in at the time the gripping function was deactivated.
  • functions known per se such as “undo” and/or “repeat” can be implemented.
  • the objects can be displayed on the screen in step b) and the rotary and/or translatory movement of the manipulation device can be determined in step d) using methods known per se from the prior art.
  • the method according to the invention can be used in particular for planning an operation on an anatomical structure, in particular on a fractured bone containing at least two fragments or also on another body tissue.
  • images of the fragments are the virtual objects.
  • This special method according to the invention therefore contains the following steps: a) capturing an image of a real environment, in particular at least one real object, b) joint three-dimensional display of the image of the real environment, in particular the at least one real object, and at least one virtual partial structure of the anatomical structure, in particular one of the virtual fragments of the bone, on a screen, c) selection of at least one of the displayed virtual partial structures, in particular at least one of the virtual fragments, in response to activation of a gripping function, d) determination of a rotational and/or translational movement of a manipulation device, e) rotational and/or translational Moving a selected virtual substructure relative to images of the environment, in particular the real object, and the unselected virtual substructures, in particular the unselected virtual fragments
  • a suitable cutting plane can be defined in which a bone or bone fragment can be cut.
  • virtual measurements can also be taken on the virtual bone fragments.
  • at least one operation on a real bone and real bone fragments can be performed. This can, for example, be the application of a bone plate as well as the Bone screw placement and alignment included.
  • the insights gained in steps a) to e) and possibly f) can be valuable.
  • the method with steps a) to e) and optionally f) and/or g) can also be used for training purposes.
  • a virtual implant can also be displayed on the screen.
  • the distinction between virtual fragments and virtual implant can be made possible by visual parameters, for example by different colors and/or surface properties. In some situations it can prove to be advantageous if the (virtual) freedom of movement of the implant or part of it is restricted; for example, a bone screw can only be displaced within a long hole in a bone plate.
  • the invention is not limited to such methods for planning an operation and that the virtual objects do not necessarily have to be fragments of a bone or other body tissue.
  • the method according to the invention can also be used in mechanical engineering.
  • the virtual objects can be individual parts or entire assemblies of a device, for example, which can be moved relative to other individual parts or assemblies of the device.
  • the invention also includes a computer program product which executes a method according to the invention when it runs on a device with a screen and a sensor of the device.
  • the device is preferably a mobile device and the screen can be a touch screen. If this computer program product is executed, the advantages explained above result.
  • the invention is explained in more detail using an exemplary embodiment from bone surgery. show it
  • Figure 1 an image of a real environment containing a real object in the form of a table and a tablet aligned with the table with a touch screen on which the table is displayed,
  • FIG. 2 the tablet according to FIG. 1, with several virtual fragments of a bone also being displayed on the screen,
  • Figure 3 the selection of one of the virtual fragments using a selection mark
  • FIG. 5 the tablet according to FIG. 1, with several virtual fragments of a bone and a virtual implant also being displayed on the screen;
  • FIG. 6 the selection of the virtual implant by means of a selection mark
  • FIG. 7 the positioning of the virtual implant in a different position and orientation assumed by moving and rotating the tablet.
  • FIG. 1 shows a mobile device in the form of a tablet 14.
  • the tablet 14 contains a touchscreen 10 on its front and a camera on its rear (not visible here).
  • the tablet 14 is positioned in FIG. 1 in such a way that an environment with a table 16, ie a real object, is mera is detected.
  • the image 17 of the area with the table 16 taken by the camera is displayed on the touchscreen 14 .
  • the tablet 14 also forms a manipulation device 11 with which its own rotational and translational movements can be determined.
  • the tablet 14 contains a known arithmetic unit, also not shown. This runs an algorithm (ie a computer program product) from which the position and orientation of the tablet 14 relative to the real table 16 are determined using an image processing method known per se.
  • a virtual selection mark in the form of a crosshair 12 is also shown in a central area of the screen 10, the function of which will be explained in more detail below.
  • the computing unit can also be designed as a unit that is separate from the tablet 14 .
  • the processing unit can receive and send back image data or pre-processed data from the tablet 14, for example with a cable or wirelessly.
  • virtual fragments F, F′ of a bone are additionally shown on the touchscreen 10—in this example, a human lower jaw. If the crosshairs 12 point to one of the virtual fragments F, this is represented visually, for example by the virtual fragment F being colored red.
  • the tablet 14 is oriented so that the crosshairs 12 are above the virtual Fragment F comes to rest as shown in FIG. When the touch screen 10 is then touched, a gripping function is activated.
  • this movement can be determined by the processing unit of the tablet 14 as explained above. Dependent on this movement also moves the selected virtual fragment F in relation to the table 16 and the remaining fragments F' on the touchscreen 10, as visualized in FIG. It is conceivable, for example, that only translations in a particular horizontal plane and/or rotations about a defined axis are converted into movements on the touch screen 10 .
  • the software can also enable individual degrees of freedom to be deactivated via an input interface depending on the situation.
  • the selected virtual fragment F is anchored on the touchscreen 10. This means that with a further rotational and/or translational movement of the tablet 14, only the image of the table 16 and the unselected fragments F' on the touchscreen 10 are moved accordingly, but not the selected fragment F as well.
  • a virtual implant I is additionally shown on the touchscreen 10 in FIGS. If the crosshairs 12 point to the virtual implant I, this is represented optically, for example by the virtual implant I being colored red.
  • the tablet 14 is oriented in such a way that the crosshairs 12 lie over it comes as shown in Figure 6. If the touch screen 10 then touches is activated, a gripping function is activated. If the tablet 14 is now moved in rotation and/or translation, this movement can be determined by the processing unit of the tablet 14 as explained above. Depending on this movement, the virtual implant I is also moved in relation to the table 16 and the fragments F on the touchscreen 10, as is visualized in FIG.
  • the virtual implant is anchored on the touchscreen 10 .
  • the position and orientation of the tablet 14 in a suitable form of representation can be determined using software that is known per se.
  • methods known per se can be used to calculate whether the beam from the center of the camera along the optical axis (derived from a 4 ⁇ 4 camera matrix) has a Intersection with a surface model of the virtual object. If the optical axis intersects with several surfaces the object whose intersection point is closest to the camera is selected preferentially.
  • the transformation between the tablet 14 and the target object at the time of gripping can be calculated.
  • this transformation is combined with the current camera matrix and applied to the virtual object. This results in rigid anchorage during gripping.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The invention relates to a computer-supported method for a moving display of a real image of a surrounding area and at least two virtual objects (F, F') on a screen (10), having the steps of a) capturing a real image (17) of a surrounding area, b) displaying the surrounding area, in particular at least one real object (16), and the virtual objects (F, F') together on the screen (10) in a three-dimensional manner, c) selecting at least one of the virtual objects (F') in response to the activation of a gripping function, d) determining a rotational and/or translational movement of a manipulation device (11), and e) moving the image (17) of the surrounding area, in particular the real object (16), and the unselected virtual objects (11) relative to the selected virtual object (F') in a rotational and/or translational manner on the basis of the rotational and/or translational movement of the manipulation device (11) determined in step d) as long as the gripping function is activated. The invention can be used to plan a surgery on a fractured bone containing multiple fragments for example.

Description

Computergestütztes Verfahren zum bewegten Darstellen eines Bildes eines realen Umfeldes und mindestens zweier virtueller Objekte auf einem Bildschirm Computer-aided method for the moving display of an image of a real environment and at least two virtual objects on a screen
Die vorliegende Erfindung befasst sich mit computergestützten Verfahren zum bewegten Darstellen eines Bildes eines realen Umfeldes und mindestens zweier virtueller Objekte auf einem Bildschirm. Insbesondere kann das Verfahren zum Planen einer Operation einer anatomischen Struktur eingesetzt werden, ins besondere zum Planen einer Operation eines frakturierten Kno chens, der mehrere Fragmente enthält. The present invention deals with computer-aided methods for the moving display of an image of a real environment and at least two virtual objects on a screen. In particular, the method can be used to plan an operation on an anatomical structure, in particular to plan an operation on a fractured bone containing multiple fragments.
Zur Planung eines Implantats für eine Knochenfraktur ist es erforderlich, die Knochensituation virtuell wiederherzustel len, was als Deponierung bezeichnet wird. Aus WO 2019/036790 Al und WO 2019/161477 Al ist ein gattungsgemässes Verfahren bekannt. Offenbart sind darin chirurgische Systeme, die sich der „Virtual Reality" und der „Augmented Reality" bedienen.In order to plan an implant for a bone fracture, it is necessary to virtually recreate the bone situation, which is referred to as deposition. A generic method is known from WO 2019/036790 A1 and WO 2019/161477 A1. It discloses surgical systems that make use of "virtual reality" and "augmented reality".
Das System enthält eine „Virtual Reality"-Brille und zwei in der Hand gehaltene Controller. In der Brille können virtuelle Hände des Benutzers, virtuelle Werkzeuge und virtuelle Knochen dargestellt werden. Dabei können virtuelle Fragmente eines Knochens unabhängig voneinander bewegt werden. Dennoch ist diese Bewegung wenig intuitiv. Zudem sind derartige Brillen nicht zuletzt aufgrund ihrer erforderlichen hohen Grafikleis tung teuer, was ihrer Verbreitung im Wege steht. Weiterhin be schränken sie aufgrund ihres Gewichts und ihrer Grösse die Mo bilität. Ausserdem sorgen sie für eine visuelle Abschottung von der realen Umgebung, was gelegentlich sogar zu Übelkeit des Benutzers führen kann. The system contains "Virtual Reality" glasses and two hand-held controllers. The glasses can display virtual hands of the user, virtual tools and virtual bones. Virtual fragments of a bone can be moved independently of each other. Nevertheless, this movement Not very intuitive. In addition, glasses of this type are expensive, not least because of the high graphics performance required, which stands in the way of their spread. Furthermore, they limit mobility due to their weight and size. They also ensure visual isolation from the real environment, which can occasionally even make the user feel nauseous.
Andere bekannte „Augmented Reality"-Verfahren nutzen eine Ges tensteuerung. Diese ist zwar recht intuitiv bedienbar, aber limitiert durch den fehlenden räumlichen Bezug. Es ist daher eine Aufgabe der vorliegenden Erfindung, ein com- putergestütztes Verfahren bereitzustellen, mit dem eine einfa chere und intuitivere Bewegung virtueller Objekte auf einem Bildschirm ermöglicht wird. Dies soll insbesondere im Bereich der Chirurgie, insbesondere der Knochenchirurgie, aber auch in anderen technischen Gebieten erreicht werden - beispielsweise in lebensfeindlichen Umgebungen wie etwa in Kernkraftwerken, im Weltall, unter Wasser oder bei sehr kleinen oder sehr gros sen (Bau-)Teilen, bei denen Robotertechnik zur Anwendung kommt. Other well-known "Augmented Reality" methods use gesture control. Although this can be operated quite intuitively, it is limited by the lack of spatial reference. It is therefore an object of the present invention to provide a computer-aided method that allows virtual objects to be moved on a screen in a simpler and more intuitive manner. This should be achieved in particular in the field of surgery, especially bone surgery, but also in other technical fields - for example in hostile environments such as nuclear power plants, in space, under water or in the case of very small or very large (component) parts which robot technology is used.
Diese und weitere Aufgaben werden gelöst durch das erfindungs- gemässe computergestützte Verfahren zum bewegten Darstellen eines Bildes eines realen Umfeldes und mindestens zweier vir tueller Objekte auf einem Bildschirm. Das Verfahren enthält die Schritte a) Erfassen eines Bildes eines realen Umfeldes b) gemeinsames dreidimensionales Darstellen des Bildes des realen Umfeldes, insbesondere des mindestens einen realen Objekts, und mindestens eines der virtuellen Objekte auf dem Bildschirm, c) Auswahlen mindestens eines der virtuellen Objekte in Ant wort auf die Aktivierung einer Greiffunktion, d) Bestimmen einer rotatorischen und/oder translatorischen Bewegung eines Manipulationsgerätes, e) rotatorisches und/oder translatorisches Bewegen eines aus gewählten virtuellen Objekts relativ zu Bildern der Umge bung, insbesondere des realen Objekts, und der nicht aus gewählten virtuellen Objekte, in Abhängigkeit der im Schritt d) bestimmten rotatorischen und/oder translatori- sehen Bewegung des Manipulationsgerätes, solange die Greiffunktion aktiviert ist. These and other tasks are solved by the computer-aided method according to the invention for the moving display of an image of a real environment and at least two virtual objects on a screen. The method includes the steps a) capturing an image of a real environment b) joint three-dimensional display of the image of the real environment, in particular the at least one real object, and at least one of the virtual objects on the screen, c) selection of at least one of the virtual objects in Response to the activation of a gripping function, d) determining a rotational and/or translational movement of a manipulation device, e) rotational and/or translational movement of a selected virtual object relative to images of the environment, in particular the real object, and not from selected virtual objects, depending on the rotational and / or translational determined in step d) see movement of the manipulation device as long as the gripping function is activated.
Dieses Verfahren ermöglicht eine besonders einfache und intui tive rotatorische und/oder translatorische Bewegung der virtu ellen Objekte relativ zueinander. Hierzu muss lediglich die rotatorische und/oder translatorische Bewegung des Manipulati onsgerätes bestimmt werden. In Abhängigkeit davon wird auch das virtuelle Objekt auf dem Bildschirm bewegt. This method enables a particularly simple and intuitive rotary and/or translatory movement of the virtual objects relative to one another. For this purpose, only the rotational and/or translational movement of the manipulation device has to be determined. Depending on this, the virtual object is also moved on the screen.
Das reale Umfeld enthält mindestens ein reales Objekt. Das Bild des reales Umfeldes, insbesondere des mindestens einen realen Objekts, kann im Schritt a) mittels eines bildgebenden Gerätes erfasst werden, beispielsweise mittels einer Kamera. Dabei wird das reale Objekt im Umfeld erfasst und kann bezogen auf das Umfeld dargestellt. Bei dem realen Objekt kann es sich grundsätzlich um eine beliebige Referenz im Umfeld handeln.The real environment contains at least one real object. The image of the real environment, in particular of the at least one real object, can be captured in step a) using an imaging device, for example using a camera. The real object in the environment is recorded and can be displayed in relation to the environment. In principle, the real object can be any reference in the environment.
Die virtuellen Objekte können beispielsweise aus einem bildge benden Gerät oder aus einem Speicher eingelesen werden. The virtual objects can be read from an imaging device or from a memory, for example.
Das dreidimensionale Darstellen im Schritt b) kann die Überla gerung eines Livebildes einer Kamera einerseits und der min destens zwei virtuellen Objekte andererseits enthalten. Die Darstellung eines anderen virtuellen oder eines realen Ob jekts, beispielsweise einer anatomischen Struktur wie etwa ei nes Knochens, überlagert bevorzugt die ursprünglich gewählte Position des reales Objekts. Wenn sich das Manipulationsgerät bewegt und sich damit die Perspektive des Bildes ändert, wer den die Position der Überlagerung im Bild und die Perspektive der 3D-Darstellung so aktualisiert, dass für den Betrachter der Eindruck besteht, dass sich die eingeblendeten virtuellen Objekte fest an der gewählten Position und in der gewählten Orientierung im Umfeld befinden. Dies wird im Rahmen der Er findung als „verankert" bezeichnet. Bevorzugt findet dabei keine Translation oder Rotation weiterer virtueller oder rea ler Objekte relativ zum Umfeld statt. The three-dimensional display in step b) can contain the superimposition of a live image from a camera on the one hand and at least two virtual objects on the other. The representation of another virtual or a real object, for example an anatomical structure such as a bone, preferably overlays the originally selected position of the real object. If the manipulation device moves and the perspective of the image changes as a result, the position of the overlay in the image and the perspective of the 3D representation are updated in such a way that the viewer has the impression that the virtual objects displayed are fixed to the selected one position and in the selected orientation in the environment. This is referred to as "anchored" in the context of the invention no translation or rotation of other virtual or real objects relative to the environment takes place.
In einem vorausgehenden Verfahrensschritt kann auch zunächst nur ein einziges virtuelles Objekt auf dem Bildschirm darge stellt werden. Diese einzige virtuelle Objekt kann in einem weiteren vorausgehenden Verfahrensschritt in mindestens zwei virtuelle Objekte aufgeteilt werden, die anschliessend im Schritt c) separat ausgewählt werden können. In a preceding method step, initially only a single virtual object can be displayed on the screen. In a further preceding method step, this single virtual object can be divided into at least two virtual objects, which can then be selected separately in step c).
In einer möglichen Variante kann die Verankerung starr erfol gen. Dies bedeutet, dass die reale Bewegung des Manipulations geräts möglichst simultan und im Massstab 1:1 in die Bewegung der virtuellen Objekte umgesetzt wird. Es ist aber auch mög lich, dass translatorische Bewegungen mit einem anderen Mass stab umgesetzt werden, bei dem die real zurückgelegten Wege des Manipulationsgeräts entweder vergrössert oder verkleinert werden. Eine Verkleinerung kann insbesondere nützlich sein, wenn kleine virtuelle Objekte bewegt werden sollen, wie es et wa in der Chirurgie, insbesondere in der Knochenchirurgie, oftmals erforderlich ist. Alternativ oder zusätzlich dazu kann die Umsetzung der realen Bewegung in die virtuelle Bewegung gefiltert werden. So kann beispielsweise eine aus der chirur gischen Robotik an sich bekannte Tremorreduktion durchgeführt werden, bei der kleine Bewegungen des Manipulationsgerätes in einem bestimmten Frequenzbereich herausgefiltert werden. Es ist auch denkbar und liegt im Rahmen der Erfindung, dass nicht sämtliche sechs Freiheitsgrade der Bewegung des Manipulations gerätes in die Bewegung der Objekte auf dem Bildschirm umge setzt werden. Beispielsweise können nur Translationen (in ei ner, zwei oder drei Raumrichtungen) oder nur Rotationen (um eine, zwei oder drei Achsen) umgesetzt werden. In one possible variant, the anchoring can be rigid. This means that the real movement of the manipulation device is converted into the movement of the virtual objects as simultaneously as possible and on a scale of 1:1. However, it is also possible for translational movements to be implemented on a different scale, in which case the paths actually covered by the manipulation device are either increased or decreased. A reduction in size can be particularly useful if small virtual objects are to be moved, as is often necessary, for example, in surgery, in particular in bone surgery. As an alternative or in addition to this, the conversion of the real movement into the virtual movement can be filtered. For example, a tremor reduction known per se from surgical robotics can be carried out, in which small movements of the manipulation device are filtered out in a specific frequency range. It is also conceivable and is within the scope of the invention that not all six degrees of freedom of the movement of the manipulation device are converted into the movement of the objects on the screen. For example, only translations (in one, two or three spatial directions) or only rotations (about one, two or three axes) can be implemented.
Bei dem Manipulationsgerät handelt es sich bevorzugt um ein Mobilgerät, das den genannten Bildschirm enthalten kann und weiter unten noch erläutert wird. Beispielsweise kann es sich um ein Tablet oder ein Smartphone handeln. Es ist jedoch auch denkbar und liegt Rahmen der Erfindung, dass das Manipulati onsgerät, dessen Bewegung bestimmt wird, ein separater Con troller ist. Des Weiteren kann auch die Kamera Teil des Mani pulationsgerätes sein oder davon separiert sein. The manipulation device is preferably a mobile device that can contain the said screen and will be explained further below. For example, it can be a tablet or a smartphone. However, it is also conceivable and is within the scope of the invention for the manipulation device whose movement is determined to be a separate controller. Furthermore, the camera can also be part of the manipulation device or be separate from it.
In einer möglichen Variante können die rotatorische und/oder translatorische Bewegung des Manipulationsgerätes im Schritt d) auf der Basis der von der Kamera aufgenommenen Bilder be stimmt werden. Hierzu kann mit Bildverarbeitungsverfahren, die von der „Augmented Reality" an sich bekannt sind, die Bewegung einer realen Umgebung, insbesondere eines realen Objekts, in dem von der Kamera aufgenommen Bild bestimmt werden und in die Bewegung der virtuellen Objekte umgesetzt werden. Ebenfalls denkbar und von der Erfindung erfasst ist aber auch, dass die rotatorische und/oder die translatorische Bewegung mit Hilfe an sich bekannter Beschleunigungssensoren bestimmt wird. In a possible variant, the rotational and/or translational movement of the manipulation device in step d) can be determined on the basis of the images recorded by the camera. For this purpose, the movement of a real environment, in particular of a real object, in the image recorded by the camera can be determined with image processing methods that are known per se from "augmented reality" and converted into the movement of the virtual objects. Also conceivable and however, the invention also covers the fact that the rotational and/or translational movement is determined with the aid of acceleration sensors that are known per se.
Besonders vorteilhaft ist es, wenn der Bildschirm, auf dem die Objekte dargestellt werden, Teil des Manipulationsgerätes ist. Auf diese Weise kann der Effekt der Bewegung des Manipula tionsgerätes direkt von diesem abgelesen werden. It is particularly advantageous if the screen on which the objects are displayed is part of the manipulation device. In this way, the effect of the movement of the manipulation device can be read directly from it.
Besonders vorteilhaft ist es weiterhin, wenn auf dem Bild schirm, insbesondere einem Bildschirm des Manipulationsgerä tes, eine virtuelle Auswählmarkierung dargestellt wird. Beim Aktivieren der Greiffunktion wird dasjenige virtuelle Objekt ausgewählt, auf welches die Auswählmarkierung auf dem Bild schirm gerichtet ist. Hierfür ist es zweckmässig, wenn die virtuelle Auswählmarkierung in einem zentralen Bereich des Bildschirms dargestellt wird. Dies erleichtert die Bedienung zusätzlich . Mit weiterem Vorteil kann der Bildschirm ein Touchscreen sein. In diesem Fall kann die Greiffunktion aktiviert werden, wenn ein Benutzer den Touchscreen berührt. Diese Berührung muss da bei nicht zwingend an der Stelle der Auswählmarkierung erfol gen. In einer weiteren Alternative kann die Greiffunktion durch das Drücken einer physischen Taste aktiviert werden.It is also particularly advantageous if a virtual selection mark is displayed on the image screen, in particular a screen of the manipulation device. When the gripping function is activated, that virtual object is selected to which the selection mark on the screen is directed. It is expedient for this if the virtual selection mark is displayed in a central area of the screen. This also simplifies operation. With further advantage, the screen can be a touchscreen. In this case, the gripping function can be activated when a user touches the touch screen. This touch does not necessarily have to be at the point of the selection mark. In a further alternative, the gripping function can be activated by pressing a physical button.
Ebenfalls mit Vorteil kann die Greiffunktion solange aktiviert bleiben, wie der Benutzer den Touchscreen berührt bzw. die physische Taste gedrückt hält, und sie kann deaktiviert wer den, wenn durch den Benutzer die Berührung des Touchscreens beendet wird bzw. die Taste losgelassen wird. Also advantageously, the gripping function can remain activated as long as the user is touching the touch screen or holding down the physical button, and can be deactivated when the user stops touching the touch screen or is releasing the button.
Noch weiter bevorzugt ist es, wenn das ausgewählte virtuelle Objekt in derjenigen Position und derjenigen Orientierung be zogen auf die anderen virtuellen Objekte auf dem Bildschirm, insbesondere dem Touchscreen, belassen wird, die es zum Zeit punkt der Deaktivierung der Greiffunktion einnahm. Auf diese Weise ergibt sich eine Art von Drag-and-drop-Funktion. Zudem können an sich bekannte Funktionen wie „Rückgängig" und/oder „Wiederholen" implementiert werden. It is even more preferred if the selected virtual object is left in that position and that orientation in relation to the other virtual objects on the screen, in particular the touchscreen, that it was in at the time the gripping function was deactivated. This creates a kind of drag-and-drop functionality. In addition, functions known per se, such as “undo” and/or “repeat” can be implemented.
Das Darstellen der Objekte auf dem Bildschirm im Schritt b) und das Bestimmen der rotatorischen und/oder translatorischen Bewegung des Manipulationsgerätes im Schritt d) können mit aus dem Stand der Technik an sich bekannten Verfahren erreicht werden. The objects can be displayed on the screen in step b) and the rotary and/or translatory movement of the manipulation device can be determined in step d) using methods known per se from the prior art.
Das erfindungsgemässe Verfahren kann insbesondere zum Planen einer Operation einer anatomischen Struktur eingesetzt werden, insbesondere eines mindestens zwei Fragmente enthaltenden frakturierten Knochens oder auch eines anderen Körpergewebes. In dieser Anwendung sind Bilder der Fragmente die virtuellen Objekte. Dieses spezielle erfindungsgemässe Verfahren enthält also die folgenden Schritte: a) Erfassen eines Bildes eines realen Umfeldes, insbesondere mindestens eines realen Objekts, b) gemeinsames dreidimensionales Darstellen des Bildes des realen Umfeldes, insbesondere des mindestens einen realen Objekts, und mindestens einer virtuellen Teilstruktur der anatomischen Struktur, insbesondere eines der virtuellen Fragmente des Knochens, auf einem Bildschirm, c) Auswahlen mindestens einer der dargestellten virtuellen Teilstrukturen, insbesondere mindestens eines der virtu ellen Fragmente, in Antwort auf die Aktivierung einer Greiffunktion, d) Bestimmen einer rotatorischen und/oder translatorischen Bewegung eines Manipulationsgerätes, e) rotatorisches und/oder translatorisches Bewegen einer ausgewählten virtuellen Teilstruktur relativ zu Bildern der Umgebung, insbesondere des realen Objekts, und der nicht ausgewählten virtuellen Teilstrukturen, insbesonde re der nicht ausgewählten virtuellen Fragmente, in Abhän gigkeit der rotatorischen und/oder translatorischen Bewe gung des Manipulationsgerätes, solange die Greiffunktion aktiviert ist. The method according to the invention can be used in particular for planning an operation on an anatomical structure, in particular on a fractured bone containing at least two fragments or also on another body tissue. In this application, images of the fragments are the virtual objects. This special method according to the invention therefore contains the following steps: a) capturing an image of a real environment, in particular at least one real object, b) joint three-dimensional display of the image of the real environment, in particular the at least one real object, and at least one virtual partial structure of the anatomical structure, in particular one of the virtual fragments of the bone, on a screen, c) selection of at least one of the displayed virtual partial structures, in particular at least one of the virtual fragments, in response to activation of a gripping function, d) determination of a rotational and/or translational movement of a manipulation device, e) rotational and/or translational Moving a selected virtual substructure relative to images of the environment, in particular the real object, and the unselected virtual substructures, in particular the unselected virtual fragments, depending on the rotational and/or translational movement of the manipulation device as long as the gripping function is activated.
Auf der Basis der in diesem erfindungsgemässen Verfahren ge wonnen Erkenntnisse können in einem anschliessenden Schritt f) vorbereitende Planungen für eine Operation vorgenommen werden. Beispielsweise kann eine geeignete Schnittebene festgelegt werden, in der ein Knochen oder Knochenfragment geschnitten werden kann. Zudem können auch virtuelle Messungen an den vir tuellen Knochenfragmenten vorgenommen werden. In einem weite ren Schritt g) kann mindestens eine Operation eines realen Knochens und realer Knochenfragmente durchgeführt werden. Das kann beispielsweise das Auflegen einer Knochenplatte sowie das Platzieren und Ausrichten von Knochenschrauben enthalten. Aber auch ohne diese Schritte f) und g) können die in den Schritten a) bis e) und gegebenenfalls f) gewonnenen Erkenntnisse wert voll sein. So kann das Verfahren mit den Schritten a) bis e) und optional f) und/oder g) beispielsweise auch zu Schulungs zwecken verwendet werden. On the basis of the knowledge gained in this method according to the invention, preparatory planning for an operation can be undertaken in a subsequent step f). For example, a suitable cutting plane can be defined in which a bone or bone fragment can be cut. In addition, virtual measurements can also be taken on the virtual bone fragments. In a further step g), at least one operation on a real bone and real bone fragments can be performed. This can, for example, be the application of a bone plate as well as the Bone screw placement and alignment included. However, even without these steps f) and g), the insights gained in steps a) to e) and possibly f) can be valuable. For example, the method with steps a) to e) and optionally f) and/or g) can also be used for training purposes.
Zusätzlich zu den virtuellen Fragmenten kann auf dem Bild schirm auch ein virtuelles Implantat angezeigt werden. Die Un terscheidung zwischen virtuellen Fragmenten und virtuellem Im plantat kann durch visuelle Parameter ermöglicht werden, bei spielsweise durch verschiedene Farben und/oder Oberflächenei genschaften. In einigen Situationen kann es sich als vorteil haft erweisen, wenn die (virtuelle) Bewegungsfreiheit des Im plantats oder eines Teils davon eingeschränkt wird; so kann beispielsweise eine Knochenschraube nur innerhalb eines Lang lochs einer Knochenplatte verschiebbar sein. In addition to the virtual fragments, a virtual implant can also be displayed on the screen. The distinction between virtual fragments and virtual implant can be made possible by visual parameters, for example by different colors and/or surface properties. In some situations it can prove to be advantageous if the (virtual) freedom of movement of the implant or part of it is restricted; for example, a bone screw can only be displaced within a long hole in a bone plate.
Es versteht sich, dass die Erfindung nicht auf derartige Ver fahren zum Planen einer Operation beschränkt ist und dass die virtuellen Objekte nicht zwingend Fragmente eines Knochens oder andere Körpergewebe sein müssen. Beispielsweise kann das erfindungsgemässe Verfahren auch im Maschinenbau eingesetzt werden. Die virtuellen Objekte können in diesem Fall bei spielsweise Einzelteile oder ganze Baugruppen einer Vorrich tung sein, die relativ zu anderen Einzelteilen oder Baugruppen der Vorrichtung verschoben werden können. It goes without saying that the invention is not limited to such methods for planning an operation and that the virtual objects do not necessarily have to be fragments of a bone or other body tissue. For example, the method according to the invention can also be used in mechanical engineering. In this case, the virtual objects can be individual parts or entire assemblies of a device, for example, which can be moved relative to other individual parts or assemblies of the device.
In einem weiteren Aspekt umfasst die Erfindung auch ein Compu terprogrammprodukt, welches ein erfindungsgemässes Verfahren ausführt, wenn es auf einem Gerät mit einem Bildschirm und ei nem Sensor des Geräts läuft. Bevorzugt handelt es sich bei dem Gerät um ein mobiles Gerät, und der Bildschirm kann ein Touch screen sein. Wird dieses Computerprogrammprodukt ausgeführt, so ergeben sich die oben erläuterten Vorteile. Nachfolgend wird die Erfindung anhand eines Ausführungsbei spiels aus der Knochenchirurgie näher erläutert. Dabei zeigenIn a further aspect, the invention also includes a computer program product which executes a method according to the invention when it runs on a device with a screen and a sensor of the device. The device is preferably a mobile device and the screen can be a touch screen. If this computer program product is executed, the advantages explained above result. The invention is explained in more detail using an exemplary embodiment from bone surgery. show it
Figur 1: ein Bild eines realen Umfeldes, welches ein reales Objekt in Form eines Tisches enthält, und ein auf den Tisch ausgerichtetes Tablet mit einem Touch screen, auf dem der Tisch dargestellt wird,Figure 1: an image of a real environment containing a real object in the form of a table and a tablet aligned with the table with a touch screen on which the table is displayed,
Figur 2: das Tablet gemäss Figur 1, wobei auf dem Bildschirm zusätzlich mehrere virtuelle Fragmente eines Kno chens dargestellt werden, FIG. 2: the tablet according to FIG. 1, with several virtual fragments of a bone also being displayed on the screen,
Figur 3: die Auswahl eines der virtuellen Fragmente mittels einer Auswählmarkierung, Figure 3: the selection of one of the virtual fragments using a selection mark,
Figur 4: die Positionierung des ausgewählten virtuellenFigure 4: the positioning of the selected virtual
Fragments in einer durch Verschieben und Drehen des Tablets eingenommenen anderen Position und Orien tierung; Fragments in a different position and orientation assumed by shifting and rotating the tablet;
Figur 5: das Tablet gemäss Figur 1, wobei auf dem Bildschirm zusätzlich mehrere virtuelle Fragmente eines Kno chens und ein virtuelles Implantat dargestellt wer den; FIG. 5: the tablet according to FIG. 1, with several virtual fragments of a bone and a virtual implant also being displayed on the screen;
Figur 6: die Auswahl des virtuellen Implantats mittels einer Auswählmarkierung; FIG. 6: the selection of the virtual implant by means of a selection mark;
Figur 7: die Positionierung des virtuellen Implantats in ei ner durch Verschieben und Drehen des Tablets einge nommenen anderen Position und Orientierung. FIG. 7: the positioning of the virtual implant in a different position and orientation assumed by moving and rotating the tablet.
Figur 1 zeigt ein mobiles Gerät in Form eines Tablets 14. Das Tablet 14 enthält an seiner Vorderseite einen Touchscreen 10 und an seiner hier nicht erkennbaren Rückseite eine Kamera.FIG. 1 shows a mobile device in the form of a tablet 14. The tablet 14 contains a touchscreen 10 on its front and a camera on its rear (not visible here).
Das Tablet 14 ist in Figur 1 so positioniert, dass eine Umge bung mit einem Tisch 16, also einem realen Objekt, von der Ka- mera erfasst wird. Auf dem Touchscreen 14 wird das von der Ka mera aufgenommene Bild 17 der Umgebung mit dem Tisch 16 darge stellt. The tablet 14 is positioned in FIG. 1 in such a way that an environment with a table 16, ie a real object, is mera is detected. The image 17 of the area with the table 16 taken by the camera is displayed on the touchscreen 14 .
Das Tablet 14 bildet zugleich ein Manipulationsgerät 11, mit dem seine eigenen rotatorischen und translatorische Bewegungen bestimmt werden können. Zu diesem Zweck enthält das Tablet 14 eine ebenfalls nicht dargestellte, an sich bekannte Rechenein heit. Diese führt einen Algorithmus (also ein Computerpro grammprodukt) aus, mit dem mit einem an sich bekannten Bild verarbeitungsverfahren die Position und die Orientierung des Tablets 14 relativ zum realen Tisch 16 bestimmt werden. In ei nem zentralen Bereich des Bildschirms 10 wird zudem eine vir tuelle Auswählmarkierung in Form eines Fadenkreuzes 12 darge stellt, dessen Funktion nachfolgend noch näher erläutert wird.The tablet 14 also forms a manipulation device 11 with which its own rotational and translational movements can be determined. For this purpose, the tablet 14 contains a known arithmetic unit, also not shown. This runs an algorithm (ie a computer program product) from which the position and orientation of the tablet 14 relative to the real table 16 are determined using an image processing method known per se. A virtual selection mark in the form of a crosshair 12 is also shown in a central area of the screen 10, the function of which will be explained in more detail below.
Alternativ kann die Recheneinheit auch als vom Tablet 14 ge trennte Einheit ausgeführt sein. Die Recheneinheit kann Bild daten oder vorverarbeitete Daten vom Tablet 14 empfangen und zurücksenden, beispielsweise kabelgebunden oder kabellos. Alternatively, the computing unit can also be designed as a unit that is separate from the tablet 14 . The processing unit can receive and send back image data or pre-processed data from the tablet 14, for example with a cable or wirelessly.
In Figur 2 werden auf dem Touchscreen 10 zusätzlich virtuelle Fragmente F, F' eines Knochens dargestellt - in diesem Bei spiel eines menschlichen Unterkiefers. Zeigt das Fadenkreuz 12 auf eines der virtuellen Fragmente F, so wird dies optisch dargestellt, beispielsweise durch eine rote Farbgebung des virtuellen Fragments F. Um eines der virtuellen Fragmente F auszuwählen, wird das Tablet 14 so orientiert, dass das Faden kreuz 12 über dem virtuellen Fragment F zu liegen kommt, wie in Figur 2 dargestellt. Wenn der Touchscreen 10 dann berührt wird, wird eine Greiffunktion aktiviert. In FIG. 2, virtual fragments F, F′ of a bone are additionally shown on the touchscreen 10—in this example, a human lower jaw. If the crosshairs 12 point to one of the virtual fragments F, this is represented visually, for example by the virtual fragment F being colored red. To select one of the virtual fragments F, the tablet 14 is oriented so that the crosshairs 12 are above the virtual Fragment F comes to rest as shown in FIG. When the touch screen 10 is then touched, a gripping function is activated.
Wird nun das Tablet 14 rotatorisch und/oder translatorisch be wegt, so kann diese Bewegung von der Recheneinheit des Tab lets 14 wie oben erläutert bestimmt werden. In Abhängigkeit von dieser Bewegung wird auch das ausgewählte virtuelle Frag ment F bezogen auf den Tisch 16 und die übrigen Fragmente F' auf dem Touchscreen 10 bewegt, wie in Figur 3 visualisiert ist. Dabei ist es beispielsweise denkbar, dass nur Translatio nen in einer insbesondere horizontalen Ebene und/oder Rotatio nen um eine definierte Achse in Bewegungen auf dem Touch screen 10 umgesetzt werden. Dazu kann es die Software ermögli chen, situativ einzelne Freiheitsgrade über eine Eingabe schnittstelle zu deaktivieren. If the tablet 14 is now moved in a rotational and/or translational manner, this movement can be determined by the processing unit of the tablet 14 as explained above. Dependent on this movement also moves the selected virtual fragment F in relation to the table 16 and the remaining fragments F' on the touchscreen 10, as visualized in FIG. It is conceivable, for example, that only translations in a particular horizontal plane and/or rotations about a defined axis are converted into movements on the touch screen 10 . The software can also enable individual degrees of freedom to be deactivated via an input interface depending on the situation.
Solange die Greiffunktion aktiviert ist (also solange der Touchscreen 10 berührt bleibt), wird das ausgewählte virtuelle Fragment F am Touchscreen 10 verankert. Hierunter wird ver standen, dass bei einer weiteren rotatorischen und/oder trans latorischen Bewegung des Tablets 14 nur das Bild des Ti sches 16 und die nicht ausgewählten Fragmente F' auf dem Touchscreen 10 entsprechend bewegt werden, nicht jedoch auch das ausgewählte Fragment F. As long as the gripping function is activated (ie as long as the touchscreen 10 remains touched), the selected virtual fragment F is anchored on the touchscreen 10. This means that with a further rotational and/or translational movement of the tablet 14, only the image of the table 16 and the unselected fragments F' on the touchscreen 10 are moved accordingly, but not the selected fragment F as well.
Wenn die Berührung des Touchscreens 10 durch den Benutzer be endet wird, so wird die Greiffunktion deaktiviert. Das zuvor ausgewählte virtuelle Fragment F wird dann in derjenigen Posi tion und derjenigen Orientierung bezogen auf den Tisch 16 und die übrigen Fragmente F' auf dem Touchscreen 10 belassen, die es zum Zeitpunkt der Deaktivierung der Greiffunktion einnahm. Dies ist in Figur 4 dargestellt. When the user stops touching the touch screen 10, the gripping function is disabled. The previously selected virtual fragment F is then left in the position and orientation relative to the table 16 and the remaining fragments F' on the touch screen 10 that it was in at the time the gripping function was deactivated. This is shown in FIG.
Gegenüber den Figuren 2 bis 4 wird in den Figuren 5 bis 7 auf dem Touchscreen 10 zusätzlich ein virtuelles Implantat I dar gestellt. Zeigt das Fadenkreuz 12 auf das virtuelle Implan tat I, so wird dies optisch dargestellt, beispielsweise durch eine rote Farbgebung des virtuellen Implantats I. Um das vir tuelle Implantat I auszuwählen, wird das Tablet 14 so orien tiert, dass das Fadenkreuz 12 darüber zu liegen kommt, wie in Figur 6 dargestellt. Wenn der Touchscreen 10 dann berührt wird, wird eine Greiffunktion aktiviert. Wird nun das Tab- let 14 rotatorisch und/oder translatorisch bewegt, so kann diese Bewegung von der Recheneinheit des Tablets 14 wie oben erläutert bestimmt werden. In Abhängigkeit von dieser Bewegung wird auch das virtuelle Implantat I bezogen auf den Tisch 16 und die Fragmente F auf dem Touchscreen 10 bewegt, wie in Fi gur 7 visualisiert ist. Compared to FIGS. 2 to 4, a virtual implant I is additionally shown on the touchscreen 10 in FIGS. If the crosshairs 12 point to the virtual implant I, this is represented optically, for example by the virtual implant I being colored red. In order to select the virtual implant I, the tablet 14 is oriented in such a way that the crosshairs 12 lie over it comes as shown in Figure 6. If the touch screen 10 then touches is activated, a gripping function is activated. If the tablet 14 is now moved in rotation and/or translation, this movement can be determined by the processing unit of the tablet 14 as explained above. Depending on this movement, the virtual implant I is also moved in relation to the table 16 and the fragments F on the touchscreen 10, as is visualized in FIG.
Solange die Greiffunktion aktiviert ist (also solange der Touchscreen 10 berührt bleibt), wird das I virtuelle Implan tat I am Touchscreen 10 verankert. Analog zu oben wird hierun ter verstanden, dass bei einer weiteren rotatorischen und/oder translatorischen Bewegung des Tablets 14 nur das Bild des Ti sches 16 und die Fragmente F auf dem Touchscreen 10 entspre chend bewegt werden, nicht jedoch auch das virtuelle Implan tat I. As long as the gripping function is activated (ie as long as the touchscreen 10 remains touched), the virtual implant is anchored on the touchscreen 10 . Analogously to the above, this means that if the tablet 14 undergoes a further rotational and/or translational movement, only the image of the table 16 and the fragments F on the touchscreen 10 are moved accordingly, but not the virtual implant I.
Wenn die Berührung des Touchscreens 10 durch den Benutzer be endet wird, so wird die Greiffunktion deaktiviert. Das virtu elle Implantat I wird dann in derjenigen Position und derjeni gen Orientierung bezogen auf den Tisch 16 und die Fragmente F auf dem Touchscreen 10 belassen, die es zum Zeitpunkt der De aktivierung der Greiffunktion einnahm. Dies ist in Figur 7 dargestellt . When the user stops touching the touch screen 10, the gripping function is disabled. The virtual implant I is then left in that position and that orientation relative to the table 16 and the fragments F on the touchscreen 10 that it was in at the time the gripping function was deactivated. This is shown in FIG.
Die Position und die Orientierung des Tablets 14 in einer ge eigneten Darstellungsform, beispielsweise als 4x4-Transforma- tionsmatrix, können durch an sich bekannte Software bestimmt werden. Um zu detektieren, ob das Fadenkreuz 12 oder eine an dere Auswählmarkierung auf ein virtuelles Objekt gerichtet wird, kann mit an sich bekannten Verfahren berechnet werden, ob der Strahl aus dem Zentrum der Kamera entlang der optischen Achse (abgeleitet aus einer 4x4-Kameramatrix) einen Schnitt punkt mit einem Oberflächenmodell des virtuellen Objekts hat. Falls die optische Achse Schnittpunkte mit mehreren Oberflä- chenmodellen hat, wird bevorzugt das Objekt ausgewählt, dessen Schnittpunkt der Kamera am nächsten liegt. The position and orientation of the tablet 14 in a suitable form of representation, for example as a 4×4 transformation matrix, can be determined using software that is known per se. In order to detect whether the crosshairs 12 or another selection mark is directed at a virtual object, methods known per se can be used to calculate whether the beam from the center of the camera along the optical axis (derived from a 4×4 camera matrix) has a Intersection with a surface model of the virtual object. If the optical axis intersects with several surfaces the object whose intersection point is closest to the camera is selected preferentially.
Zum Greifen und Verankern kann die Transformation zwischen dem Tablet 14 und dem Zielobjekt zum Zeitpunkt des Greifens be- rechnet werden. Zum Bewegen des virtuellen Objekts wird diese Transformation mit der aktuellen Kameramatrix kombiniert und auf das virtuelle Objekt angewendet. Dies führt zu einer star ren Verankerung während des Greifens. For gripping and anchoring, the transformation between the tablet 14 and the target object at the time of gripping can be calculated. To move the virtual object, this transformation is combined with the current camera matrix and applied to the virtual object. This results in rigid anchorage during gripping.
Beides kann mit an sich bekannter Vektor- und Matrixmathematik sowie 3D-Geometrieverfahren implementiert werden. Both can be implemented with known vector and matrix mathematics as well as 3D geometry methods.

Claims

Patentansprüche patent claims
1. Computergestütztes Verfahren zum bewegten Darstellen ei nes realen Bildes eines Umfeldes und mindestens zweier virtueller Objekte (F, F') auf einem Bildschirm (10), enthaltend die Schritte a) Erfassen eines realen Bildes (17) eines Umfeldes, b) gemeinsames dreidimensionales Darstellen des Bil des (17) des Umfeldes, insbesondere des mindestens einen realen Objekts (16), und der virtuellen Ob jekte (F, F') auf dem Bildschirm (10), c) Auswahlen mindestens eines der virtuellen Objek te (Ff ) in Antwort auf die Aktivierung einer Greif funktion, d) Bestimmen einer rotatorischen und/oder translatori schen Bewegung eines Manipulationsgerätes (11), e) rotatorisches und/oder translatorisches Bewegen des Bildes (17) der Umgebung, insbesondere des realen Objekts (16), und der nicht ausgewählten virtuellen Objekte (F) relativ zum ausgewählten virtuellen Ob jekt (Ff ), in Abhängigkeit der im Schritt d) be stimmten rotatorischen und/oder translatorischen Bewegung des Manipulationsgerätes (11), solange die Greiffunktion aktiviert ist. 1. Computer-aided method for the moving representation of a real image of an environment and at least two virtual objects (F, F') on a screen (10), containing the steps of a) capturing a real image (17) of an environment, b) joint three-dimensional Displaying the image (17) of the environment, in particular the at least one real object (16), and the virtual objects (F, F') on the screen (10), c) selecting at least one of the virtual objects (F f ) in response to the activation of a gripping function, d) determining a rotary and/or translatory movement of a manipulation device (11), e) rotary and/or translatory movement of the image (17) of the environment, in particular of the real object (16) , and the non-selected virtual objects (F) relative to the selected virtual object (F f ), as a function of the rotational and/or translatory movement of the manipulation device (11) determined in step d), s as long as the grab function is activated.
2. Verfahren nach Anspruch 1, wobei das Manipulationsge rät (11) eine Kamera enthält, mit der ein reales Bild eines Umfeldes, insbesondere mindestens eines realen Ob jekts (16), aufgenommen wird, welches gemeinsam mit den virtuellen Objekten (F, F') auf dem Bildschirm (10) dar gestellt wird. 2. The method according to claim 1, wherein the manipulation device (11) contains a camera with which a real image of an environment, in particular at least one real object (16), is recorded, which is recorded together with the virtual objects (F, F' ) is displayed on the screen (10).
3. Verfahren nach Anspruch 2, wobei im Schritt d) die Bewe gung des Manipulationsgerätes (11) aus dem von der Kame- ra aufgenommenen Bild (17) des Umfeldes, insbesondere des mindestens einen realen Objekts (16), ermittelt wird. 3. The method according to claim 2, wherein in step d) the movement of the manipulation device (11) from the camera ra recorded image (17) of the environment, in particular the at least one real object (16) is determined.
4. Verfahren nach einem der vorangehenden Ansprüche, wobei die virtuellen Objekte (F, F') auf einem Bildschirm (10) des Manipulationsgerätes (11) dargestellt werden. 4. The method according to any one of the preceding claims, wherein the virtual objects (F, F') are displayed on a screen (10) of the manipulation device (11).
5. Verfahren nach einem der vorangehenden Ansprüche, wobei auf dem Bildschirm (10), insbesondere einem Bild schirm (10) des Manipulationsgerätes (11), eine virtuel le Auswählmarkierung (12) dargestellt wird, wobei beim Aktivieren der Greiffunktion dasjenige virtuelle Ob jekt (Ff ) ausgewählt wird, auf welches die Auswählmar kierung (12) auf dem Bildschirm (10) gerichtet ist. 5. The method according to any one of the preceding claims, wherein on the screen (10), in particular a screen (10) of the manipulation device (11), a virtual le selection mark (12) is displayed, wherein when activating the gripping function that virtual object ( F f ) is selected, on which the selection mark (12) on the screen (10) is directed.
6. Verfahren nach einem der vorangehenden Ansprüche, wobei auf dem Bildschirm (10) zusätzlich ein Implantat (I) an gezeigt wird. 6. The method according to any one of the preceding claims, wherein an implant (I) is additionally shown on the screen (10).
7. Verfahren nach einem der Ansprüche 5 und 6, wobei die virtuelle Auswählmarkierung (12) in einem zentralen Be reich des Bildschirms (10) dargestellt wird. 7. The method according to any one of claims 5 and 6, wherein the virtual selection mark (12) is displayed in a central area of the screen (10).
8. Verfahren nach einem der Ansprüche 5 bis 7, wobei der Bildschirm (10) ein Touchscreen (10) ist und die Greif funktion aktiviert wird, wenn ein Benutzer den Touch screen (10) berührt. 8. The method according to any one of claims 5 to 7, wherein the screen (10) is a touch screen (10) and the gripping function is activated when a user touches the touch screen (10).
9. Verfahren nach Anspruch 8, wobei die Greiffunktion so lange aktiviert bleibt, wie der Benutzer den Touch screen (10) berührt, und deaktiviert wird, wenn die Be rührung des Touchscreens (10) durch den Benutzer beendet wird. The method of claim 8, wherein the gripping function remains activated as long as the user is touching the touch screen (10) and is deactivated when the user stops touching the touch screen (10).
10. Verfahren nach einem der vorangehenden Ansprüche, wobei das ausgewählte virtuelle Objekt (Ff ) in derjenigen Po sition und derjenigen Orientierung bezogen auf die ande ren virtuellen Objekte (F) auf dem Bildschirm, insbeson- dere dem Touchscreen (10), belassen wird, die es zum10. The method as claimed in one of the preceding claims, in which the selected virtual object (F f ) is left in that position and that orientation in relation to the other virtual objects (F) on the screen, in particular the touch screen (10). who it is for
Zeitpunkt der Deaktivierung der Greiffunktion einnahm.time of deactivation of the gripping function.
11. Computergestütztes Verfahren gemäss einem der vorange henden Ansprüche zum Planen einer Operation einer anato mischen Struktur mit mindestens zwei Teilstrukturen, insbesondere eines mindestens zwei Fragmente (F, F') enthaltenden frakturierten Knochens, in dem die Schrit te a) bis e) durchgeführt werden, wobei die virtuellen Objekte (F, F') Bilder der Teilstrukturen, insbesondere der Fragmente, sind. 11. Computer-supported method according to one of the preceding claims for planning an operation on an anatomical structure with at least two partial structures, in particular a fractured bone containing at least two fragments (F, F'), in which steps a) to e) are carried out , where the virtual objects (F, F') are images of the partial structures, in particular the fragments.
12. Verfahren nach Anspruch 11, wobei auf dem Bild schirm (10) zusätzlich ein Implantat (I) angezeigt wird. 12. The method according to claim 11, wherein an implant (I) is additionally displayed on the screen (10).
13. Computerprogrammprodukt, welches ein Verfahren nach ei nem der Ansprüche 1 bis 12 ausführt, wenn es auf einem Gerät (14), insbesondere einem mobilen Gerät (14), läuft, wobei das Gerät (14) einen Bildschirm (10), ins besondere einen Touchscreen (10) aufweist, und wobei das mobile Gerät (14) zum Bestimmen einer rotatorischen und/oder translatorischen Bewegung des Geräts (14) aus gebildet ist. 13. Computer program product which executes a method according to egg nem of claims 1 to 12 when it runs on a device (14), in particular a mobile device (14), wherein the device (14) has a screen (10), in particular has a touchscreen (10), and wherein the mobile device (14) is designed to determine a rotational and/or translational movement of the device (14).
PCT/EP2021/063500 2021-05-20 2021-05-20 Computer-supported method for a moving display of an image of a real surrounding area and at least two virtual objects on a screen WO2022242863A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/EP2021/063500 WO2022242863A1 (en) 2021-05-20 2021-05-20 Computer-supported method for a moving display of an image of a real surrounding area and at least two virtual objects on a screen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2021/063500 WO2022242863A1 (en) 2021-05-20 2021-05-20 Computer-supported method for a moving display of an image of a real surrounding area and at least two virtual objects on a screen

Publications (1)

Publication Number Publication Date
WO2022242863A1 true WO2022242863A1 (en) 2022-11-24

Family

ID=76159423

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/063500 WO2022242863A1 (en) 2021-05-20 2021-05-20 Computer-supported method for a moving display of an image of a real surrounding area and at least two virtual objects on a screen

Country Status (1)

Country Link
WO (1) WO2022242863A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019036790A1 (en) 2017-08-21 2019-02-28 Precisionos Technology Inc. Medical virtual reality, mixed reality or augmented reality surgical system
WO2019161477A1 (en) 2018-02-26 2019-08-29 Precisionos Technology Inc. Medical virtual reality, mixed reality or augmented reality surgical system with medical information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019036790A1 (en) 2017-08-21 2019-02-28 Precisionos Technology Inc. Medical virtual reality, mixed reality or augmented reality surgical system
WO2019161477A1 (en) 2018-02-26 2019-08-29 Precisionos Technology Inc. Medical virtual reality, mixed reality or augmented reality surgical system with medical information

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ARTY - AUGMENTED REALITY APPS DEVELOPMENT: "Myty AR - Interior designing experience with Augmented Reality!", 31 May 2018 (2018-05-31), XP055885878, Retrieved from the Internet <URL:https://www.youtube.com/watch?v=uNUcVPjnysE> [retrieved on 20220201] *
CHAMELEON POWER: "AR Technology for Home Décor Visualization & Interior Design in Real Time", 19 April 2019 (2019-04-19), XP055885881, Retrieved from the Internet <URL:https://www.youtube.com/watch?v=0h4JGrJMZdw> [retrieved on 20220201] *
LOVEJOY BEN: "Liver surgery: now there's an iPad app for that - 9to5Mac", 21 August 2013 (2013-08-21), XP055885894, Retrieved from the Internet <URL:https://9to5mac.com/2013/08/21/liver-surgery-now-theres-an-ipad-app-for-that/> [retrieved on 20220201] *

Similar Documents

Publication Publication Date Title
DE102018109463C5 (en) Method for using a multi-unit actuated kinematics, preferably a robot, particularly preferably an articulated robot, by a user using a mobile display device
DE102019009313B4 (en) Robot control, method and computer program using augmented reality and mixed reality
DE102012110190B4 (en) Manually operated robot control and method for controlling a robot system
DE102012110508B4 (en) Robot adjustment device with 3-D display
DE102015103735A1 (en) Method and device for testing a device to be operated in an aircraft
EP1447770B1 (en) Method and apparatus for visualization of computer-based information
EP2289061B1 (en) Ophthalmoscope simulator
WO2012107041A1 (en) Endoscopic image processing system having means which generate geometric measurement information in the detection range of an optical digital camera
DE19917660A1 (en) Method and input device for controlling the position of an object to be graphically represented in a virtual reality
EP2467822B1 (en) Continuous determination of a perspective
DE102010043584A1 (en) Medical workstation
DE202008014481U1 (en) Portable robotic control device for controlling a movement of a robot
DE102016212236A1 (en) Interaction system and procedure
EP3709133A1 (en) Virtual object haptic interaction system for virtual reality applications
WO2013034133A1 (en) Interaction with a three-dimensional virtual scenario
WO2022242863A1 (en) Computer-supported method for a moving display of an image of a real surrounding area and at least two virtual objects on a screen
EP3990231B1 (en) System for performing an input on a robotic manipulator
WO2005050335A1 (en) Device and method for programming an industrial robot
DE10335369A1 (en) Mixed reality display for the operation and control of surgical instruments, and especially a microscope, is prepared by setting the operating keys and the pointer within the virtual space
DE102013208762A1 (en) Intuitive gesture control
Zhai et al. Asymmetrical spatial accuracy in 3D tracking
DE102019118012B3 (en) Method and device for controlling a robot system by means of human movement
DE102010036904A1 (en) Haptic measurement device for use in surgical training apparatus for haptic acquisition of human body, has evaluation unit controlling actuator unit based on evaluation of interaction of extension of manipulator with virtual reaction space
WO2021165106A1 (en) Installation site of a robot manipulator
WO2018007102A1 (en) Method for the interaction of an operator with a model of a technical system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21728196

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21728196

Country of ref document: EP

Kind code of ref document: A1