DE19944516A1 - Dreidimensionale Formerfassung mit Kamerabildern - Google Patents

Dreidimensionale Formerfassung mit Kamerabildern

Info

Publication number
DE19944516A1
DE19944516A1 DE19944516A DE19944516A DE19944516A1 DE 19944516 A1 DE19944516 A1 DE 19944516A1 DE 19944516 A DE19944516 A DE 19944516A DE 19944516 A DE19944516 A DE 19944516A DE 19944516 A1 DE19944516 A1 DE 19944516A1
Authority
DE
Germany
Prior art keywords
camera
shape
detected
navigation system
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19944516A
Other languages
English (en)
Other versions
DE19944516B4 (de
Inventor
Stefan Vilsmeier
Rainer Birkenbach
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brainlab AG
Original Assignee
Brainlab Medizinische Computersysteme GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brainlab Medizinische Computersysteme GmbH filed Critical Brainlab Medizinische Computersysteme GmbH
Priority to DE19944516A priority Critical patent/DE19944516B4/de
Priority to US09/662,045 priority patent/US6947582B1/en
Publication of DE19944516A1 publication Critical patent/DE19944516A1/de
Application granted granted Critical
Publication of DE19944516B4 publication Critical patent/DE19944516B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Erfassung einer Objektform mit den folgenden Schritten: a) ein Kamerabild des Objektes wird erstellt; b) ein Umriß des Objektes in einer ersten Ebene, der in dem Kamerabild scharf erscheint, wird durch eine mit der Kamera verbundene Auswertungseinheit erfaßt; c) der Fokussierungsabstand der Kamera wird verändert; d) ein scharfer Umriß des Objektes in einer zweiten Ebene wird durch die Auswertungseinheit erfaßt; e) die Schritte b) bis d) werden wiederholt, bis eine ausreichende Zahl von Umrissen erfaßt ist, so daß die räumliche Form des Objektes festgestellt werden kann. Sie betrifft ferner eine Vorrichtung zur Durchführung dieses Verfahrens.

Description

Die vorliegende Erfindung betrifft ein Verfahren sowie eine Vorrichtung zur Erfassung einer Objektform.
Es gibt verschiedene Anwendungen, bei denen es von Wichtigkeit ist, die äußere Form eines Objektes genau zu kennen. Eine solche Anwendung liegt beispielsweise auf dem Gebiet der Medizintechnik. So werden Patienten vor chirurgischen oder strahlentherapeutischen Maßnahmen z. B. mittels einer Computertomographie gescannt, um die Lage einer Gewebsveränderung im Körper oder in einem Körperteil festzustellen. Dabei werden auch Marker oder hervorgehobene Punkte am Körperteil mitgescannt, deren Positionsdaten später in einem chirurgischen Navigationssystem, das den Behandlungsraum interoperativ überwacht, um als Hilfestellung für den Chirurgen oder Strahlentherapeuten zu dienen, verwertet werden.
Bei solchen Verfahren muß nachteiligerweise vor der Behandlung mit Hilfe des Navigationssystems eine aufwendige Zuordnung der Lagedaten aus dem CT-Scan zu den tatsächlichen Raumdaten im Operationsraum erfolgen. Diese Zuordnung ist einerseits aufwendig, da entsprechende Marker auf der Haut per Hand mit einem Referenzierungsgerät angefahren und identifiziert werden müssen; andererseits ist sie des öfteren ungenau, da sich beispielsweise Hautmarker beim Referenzierungsvorgang sehr leicht verschieben können. Automatische Referenzierungen mit Markern oder anhand von natürlichen Landmarken sind sehr rechenaufwendig.
Ein weiterer Nachteil solcher Lage- und Formzuordnungsverfahren besteht darin, daß sie zum Zeitpunkt der Behandlung oder Operation nicht unbedingt die genauen tatsächlichen Lagedaten für die Außenform oder eine Innenform wiedergeben. Diese Formdaten stammen nämlich beispielsweise aus einer Computertomographie, die zeitlich vor dem Eingriff durchgeführt wurde und lediglich die Markerpositionen werden aktuell erfaßt. Es kann nun vorkommen, daß sich durch Verschiebungen die Position von Gewebepunkten zu den Markern ändert, und zwar schon beim Transport vom Computertomographen in den Behandlungssaal. Dadurch wird die Form- und Lageerfassung im Navigationssystem unkorrekt und kann zu Fehlbehandlungen führen.
Es ist die Aufgabe der vorliegenden Erfindung, ein Verfahren sowie eine Vorrichtung zur Erfassung einer Objektform bereitzustellen, welche dazu in der Lage sind, die oben genannten Nachteile des Standes der Technik zu überwinden. Insbesondere soll eine schnelle und aktuell genaue Objektformerfassung ermöglicht werden.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren zur Erfassung einer Objektform mit den folgenden Schritten gelöst:
  • a) ein Kamerabild des Objektes wird erstellt;
  • b) ein Umriß des Objektes in einer ersten Ebene, der in dem Kamerabild scharf erscheint, wird durch eine mit der Kamera verbundene Auswertungseinheit erfaßt;
  • c) der Fokussierungsabstand der Kamera wird verändert;
  • d) ein scharfer Umriß des Objektes in einer zweiten Ebene wird durch die Auswertungseinheit erfaßt;
  • e) die Schritte b) bis d) werden wiederholt, bis eine ausreichende Zahl von Umrissen erfaßt ist, so daß die räumliche Form des Objektes festgestellt werden kann.
Dieses erfindungsgemäße Verfahren hat den großen Vorteil, daß es automatisch und sehr schnell erfolgen kann. Nach der Durchführung des Verfahrens steht die äußere Form des Objektes genau und vor allen Dingen aktuell fest, so daß hierauf folgende Referenzierungen ebenfalls mit einer hohen Genauigkeit durchgeführt werden können. Dies verkürzt insbesondere auf dem Gebiet der chirurgischen und strahlentherapeutischen Behandlungen die Vorbereitungszeit für den Eingriff, macht diese Eingriffsvorbereitung einfacher und unterstützt die Genauigkeit der Behandlung, wodurch Fehlbehandlungen vermieden werden können.
Bei einer bevorzugten Ausführungsform der Erfindung wird durch eine Erfassung von Kontrastunterschieden festgestellt, welcher Umriß in dem Kamerabild scharf erscheint. Wenn in der Auswertungseinheit nunmehr bekannt ist, welcher Fokussierungsabstand vorliegt, werden in diesem Bereich, nämlich in dem Bereich der größten Schärfe des Bildes, auch die höchsten Kontrastunterschiede vorhanden sein. Demnach ist der gesuchte Umriß derjenige, bei dem die Kontrastunterschiede am höchsten sind, und sein Abstand, das heißt die Lage der Ebene, in der er von der Kamera entfernt liegt, ist bekannt, so daß auf dieser Ebene eine eindeutige Umrißzuordnung stattfinden kann. Es ist hierbei beispielsweise auch möglich, den Fokussierungsabstand bei der Erfassung eines Umrisses an einer Ebene vorübergehend zu variieren, um durch Mittelwertbildung die stärksten Kontrastunterschiede und damit die genaue Lage der gesuchten Ebene zu ermitteln.
Wenn dies für eine genügende Anzahl von Ebenen und Umrissen in diesen Ebenen erfolgt, kann damit eine äußerst genaue Erfassung der Objektform stattfinden.
Eine besonders genaue Umrißerfassung läßt sich erreichen, wenn eine Videokamera verwendet wird, deren Schärfentiefe sehr gering ist. Eine solche sehr geringe Schärfentiefe sorgt dafür, daß ein scharfer Umriß nur in einem sehr kleinen Abstandsbereich um den Fokussierungsabstand der Kamera herum erscheint. Mit einer Schärfentiefe, die gegen Null geht, könnte deshalb theoretisch der exakte Abstand der Ebene, in welcher der erfaßte Umriß liegt, erfaßt werden. Mit sehr geringen Schärfentiefen lassen sich deshalb sehr genaue Erfassungen vornehmen.
Grundsätzlich können gemäß der Erfindung an dem zu erfassenden Objekt Markierungen angebracht werden, um bestimmte Objektpunkte eindeutig erfaßbar zu machen. Es kann sich hierbei um Lichtmarkierungen, aufgesetzte Marker oder aufgeklebte Muster handeln, welche beispielsweise die Erfassung des schärfsten Bildes bzw. der höchsten Kontrastunterschiede vereinfachen.
Die Auswertungseinheit, die beim erfindungsgemäßen Verfahren verwendet wird, ist vorzugsweise ein Computer mit einem Bildverarbeitungsprogramm, wobei analoge Bildsignale (durch einen Analog-/Digitalwandler), die von der Kamera erfaßt werden, digitalisiert und dann verarbeitet werden.
Eine besonders vorteilhafte Ausführungsform des erfindungsgemäßen Verfahrens wird dann erzielt, wenn die Kamera eine Kamera eines chirurgischen Mikroskops ist. Bei hohen Vergrößerungen wird nämlich die Schärfentiefe geringer, so daß die oben in diesem Zusammenhang schon angesprochenen Vorteile erzielt werden können. Im medizinischen Bereich und in Kombination mit einem Navigationssystem kann die vorliegende Erfindung grundsätzlich in zweierlei Art und Weise Anwendung finden. Einerseits kann die Form eines zu behandelnden Körperteils eines Patienten als Objekt erfaßt werden, wobei die erfaßte Form durch ein das Behandlungsgebiet überwachendes Navigationssystem verarbeitet wird, um so die äußere Form des Körperteils bei der Navigation einbeziehen zu können. Andererseits besteht die Möglichkeit, am Objekt mindestens einen durch das Navigationssystem erfaßbaren Marker anzubringen, um die auch die von der Kamera erfaßte Markerposition zu verwenden, um die Lage und Form des Objekts dem Navigationssystem zuzuordnen.
Natürlich können für die Zuordnung im Navigationssystem auch natürliche Landmarken und künstliche Marker in Kombination verwendet werden.
Wenn eine natürliche Landmarke zur Zuordnung verwendet wird, wird gemäß dem erfindungsgemäßen Verfahren am Objekt mindestens ein durch das Navigationssystem erfaßbarer Punkt ausgewählt (beispielsweise die Nasenwurzel eines Patienten), um über die auch von der Kamera erfaßte Position dieses Punktes bzw. mehrerer dieser Punkte die Lage und Form des Objekts dem Navigationssystem zuzuordnen.
Das erfindungsgemäße Verfahren kann zur Verifizierung und Aktualisierung der gewünschten Positionsdaten zusammen mit einem Navigationssystem zur Lagereferenzierung verwendet werden, und zwar vorzugsweise bei einem Strahlentherapieverfahren oder bei einem chirurgischen Eingriff. Dies erhöht die Behandlungsgenauigkeit.
Vorteilhafterweise wird hierbei die erfaßte Form eines Körperteils derjenigen zugeordnet, welche durch ein präoperatives Scanverfahren, z. B. eine Computertomographie oder eine Kernspintomographie, bestimmt wurde. Hierdurch kann, auch wenn sich während des Patiententransportes eine Lageveränderung ergeben hat, also die CT- oder Kernspintomographie-Positionsdaten nicht mehr vollständig korrekt sind, ein Abgleich und eine Lagekorrektur durchgeführt werden, wodurch wiederum Fehlbehandlungen vermieden werden können. Ein großer Vorteil ist hierbei, daß der erfindungsgemäße Erfassungsvorgang durchaus auch während einer Operation, das heißt während eines chirurgischen Eingriffs, am offenen Körperteil vorgenommen werden kann. Dabei können natürlich auch die Umrisse in der geschaffenen Körperöffnung erfaßt und zur Abgleichung des gescannten Bildes verwendet werden. Die schon entfernten Teile können dann auch in dem vom Navigationssystem gelieferten Bild ausgeschnitten werden, um dem behandelnden Chirurgen eine bessere und aktuellere Behandlungsunterstützung zu gewähren. Dabei werden jeweils beispielsweise Dichtewerte erstellt, die genau der neuen Oberfläche entsprechen.
Des weiteren kann das erfindungsgemäße Verfahren natürlich auch dazu verwendet werden, einen intelligenten Autofokus zur Verfügung zu stellen. Hierzu wird die erfaßte Objektform, die in der Auswertungseinheit schon vorliegt, dazu verwendet, um automatisch durch den Benutzer vorgegebene Objektpunkte bzw. -ebenen zu fokussieren. Der Benutzer kann also beispielsweise in sein Navigationssystem eingeben, in welcher Umrißebene er ein scharfes Bild erhalten möchte, und zwar z. B. durch Koordinateneingabe oder durch die Verwendung eines taktilen Bildschirms. Die Kamera kann dann exakt diese Umrißebene fokussieren.
Ferner ist es durch die vorliegende Erfindung möglich, ein "superscharfes Bild" bzw. ein "unendlich scharfes Bild" zu erhalten. Die erfaßte Objektform kann nämlich auch dazu verwendet werden, ein in jeder Tiefe scharfes Bild zu erstellen. Hierzu wird jeweils der scharfe Bereich (Kontur) - z. B. ein Ring von 2 mm bis 3 mm Breite - aus jedem Bild extrahiert und mit den anderen scharfen Bereichen aus anderen Fokussierungsebenen zu einem Gesamtbild zusammengesetzt.
Ganz allgemein soll hier noch hinzugefügt werden, daß Objekte gemäß dem erfindungsgemäßen Verfahren durchaus von verschiedenen Seiten her aufgenommen werden können, wobei entweder über eine genau bekannte neue Kameraposition oder durch die Zuordnung von künstlichen Markern oder natürlichen Landmarken rechnerisch eine Zuordnung der beiden Erfassungen erfolgt, so daß ein Gesamtbild entsteht. Dadurch können auch Probleme vermieden werden, die durch Hinterschneidungen am Objekt entstehen und die Erfassung kann vervollständigt werden.
Die erfindungsgemäße Vorrichtung zur Erfassung einer Objektform weist eine Kamera auf, die eine Einrichtung zur automatisch oder manuell ansteuerbaren Änderung des Fokussierungsabstandes hat. Ferner umfaßt sie eine Auswertungseinheit, die mit der Kamera verbunden ist und die in verschiedenen Fokussierungsabständen bzw. -ebenen scharf erscheinende Umrisse des Objektes nacheinander erfaßt, bis eine ausreichende Zahl von Umrissen erfaßt ist, so daß die räumliche Form des Objektes festgestellt werden kann.
Wie schon oben erwähnt, ist es hierbei von Vorteil, wenn die Kamera eine Videokamera (digital oder analog) ist, deren Schärfentiefe sehr gering ist. Wie ebenfalls schon bei der Beschreibung des erfindungsgemäßen Verfahrens erläutert wurde, ist die Auswertungseinheit vorzugsweise ein Computer mit einem Bildverarbeitungsprogramm, wobei digitale Bildsignale verarbeitet werden bzw. analoge Bildsignale, die von der Kamera erfaßt werden, digitalisiert und dann verarbeitet werden, und wobei das Bildverarbeitungsprogramm insbesondere durch eine Erfassung von Kontrastunter­ schieden feststellt, welcher Umriß in dem Kamerabild scharf erscheint. Die Kamera ist bevorzugt diejenige an einem chirurgischen Mikroskop.
Die Erfindung wird nun im weiteren anhand einer bevorzugten Ausführungsform und unter Bezugnahme auf die beiliegende Zeichnung näher erläutert.
In der Zeichnung ist schematisch eine erfindungsgemäße Vorrichtung zur Erfassung der Form eines Objektes dargestellt. In dem dargestellten Beispiel trägt das vereinfacht dargestellte Mikroskop 3 eine Kamera 1, und zwar in diesem Fall eine Videokamera mit einer sehr geringen Schärfentiefe.
Die Videokamera 1 erstellt ein Kamerabild des Objektes 2 in dem gestrichelt dargestellten Aufnahmebereich.
Das Objekt 2 hat eine unregelmäßige Außenform. Zur Erfassung der Form des Objektes 2 wird nunmehr beispielsweise von oben herab eine Ebene nach der anderen durch die Veränderung, insbesondere automatische Veränderung des Fokussierungsabstandes der Kamera 1 scharf gestellt. In der Zeichnung sind als Beispiel drei Ebenen 4, 5 und 6 gezeigt, die nacheinander angefahren werden. Tatsächlich wird bei der Formerfassung natürlich eine sehr viel größere Anzahl von Ebenen angefahren, und zwar so viele, wie zur genauen Erfassung der Objektform notwendig sind. Bei sehr komplizierten Objektformen kann auch automatisch in bestimmten Abstandsbereichen die Anzahl der Fokussierungsebenen erhöht werden.
Beim Anfahren der Ebenen 4, 5 und 6, wie sie in der Figur dargestellt sind, wird jeweils ein Umriß des Objektes 2 scharf erscheinen, der in der Zeichnung für die jeweiligen Ebenen gepunktet in Projektion dargestellt ist. Die äußersten Punkte sind für die jeweiligen Ebenen linksseitig mit 7, 8 und 9 bezeichnet und etwas verstärkt dargestellt. Wenn die Kamera 1 automatisch ihren Fokussierungsabstand beispielsweise auf die Ebene 4 einstellt, werden alle Punkte 7 am Objekt 2 in dieser Ebene scharf erscheinen und aus diesen scharfen Punkten kann nunmehr der Umriß des Objekts 2 in der Ebene 4 ermittelt werden. Dazu werden die Bilddaten aus der Kamera 1 über eine Datenleitung 10 zu einem Computer C übertragen, der die analogen Bildsignale digitalisiert und mittels eines Bildverarbeitungsprogramms die Umrißdaten feststellt.
Wenn dieser Vorgang dann für weitere Ebenen, z. B. die Ebenen 5 und 6, in den meisten Fällen jedoch auch für viele dazwischenliegende Ebenen, wiederholt wird, läßt sich damit die Form des Objektes 2 genau und aktuell erfassen.

Claims (17)

1. Verfahren zur Erfassung einer Objektform mit den folgenden Schritten:
  • a) ein Kamerabild des Objektes wird erstellt;
  • b) ein Umriß des Objektes in einer ersten Ebene, der in dem Kamerabild scharf erscheint, wird durch eine mit der Kamera verbundene Auswertungseinheit erfaßt;
  • c) der Fokussierungsabstand der Kamera wird verändert;
  • d) ein scharfer Umriß des Objektes in einer zweiten Ebene wird durch die Auswertungseinheit erfaßt;
  • e) die Schritte b) bis d) werden wiederholt, bis eine ausreichende Zahl von Umrissen erfaßt ist, so daß die räumliche Form des Objektes festgestellt werden kann.
2. Verfahren nach Anspruch 1, bei dem durch eine Erfassung von Kontrastunterschieden festgestellt wird, welcher Umriß in dem Kamerabild scharf erscheint.
3. Verfahren nach Anspruch 1 oder 2, bei dem als Kamera eine Videokamera verwendet wird, deren Schärfentiefe sehr gering ist.
4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem an dem Objekt Markierungen angebracht werden, um bestimmte Objektpunkte eindeutig erfaßbar zu machen.
5. Verfahren nach einem der Ansprüche 1 bis 4, bei dem die Auswertungseinheit ein Computer mit einem Bildverarbeitungsprogramm ist, wobei digitale Bildsignale verarbeitet werden bzw. analoge Bildsignale, die von der Kamera erfaßt werden, digitalisiert und dann verarbeitet werden.
6. Verfahren nach einem der Ansprüche 1 bis 5, bei dem eine Kamera an einem chirurgischen Mikroskop verwendet wird.
7. Verfahren nach einem der Ansprüche 1 bis 7, bei dem die Form eines zu behandelnden Körperteils eines Patienten als Objekt erfaßt wird, wobei die erfaßte Form durch ein das Behandlungsgebiet überwachendes Navigationssystem verarbeitet wird, um so die äußere Form des Körperteils bei der Navigation einbeziehen zu können.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß am Objekt mindestens ein durch das Navigationssystem erfaßbarer Marker angebracht wird, um über die auch von der Kamera erfaßte Markerposition(en) die Lage und Form des Objektes im Navigationssystem zuzuordnen.
9. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß am Objekt mindestens ein durch das Navigationssystem erfaßbarer fester Punkt ausgewählt wird, um über die auch von der Kamera erfaßte Position dieses Punktes bzw. dieser Punkte die Lage und Form des Objektes im Navigationssystem zuzuordnen.
10. Verfahren nach einem der Ansprüche 7 bis 9, welches zusammen mit einem Navigationssystem zur Lagereferenzierung bei einem Strahlentherapieverfahren oder bei einem chirurgischen Eingriff verwendet wird.
11. Verfahren nach einem der Ansprüche 7 bis 10, bei dem die erfaßte Form eines Körperteil derjenigen zugeordnet wird, welche durch ein präoperatives oder intraoperatives Scanverfahren, z. B. eine Computertomographie oder eine Kernspintomographie bestimmt wurde, um einen Abgleich bzw. eine Lagekorrektur durchzuführen.
12. Verfahren nach einem der Ansprüche 1 bis 6, bei dem die erfaßte Objektform dazu verwendet wird, automatisch durch den Benutzer vorgegebene Objektpunkte bzw. -ebenen zu fokussieren.
13. Verfahren nach einem der Ansprüche 1 bis 6, bei dem die erfaßte Objektform dazu verwendet wird, ein in jeder Tiefe scharfes Bild zu erstellen.
14. Vorrichtung zur Erfassung einer Objektform mit einer Kamera (1), die eine Einrichtung zur automatisch oder manuell ansteuerbaren Änderung des Fokussierungsabstand aufweist, sowie eine Auswertungseinheit, die mit der Kamera (1) verbunden ist und die in verschiedenen Fokussierungsabständen bzw. ebenen (4, 5, 6) scharf erscheinenden Umrisse des Objektes (2) nacheinander erfaßt, bis eine ausreichende Zahl von Umrissen erfaßt ist, so daß die räumliche Form des Objektes (2) festgestellt werden kann.
15. Vorrichtung nach Anspruch 14, bei der die Kamera eine Videokamera ist, deren Schärfentiefe sehr gering ist.
16. Vorrichtung nach Anspruch 14 oder 15, bei der die Auswertungseinheit ein Computer mit einem Bildverarbeitungsprogramm ist, wobei analoge Bildsignale, die von der Kamera erfaßt werden, digitalisiert und dann verarbeitet werden, wobei das Bildverarbeitungsprogramm durch eine Erfassung von Kontrastunterschieden feststellt, welcher Umriß in dem Kamerabild scharf erscheint.
17. Vorrichtung nach einem der Ansprüche 14 bis 16, bei der die Kamera an einem chirurgischen Mikroskop angebracht ist.
DE19944516A 1999-09-16 1999-09-16 Dreidimensionale Formerfassung mit Kamerabildern Expired - Lifetime DE19944516B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE19944516A DE19944516B4 (de) 1999-09-16 1999-09-16 Dreidimensionale Formerfassung mit Kamerabildern
US09/662,045 US6947582B1 (en) 1999-09-16 2000-09-15 Three-dimensional shape detection by means of camera images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19944516A DE19944516B4 (de) 1999-09-16 1999-09-16 Dreidimensionale Formerfassung mit Kamerabildern

Publications (2)

Publication Number Publication Date
DE19944516A1 true DE19944516A1 (de) 2001-04-12
DE19944516B4 DE19944516B4 (de) 2006-08-17

Family

ID=7922308

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19944516A Expired - Lifetime DE19944516B4 (de) 1999-09-16 1999-09-16 Dreidimensionale Formerfassung mit Kamerabildern

Country Status (2)

Country Link
US (1) US6947582B1 (de)
DE (1) DE19944516B4 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10249025A1 (de) * 2002-06-13 2004-01-08 Möller-Wedel GmbH Verfahren zur Präsenzoptimierung bei der Navigation, insbesondere Neuronavigation,in der Chirurgie mit einem Operationsmikroskop und mindestens einem an den Beobachtungs-Strahlengang des Mikroskops gekoppelten optoelektronischen Bildempfänger sowie einem Computersystem einschließlich Navigationsinstrument hierfür
US7728280B2 (en) 2006-12-11 2010-06-01 Brainlab Ag Multi-band tracking and calibration system
DE102004047928B4 (de) * 2004-10-01 2011-02-24 Carl Mahr Holding Gmbh Optisches 3D-Messverfahren und Messeinrichtung
DE102011114932A1 (de) * 2011-10-06 2013-04-11 Hommel-Etamic Gmbh Verfahren zur Ermittlung einer Kontur einer Oberfläche
US8917900B2 (en) 2009-03-13 2014-12-23 Omron Corporation Measurement apparatus
US9002432B2 (en) 2004-11-15 2015-04-07 Brainlab Ag Method and device for calibrating a medical instrument
DE102016101832A1 (de) * 2016-02-02 2017-08-03 Frt Gmbh Verfahren und Messvorrichtung zur Messung der Topographie unter Verwendung von mindestens zwei Höhenebenen einer Oberfläche
US11311339B2 (en) 2002-10-04 2022-04-26 Orthosoft Inc. Computer-assisted hip replacement surgery

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1725166B1 (de) 2004-02-20 2011-03-30 University of Florida Research Foundation, Inc. System zur verabreichung von konformer strahlungstherapie unter gleichzeitiger abbildung von weichem gewebe
US7319529B2 (en) 2004-06-17 2008-01-15 Cadent Ltd Method and apparatus for colour imaging a three-dimensional structure
US7583272B2 (en) * 2004-11-29 2009-09-01 Purdue Research Foundation Methods for retrieving shapes and drawings
US7840256B2 (en) * 2005-06-27 2010-11-23 Biomet Manufacturing Corporation Image guided tracking array and method
US20070038059A1 (en) * 2005-07-07 2007-02-15 Garrett Sheffer Implant and instrument morphing
US7643862B2 (en) 2005-09-15 2010-01-05 Biomet Manufacturing Corporation Virtual mouse for use in surgical navigation
US8165659B2 (en) 2006-03-22 2012-04-24 Garrett Sheffer Modeling method and apparatus for use in surgical navigation
US8934961B2 (en) 2007-05-18 2015-01-13 Biomet Manufacturing, Llc Trackable diagnostic scope apparatus and methods of use
US20080319491A1 (en) 2007-06-19 2008-12-25 Ryan Schoenefeld Patient-matched surgical component and methods of use
KR101669323B1 (ko) 2007-10-02 2016-10-25 테라노스, 인코포레이티드 모듈러 현장 진료 장치 및 이의 용도
US8571637B2 (en) 2008-01-21 2013-10-29 Biomet Manufacturing, Llc Patella tracking method and apparatus for use in surgical navigation
KR101494066B1 (ko) 2010-10-05 2015-02-16 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 공간 광 패턴에 기초한 깊이 데이터의 생성
SG192069A1 (en) 2011-01-21 2013-08-30 Theranos Inc Systems and methods for sample use maximization
US8435738B2 (en) 2011-09-25 2013-05-07 Theranos, Inc. Systems and methods for multi-analysis
US9619627B2 (en) 2011-09-25 2017-04-11 Theranos, Inc. Systems and methods for collecting and transmitting assay results
US9632102B2 (en) 2011-09-25 2017-04-25 Theranos, Inc. Systems and methods for multi-purpose analysis
US8475739B2 (en) 2011-09-25 2013-07-02 Theranos, Inc. Systems and methods for fluid handling
US8840838B2 (en) 2011-09-25 2014-09-23 Theranos, Inc. Centrifuge configurations
US9268915B2 (en) * 2011-09-25 2016-02-23 Theranos, Inc. Systems and methods for diagnosis or treatment
US20140170735A1 (en) 2011-09-25 2014-06-19 Elizabeth A. Holmes Systems and methods for multi-analysis
US9664702B2 (en) 2011-09-25 2017-05-30 Theranos, Inc. Fluid handling apparatus and configurations
US9250229B2 (en) 2011-09-25 2016-02-02 Theranos, Inc. Systems and methods for multi-analysis
US10012664B2 (en) 2011-09-25 2018-07-03 Theranos Ip Company, Llc Systems and methods for fluid and component handling
US9810704B2 (en) 2013-02-18 2017-11-07 Theranos, Inc. Systems and methods for multi-analysis
US10561861B2 (en) 2012-05-02 2020-02-18 Viewray Technologies, Inc. Videographic display of real-time medical treatment
US9889318B2 (en) 2012-10-26 2018-02-13 Viewray Technologies, Inc. Assessment and improvement of treatment using imaging of physiological responses to radiation therapy
US9446263B2 (en) 2013-03-15 2016-09-20 Viewray Technologies, Inc. Systems and methods for linear accelerator radiotherapy with magnetic resonance imaging
TWI618640B (zh) * 2013-09-13 2018-03-21 Silicon Touch Technology Inc. 立體列印系統以及立體列印方法
KR20180087310A (ko) 2015-11-24 2018-08-01 뷰레이 테크놀로지스 인크. 방사선 빔 시준 시스템 및 방법
CA2958766C (en) * 2016-02-25 2018-01-02 Synaptive Medical (Barbados) Inc. System and method for scope based depth map acquisition
CN109310879A (zh) 2016-03-02 2019-02-05 优瑞技术公司 利用磁共振成像的粒子疗法
CN109642933B (zh) 2016-06-22 2022-09-06 优瑞技术公司 低场强磁共振成像
CA3046091A1 (en) 2016-12-13 2018-06-21 Viewray Technologies, Inc. Radiation therapy systems and methods
DE102017009804A1 (de) * 2017-10-20 2019-04-25 Vermicon Ag Verfahren zur Bewertung von mikroskopischen Proben und Vorrichtung zur Ausführung dieses Verfahrens
JP7127126B2 (ja) 2017-12-06 2022-08-29 ビューレイ・テクノロジーズ・インコーポレイテッド 放射線治療のシステム、方法およびソフトウェア
US11209509B2 (en) 2018-05-16 2021-12-28 Viewray Technologies, Inc. Resistive electromagnet systems and methods

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3406375A1 (de) * 1984-02-22 1985-08-22 SIGNUM Computer für Signalverarbeitung und Mustererkennung GmbH, 8000 München Geraet zur bestimmung von oberflaechenprofilen von nichttransparentem material durch digitale auswertung einer sequenz von mikroskopbildern mit unterschiedlichen schaerfeebenen
DE3511347C2 (de) * 1985-03-28 1987-04-09 Gerd Dipl.-Phys. Dr. 8520 Erlangen De Haeusler
US5151609A (en) * 1989-08-02 1992-09-29 Hitachi, Ltd. Method of detecting solid shape of object with autofocusing and image detection at each focus level
US5446548A (en) * 1993-10-08 1995-08-29 Siemens Medical Systems, Inc. Patient positioning and monitoring system
US5745239A (en) * 1997-04-07 1998-04-28 Taiwan Semiconductor Manufacturing Company Multiple focal plane image comparison for defect detection and classification

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6006126A (en) * 1991-01-28 1999-12-21 Cosman; Eric R. System and method for stereotactic registration of image scan data
GB9102903D0 (en) * 1991-02-12 1991-03-27 Oxford Sensor Tech An optical sensor
JPH0560528A (ja) * 1991-09-03 1993-03-09 Hitachi Ltd 立体情報入力装置
US6088099A (en) * 1996-10-30 2000-07-11 Applied Spectral Imaging Ltd. Method for interferometer based spectral imaging of moving objects

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3406375A1 (de) * 1984-02-22 1985-08-22 SIGNUM Computer für Signalverarbeitung und Mustererkennung GmbH, 8000 München Geraet zur bestimmung von oberflaechenprofilen von nichttransparentem material durch digitale auswertung einer sequenz von mikroskopbildern mit unterschiedlichen schaerfeebenen
DE3511347C2 (de) * 1985-03-28 1987-04-09 Gerd Dipl.-Phys. Dr. 8520 Erlangen De Haeusler
US5151609A (en) * 1989-08-02 1992-09-29 Hitachi, Ltd. Method of detecting solid shape of object with autofocusing and image detection at each focus level
US5446548A (en) * 1993-10-08 1995-08-29 Siemens Medical Systems, Inc. Patient positioning and monitoring system
US5745239A (en) * 1997-04-07 1998-04-28 Taiwan Semiconductor Manufacturing Company Multiple focal plane image comparison for defect detection and classification

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
K. Engelhardt: Optische 3D-Messtechnik, in: TR Technische Rundschau, 1993, H. 31, S. 44-51 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10249025A1 (de) * 2002-06-13 2004-01-08 Möller-Wedel GmbH Verfahren zur Präsenzoptimierung bei der Navigation, insbesondere Neuronavigation,in der Chirurgie mit einem Operationsmikroskop und mindestens einem an den Beobachtungs-Strahlengang des Mikroskops gekoppelten optoelektronischen Bildempfänger sowie einem Computersystem einschließlich Navigationsinstrument hierfür
DE10249025B4 (de) * 2002-06-13 2007-06-14 Möller-Wedel GmbH Verfahren zur Präsenzoptimierung bei der Neuronavigation in der Chirurgie mit einem Operationsmikroskop und mindestens einem an den Beobachtungs-Strahlengang des Mikroskops gekoppelten optoelektronischen Bildempfänger sowie einem Computersystem einschließlich Navigationsinstrument hierfür
US11311339B2 (en) 2002-10-04 2022-04-26 Orthosoft Inc. Computer-assisted hip replacement surgery
DE102004047928B4 (de) * 2004-10-01 2011-02-24 Carl Mahr Holding Gmbh Optisches 3D-Messverfahren und Messeinrichtung
US9002432B2 (en) 2004-11-15 2015-04-07 Brainlab Ag Method and device for calibrating a medical instrument
US7728280B2 (en) 2006-12-11 2010-06-01 Brainlab Ag Multi-band tracking and calibration system
US8917900B2 (en) 2009-03-13 2014-12-23 Omron Corporation Measurement apparatus
DE102010000467B4 (de) * 2009-03-13 2016-12-01 Omron Corporation Messvorrichtung
DE102011114932A1 (de) * 2011-10-06 2013-04-11 Hommel-Etamic Gmbh Verfahren zur Ermittlung einer Kontur einer Oberfläche
DE102016101832A1 (de) * 2016-02-02 2017-08-03 Frt Gmbh Verfahren und Messvorrichtung zur Messung der Topographie unter Verwendung von mindestens zwei Höhenebenen einer Oberfläche

Also Published As

Publication number Publication date
DE19944516B4 (de) 2006-08-17
US6947582B1 (en) 2005-09-20

Similar Documents

Publication Publication Date Title
DE19944516B4 (de) Dreidimensionale Formerfassung mit Kamerabildern
EP1142536B1 (de) Referenzierung eines Patienten in einem medizinischen Navigationssystem mittels aufgestrahlter Lichtpunkte
DE19950793B4 (de) Röntgeneinrichtung und Verfahren zur Bestimmung von Abbildungsparametern
DE3717871C3 (de) Verfahren und Vorrichtung zum reproduzierbaren optischen Darstellen eines chirururgischen Eingriffes
DE69922980T2 (de) Verfahren und vorrichtung zur positionierung eines geräts in einem körper
EP0857461B1 (de) Verfahren und Anordnung zur Positionsbestimmung bei der Röntgenbildgebung
EP2082687B1 (de) Überlagerte Darstellung von Aufnahmen
DE10215808B4 (de) Verfahren zur Registrierung für navigationsgeführte Eingriffe
DE10047382C2 (de) Röntgenkalibrierphantom, Verfahren zur markerlosen Registrierung für navigationsgeführte Eingriffe unter Verwendung des Röntgenkalibrierphantoms und medizinisches System aufweisend ein derartiges Röntgenkalibrierphantom
DE102005030285B4 (de) Computertomographiegerät und Verfahren für ein Computertomographiegerät mit einem Markierungsmittel zur positionsgenauen Markierung einer Interventionsposition mittels eines Laser-strahls auf einem zu untersuchenden Objekt
DE10254942B3 (de) Verfahren zur automatischen Ermittlung der Koordinaten von Abbildern von Marken in einem Volumendatensatz und medizinische Vorrichtung
DE4417944A1 (de) Verfahren zum Korrelieren verschiedener Koordinatensysteme in der rechnergestützten, stereotaktischen Chirurgie
EP1121900A2 (de) Verfahren zur Positionsbestimmung eines medizinischen Instruments
DE3205085A1 (de) Stereotaktisches chirurgiesystem
EP1321105A1 (de) Projektion von Patientenbilddaten aus Durchleuchtungs bzw. Schichtbilderfassungsverfahren auf Oberflächenvideobilder
DE19751761A1 (de) System und Verfahren zur aktuell exakten Erfassung von Behandlungszielpunkten
DE10210287A1 (de) Verfahren und Vorrichtung zur markerlosen Registrierung für navigationsgeführte Eingriffe
DE19807884C2 (de) Verfahren zur Kalibrierung einer Aufnahmevorrichtung zur Bestimmung von räumlichen Koordinaten anatomischer Zielobjekte und Vorrichtung zur Durchführung des Verfahrens
DE10160530B4 (de) Verfahren und Anlage zur Magnetresonanz-Bildgebung
DE102010010192A1 (de) Medizinische Untersuchungs- und/oder Behandlungsvorrichtung
DE102018119343B4 (de) Verfahren zur Kalibrierung von Objekten in einem Referenzkoordinatensystem und Verfahren zum Tracking von Objekten
DE19536180C2 (de) Verfahren und Vorrichtungen zur Lokalisierung eines Instruments
DE102007001181B4 (de) Verfahren und Vorrichtung zur Bildgebung
DE102004003381A1 (de) Verfahren zur Bestimmung der Lage wenigstens einer Schicht in einem Untersuchungsgebiet, in welcher Schicht eine Schichtbildaufnahme erfolgen soll
DE102019202359A1 (de) Verfahren zum Bestimmen einer Relativposition eines Objekts bezüglich einer Röntgenaufnahmevorrichtung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: BRAINLAB AG, 85551 KIRCHHEIM, DE

8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: BRAINLAB AG, 85622 FELDKIRCHEN, DE

R082 Change of representative

Representative=s name: SCHWABE SANDMAIR MARX, DE

R081 Change of applicant/patentee

Owner name: BRAINLAB AG, DE

Free format text: FORMER OWNER: BRAINLAB AG, 85622 FELDKIRCHEN, DE

Effective date: 20131104

R082 Change of representative

Representative=s name: SCHWABE SANDMAIR MARX, DE

Effective date: 20131104

Representative=s name: SCHWABE SANDMAIR MARX PATENTANWAELTE RECHTSANW, DE

Effective date: 20131104

R081 Change of applicant/patentee

Owner name: BRAINLAB AG, DE

Free format text: FORMER OWNER: BRAINLAB AG, 85622 FELDKIRCHEN, DE

R082 Change of representative

Representative=s name: SSM SANDMAIR PATENTANWAELTE RECHTSANWALT PARTN, DE

Representative=s name: SCHWABE SANDMAIR MARX PATENTANWAELTE RECHTSANW, DE

R071 Expiry of right