DE102006005036B4 - Vorrichtung und Verfahren zur verbesserten Formcharakterisierung - Google Patents

Vorrichtung und Verfahren zur verbesserten Formcharakterisierung Download PDF

Info

Publication number
DE102006005036B4
DE102006005036B4 DE102006005036.3A DE102006005036A DE102006005036B4 DE 102006005036 B4 DE102006005036 B4 DE 102006005036B4 DE 102006005036 A DE102006005036 A DE 102006005036A DE 102006005036 B4 DE102006005036 B4 DE 102006005036B4
Authority
DE
Germany
Prior art keywords
tracking device
computer
coordinate system
shape
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102006005036.3A
Other languages
English (en)
Other versions
DE102006005036A1 (de
Inventor
José Luis Moctezuma de La Barrera
Waldean A. Schulz
Donald W. Malackowski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stryker European Operations Holdings LLC
Original Assignee
Stryker European Operations Holdings LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stryker European Operations Holdings LLC filed Critical Stryker European Operations Holdings LLC
Publication of DE102006005036A1 publication Critical patent/DE102006005036A1/de
Application granted granted Critical
Publication of DE102006005036B4 publication Critical patent/DE102006005036B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Length, Angles, Or The Like Using Electric Or Magnetic Means (AREA)

Abstract

System zur Bestimmung der Form und Ausrichtung eines Körpers (102), umfassend:- ein rechnergestütztes Navigationssystem, welches ein globales Koordinatensystem (112) aufstellt;- eine Erfassungseinrichtung (108), welche ausgebildet ist, eine Serie von Darstellungen des Körpers (102) zu erzeugen, wobei ein Koordinatensystem (122) der Erfassungseinrichtung (108) bezüglich des globalen Koordinatensystems (112) kalibriert ist;- eine dem Körper zugeordnete Verfolgungseinrichtung (106), deren Koordinatensystem (120) bezüglich des globalen Koordinatensystems (112) kalibriert ist, wobei die Verfolgungseinrichtung (106) ausgebildet ist, den Körper (102) relativ zum globalen Koordinatensystem (112) des rechnergestützten Navigationssystems zu verfolgen und mit dem rechnergestützten Navigationssystem zu kommunizieren; und- wobei das rechnergestützte Navigationssystem eine zentrale Verarbeitungseinheit besitzt, die ausgebildet ist, die Serie von Darstellungen und eine relative Lage des Körpers (102) zum globalen Koordinatensystem (112) des rechnergestützten Navigationssystems zu verarbeiten, um die Form und Ausrichtung des Körpers (102) relativ zur Verfolgungseinrichtung (106) zu bestimmen.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Diese Erfindung betrifft das Bestimmen der Form von starren oder annähernd starren Körpern. Genauer gesagt betrifft diese Erfindung die Formbestimmung solcher Körper mittels eines rechnergestützten Navigationssystems.
  • Beschreibung des Hintergrunds der Erfindung
  • Die rechnergestützte Bestimmung der Position von Körpern wird seit vielen Jahren in Fertigungs- und medizinischen Bereichen verwendet. Rechnergestützte Navigation erfordert, dass die vom Navigationssystem zu verfolgenden Körper eine bekannte Form besitzen, so dass die Ausrichtung und Position der Körper vom System korrekt verfolgt werden können. Das Verfolgen wird entweder durch Befestigen einer Verfolgungseinrichtung am Körper oder durch Einbauen der Verfolgungseinrichtung in den Körper bewerkstelligt. Es gibt zahlreiche Verfolgungstechniken, darunter aktive und passive optische Verfolgungssysteme, magnetische Systeme und Inertialsysteme.
  • In den Offenlegungsschriften US 2002/0051006 A1 und US 2003/0038801 A1 werden beispielsweise Systeme beschrieben, in denen sich der Körper auf einer Drehscheibe befindet. An der Drehscheibe sind Verfolgungseinrichtungen angeordnet, mittels derer von Erfassungseinrichtungen erzeugte Bilder des Körpers ausgerichtet werden. Weiteren Stand der Technik offenbaren US 2003/0063292 A1 , US 6 356 272 B1 , US 2003/0016861 A1 und US 6 662 036 B2 .
  • Allgemein ist es für viele Anwendungen notwendig, Körper im Anwendungsbereich zu kalibrieren, so dass das Navigationssystem anschließend den Körper verfolgen und ihn realistisch graphisch auf einem Computeranzeigegerät darstellen kann. Dies wird üblicherweise dadurch bewerkstelligt, dass die Verfolgungseinrichtung in einer festen Beziehung mit dem Körper verbunden und dann der Körper in eine Kalibrierungseinrichtung eingesetzt wird. Diese Einrichtungen können so einfach wie eine Referenzmarke in einer bekannten Beziehung zum Navigationssystem sein, oder es kann eine Einrichtung sein, die den Körper in eine vorbestimmte Haltung bezüglich des Navigationssystems zwingt, wobei sich die Spitze des Körpers in einer vorherbestimmten Position befindet. Gängige Verfolgungskalibrierung erfordert eine Art von physischem Kontakt zwischen dem Körper und der Kalibrierungseinrichtung.
  • In bestimmten Situationen kann es wünschenswert sein, den Kontakt mit anderen Vorrichtungen oder Körpern zu minimieren. Für eine chirurgische Operation beispielsweise erfordern die Sterilitätserfordernisse, dass der zu verwendende Körper steril ist und dass jeder Körper, den er in irgendeiner Weise berührt, ebenfalls steril ist. Dies macht es erforderlich, dass die Kalibrierungseinrichtung sterilisiert wird und dass die Kalibrierungseinrichtung innerhalb des sterilen Bereichs verbleibt. Da Platz bei einer chirurgischen Operation kostbar ist, kann dies ein Problem sein.
  • Zusätzlich müssen Körper, die Einsätze tragen, so wie Schraubenzieher, Bohrer, Implantateinsetzgeräte etc., jedes Mal neu kalibriert werden, wenn ein neuer Einsatz eingesetzt wird. Schließlich haben einige Geräte keine axiale Form, was dazu führt, dass diese Körper mit den bekannten Verfahren im Anwendungsbereich nur schwierig kalibriert werden konnten.
  • KURZER ABRISS DER ERFINDUNG
  • Es wird ein System zur Bestimmung der Form und Ausrichtung eines Körpers gemäß den Ansprüchen 1 und 17 sowie ein Verfahren gemäß Anspruch 29 bereitgestellt.
  • Gemäß einem Aspekt der Erfindung bestimmt ein System die Form und Ausrichtung eines Körpers relativ zu einer Verfolgungseinrichtung. Ein rechnergestütztes Navigationssystem stellt ein globales Koordinatensystem auf. Eine Erfassungseinrichtung erzeugt eine Serie von Darstellungen des Körpers, wobei ein Koordinatensystem der Erfassungseinrichtung bezüglich des globalen Koordinatensystems kalibriert ist. Eine Verfolgungseinrichtung, die dem Körper zugeordnet ist und deren Koordinatensystem bezüglich des globalen Koordinatensystems kalibriert ist, ist ausgebildet, um den Körper relativ zum globalen Koordinatensystem des rechnergestützten Navigationssystems zu verfolgen und mit dem rechnergestützten Navigationssystem zu kommunizieren. Das rechnergestützte Navigationssystem, welches über eine zentrale Verarbeitungseinheit verfügt, verarbeitet die Serie von Darstellungen des Körpers und die relative Lage des Körpers zum globalen Koordinatensystem des rechnergestützten Navigationssystems, um die Form und Ausrichtung des Körpers relativ zur Verfolgungseinrichtung zu bestimmen.
  • Gemäß einem weiteren Aspekt der Erfindung wird die Form und Ausrichtung eines Körpers relativ zu einem Strahler durch ein System bestimmt. Eine Erfassungseinrichtung erzeugt eine Serie von Darstellungen des Körpers. Ein Strahler steht mit dem Körper in einer festen Beziehung. Eine Verfolgungseinrichtung umfasst einen optischen Positionssensor, der ausgebildet ist, das von dem Strahler abgestrahlte Licht zu erfassen und den sich mit dem Körper bewegenden Strahler zu verfolgen, um den Körper relativ zum rechnergestützten Navigationssystem zu lokalisieren. Das rechnergestützte Navigationssystem, welches über eine zentrale Verarbeitungseinheit verfügt, verarbeitet die Serie von Darstellungen des Körpers und die relative Lage des Körpers, um die Form und Ausrichtung des Körpers relativ zum Strahler zu bestimmen.
  • Gemäß einem weiteren Aspekt der Erfindung beinhaltet ein Verfahren zur Bestimmung der Form und Ausrichtung eines Körpers relativ zu einer Verfolgungseinrichtung mittels eines rechnergestützten Navigationssystems den Schritt des Erzeugens einer Serie von Darstellungen des Körpers und der anschließenden Verwendung dieser Darstellungen, um ein zusammengesetztes Hüllvolumen des Körpers zu bestimmen. Die Form des Körpers wird aus dem zusammengesetzten Hüllvolumen bestimmt. Eine Position und eine Ausrichtung des Körpers werden mittels einer dem Körper zugeordneten Verfolgungseinrichtung bestimmt, die den Körper relativ zum globalen Koordinatensystem des rechnergestützten Navigationssystems verfolgt und mit dem rechnergestützten Navigationssystem kommuniziert.
  • Gemäß einem Beispiel beinhaltet ein Verfahren zur Bestimmung der Form und Ausrichtung eines Körpers mittels eines rechnergestützten Navigationssystems den Schritt des Erzeugens einer Serie von Darstellungen des Körpers aus wenigstens zwei Perspektiven. Ein zusammengesetztes Hüllvolumen wird aus der Serie von Darstellungen bestimmt und die Form des Körpers wird aus dem zusammengesetzten Hüllvolumen bestimmt. Die Position und Ausrichtung des Körpers werden aus der Form des Körpers und der Serie von Darstellungen des Körpers bestimmt.
  • Figurenliste
    • 1 ist eine schematische Darstellung eines Ausführungsbeispiels der vorliegenden Erfindung;
    • 2a ist eine schematische Ansicht eines weiteren Ausführungsbeispiels der vorliegenden Erfindung;
    • 2b ist eine schematische Ansicht eines weiteren Ausführungsbeispiels der vorliegenden Erfindung;
    • 2c ist eine schematische Ansicht eines weiteren Ausführungsbeispiels der vorliegenden Erfindung;
    • 3 ist ein Flussdiagramm eines Verfahrens zur Bestimmung der Form gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
    • 4 ist eine graphische Darstellung des Verfahrens zur Formbestimmung von 3;
    • 5 ist eine schematische Ansicht eines weiteren Ausführungsbeispiels der vorliegenden Erfindung;
    • 6 ist eine schematische Darstellung eines weiteren Ausführungsbeispiels der vorliegenden Erfindung;
    • 7a ist eine perspektivische Ansicht eines bevorzugten Kalibrierungskörpers;
    • 7b ist eine Vorderansicht des bevorzugten Kalibrierungskörpers von 7a;
    • 7c ist eine Seitenansicht des bevorzugten Kalibrierungskörpers von 7a;
    • 7d ist eine Draufsicht des bevorzugten Kalibrierungskörpers von 7a;
    • 8 ist ein Flussdiagramm eines Kamerakalibrierungsprozesses;
    • 9 ist eine schematische Darstellung eines weiteren Ausführungsbeispiels der vorliegenden Erfindung;
    • 10 ist ein Flussdiagramm eines Verfahrens zur Bestimmung der Form gemäß dem in 9 dargestellten Ausführungsbeispiel der vorliegenden Erfindung; und
    • 11 ist noch ein weiteres Ausführungsbeispiel der vorliegenden Erfindung.
  • BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSBEISPIELE
  • 1 zeigt ein Ausführungsbeispiel eines Formcharakterisierungssystems 100, verwendbar zur Charakterisierung eines Körpers 102, welches einen Navigationsrechner 104, eine Positionsverfolgungseinrichtung 106, eine Vielzahl von Kameras 108-1 bis 108-M und eine Vielzahl von Hintergründen 110-1 bis 110-N beinhaltet. Das Formcharakterisierungssystem 100 ortet (oder lokalisiert) die Position und Ausrichtung des Körpers 102 im Raum bezüglich eines globalen Koordinatensystems 112, welches von dem Navigationsrechner 104 aufgestellt ist. Im Besonderen bestimmt das Formcharakterisierungssystem die Position und Ausrichtung der Körperachsen XB 114, YB 116, und ZB 118, welche auf den Körper 102 bezogen sind, bezüglich des globalen Koordinatensystems 112, welches vom Navigationsrechner 104 aufgestellt ist. Die Position und Ausrichtung der vom Formcharakterisierungssystem 100 bestimmten Körperachsen 114, 116 und 118 können als lineare Transformationsmatrix ausgedrückt werden, welche Punkte auf dem Körper 102 in dem durch die Körperachsen 114, 116 und 118 definierten lokalen Koordinatensystem auf Punkte im globalen Koordinatensystem 112 abbildet.
  • Die Positionsverfolgungseinrichtung 106 verfügt über ein lokales Koordinatensystem 120, und jede der Kameras 108-1 bis 108-M hat ihr eigenes lokales Koordinatensystem 122-1 bis 122-M. Für die Verwendung als Kameras 108-1 bis 108-M geeignete Einrichtungen beinhalten bekannte digitale Videokameras, digitale Standbildkameras, Bildaufnahmeeinrichtungen und Vergleichbares.
  • Die Positionsverfolgungseinrichtung 106 hat eine vorbestimmte und feste Beziehung zum Körper 102 und ist bezüglich des rechnergestützten Navigationssystems kalibriert. Weiterhin ist die Positionsverfolgungseinrichtung 106 in der Lage, die Position eines festen Punktes 124 auf der Oberfläche des Körpers 102 bezüglich entweder des Koordinatensystems 120 der Positionsverfolgungseinrichtung 106 oder bezüglich des Koordinatensystems 112 des Navigationsrechners 104 zu verfolgen, weil die beiden Koordinatensysteme zueinander kalibriert sind. Das Kalibrieren der beiden Koordinatensysteme erlaubt es, jede Messung des Punktes 124 auf dem Körper 102 bezüglich des Koordinatensystems 120 der Positionsverfolgungseinrichtung 106 durch eine lineare Transformation auf das Koordinatensystem 112 des Navigationsrechners 104 abzubilden.
  • Die Positionsverfolgungseinrichtung 106 kann körperlich getrennt von dem Körper 102 sein oder alternativ hierzu kann die Positionsverfolgungseinrichtung 106 am Körper 102 befestigt oder andernfalls in den Körper 102 eingebaut sein und immer noch die erforderlichen Positionsinformationen bereitstellen. Der Punkt 124 kann sich an einer festen Position bezüglich der Positionsverfolgungseinrichtung 106 befinden oder durch ein unten beschriebenes Kalibrierungsverfahren bestimmt werden. Der Punkt 124 kann die Lage eines von der Positionsverfolgungseinrichtung 106 verwendeten Strahlers sein, wie unten beschrieben.
  • Die Positionsverfolgungseinrichtung 106 kann eine von zahlreichen Erfassungseinrichtungen sein, die dem Fachmann bekannt sind. 2A zeigt die Verwendung einer exemplarischen Positionsverfolgungseinrichtung 200, welche einen optischen Positionssensor 204 verwendet. Die Verfolgung eines Körpers mittels des optischen Positionssensors 204 beinhaltet das Platzieren eines Strahlers 206 auf dem Körper 102, wobei der Strahler 206 eine strahlende (sichtbare oder infrarote) Lichtquelle ist. Es können auch mehrere Strahler 206 in bekannten Konfigurationen an dem Körper 102 angebracht werden. Der optische Positionssensor 204 verwendet einen Lichtsensor 208, der abgestimmt ist, das von der Lichtquelle abgestrahlte Licht zu erfassen und die sich mit dem Körper 102 bewegende strahlende Lichtquelle 206 zu verfolgen. Eine Leuchtdiode (LED) ist eine typische strahlende Lichtquelle 206 und ein ladungsgekoppeltes Bauelement (CCD) ist ein typischer Lichtsensor 208. Das FlashPoint-System der Stryker Corporation (Kalamazoo, Michigan) ist ein Beispiel für die in 2a gezeigte optische Verfolgungseinrichtung.
  • 2b zeigt die Verwendung einer anderen Art optischer Positionsverfolgungseinrichtung 210, welche eine andere Art eines optischen Positionssensors 212 benutzt. Die Verfolgung eines Körpers mit dieser alternativen optischen Positionsverfolgungseinrichtung 210 beinhaltet die Befestigung eines reflektierenden Körpers (beispielsweise eines Retroreflektors) 214 auf dem Körper 102. Eine strahlende Lichtquelle 216 ist bezüglich des reflektierenden Körpers 214 ausgerichtet, so dass ein von der strahlenden Lichtquelle 216 erzeugter Lichtstrahl 218 von dem reflektierenden Körper 214 so reflektiert wird, dass ein Lichtsensor 220 in dem optischen Positionssensor 212 ihn daraufhin erfassen und so die Position des sich mit dem Körper 102 bewegenden reflektierenden Körpers 214 verfolgen kann. Das Motus-System der Peak Performance Technologies, Inc. (Englewood, Coloardo) ist ein Hersteller von Positionsmesseinrichtungen wie in 2b gezeigt.
  • 2c zeigt die Verwendung einer Positionsverfolgungseinrichtung 224, welche an dem Körper 102 befestigte Magnete 226 verwendet. Die Änderungen in der Richtung und Amplitude des magnetischen Flusses der Magnete 226, wenn sich die Magnete 226 mit dem Körper 102 bewegen, werden von dem magnetischen Positionssensor 228 erfasst und zur Bestimmung der Position der Magnete 226 verwendet. Beispiele für Hersteller dieses Typs einer Verfolgungstechnologie sind Polhemus Incorporated aus Colchester, Vermont und Ascension Technology Corporation of Burlington, Vermont.
  • Obwohl nur ein einziger Punkt 124 auf der Oberfläche des Körpers 102 als verfolgt dargestellt ist, um die Beschreibung zu vereinfachen, ist es offensichtlich, dass mehrere Verfolgungspunkte auf dem selben Körper 102 verfolgt werden können, wobei jeder einer Positionsverfolgungseinrichtung zugeordnet ist. Tatsächlich können mehrere Verfolgungspunkte nötig sein, um die vollständige Ausrichtung des Körpers 102 zu bestimmen. Mehrere Körper 102 können auch gleichzeitig durch ein einziges System verfolgt werden.
  • Wieder Bezug nehmend auf 1, identifiziert das Formcharakterisierungssystem die Ausrichtung der Achsen XB, YB, und ZB des Körpers 102, welche als Elemente mit den Nummern 114, 116 bzw. 118 bezeichnet sind, bezüglich des globalen Koordinatensystems 112, indem es ein Hüllvolumen des Körpers 102 näherungsweise ermittelt und die Achsen des Hüllvolumens bestimmt. Insbesondere kann eine interessierende Achse 114, 116 oder 118 des Körpers 102 durch eine Analyse des näherungsweise ermittelten Hüllvolumens bestimmt werden. Daraus folgt, dass die verbleibenden Achsen senkrecht auf der bestimmten Achse und aufeinander stehen. Falls erforderlich, kann die Ausrichtung der verbleibenden Achsen durch Analyse der Positionsinformationen die von der Verfolgungseinrichtung geliefert werden, und des näherungsweise ermittelten Hüllvolumens genauer bestimmt werden. Ein Punkt 124 von besonderem Interesse ist die Spitze 126 des Körpers 102. Die Spitze 126 kann koaxial mit der interessierenden Achse (beispielsweise der Körperachse XB 114) oder an irgendeinem anderen, nicht auf der zu bestimmenden Achse liegenden Punkt lokalisiert sein.
  • Die Vielzahl von Kameras 108-1 bis 108-M, die um den Körper herum angeordnet ist, nimmt Bilder des Körpers aus unterschiedlichen Perspektiven auf. Diese Kameras 108-1 bis 108-M können entweder Standbildkameras oder Videokameras sein oder eine beliebige Kombination dieser beiden Kameratechnologien. Werden Videokameras verwendet, dann werden einzelne Frames der von der Videokamera erfassten Videodaten als einzelne Bilder verarbeitet. Vorzugsweise nehmen alle Kameras Frames annähernd gleichzeitig auf, so dass die Bilder von verschiedenen Betrachtungspunkten korreliert sind. Die Positionen und Koordinatensysteme 122-1 bis 122-M der Kameras 108-1 bis 108-M sind zueinander und zu dem vom Navigationsrechner 104 aufgestellten globalen Koordinatensystem 112 kalibriert. Ein bevorzugtes Ausführungsbeispiel des Kalibrierungsverfahrens der Kameras wird im Folgenden beschrieben. Bei dem bevorzugten Ausführungsbeispiel sind die Kameras 108-1 bis 108-M Standard-Videokameras mit Frameaufnahmeeinrichtungen in Desktop-PCs oder Firewire- und USB-basierte Kameras, welche im Stand der Technik wohlbekannt sind.
  • Feste Hintergründe 110-1 bis 110-N sind vorzugsweise um den Körper herum gegenüber den Kameras positioniert. Diese Hintergründe 110-1 bis 110-N bilden in den Bildern, die von den Kameras 108-1 bis 108-M aufgenommen werden, eine bekannte Einfassung, die hilft, die Kanten des Körpers 102 in dem Bild zu identifizieren. Die Hintergründe 110-1 bis 110-M können neutral, schwarz, weiß oder in irgendeiner Farbe ausgebildet sein, welche den Kontrast zwischen dem Teil des Bildes, welcher den Hintergrund 110-1 bis 110-M darstellt, und dem Teil des Bildes, der den Körper 102 darstellt, erhöht. Weiterhin können die Hintergründe von hinten beleuchtet sein, um diesen Kontrast weiter zu erhöhen. Es ist möglich, ein Ausführungsbeispiel des Verfahrens der vorliegenden Erfindung ohne feste Hintergründe durchzuführen. Dies ist jedoch wegen der erhöhten Komplexität der Formbestimmung aufgrund der Notwendigkeit, das Hintergrundbild vom Bild des Körpers 102 zu subtrahieren, nicht bevorzugt.
  • Der Navigationsrechner 104 verarbeitet die Bilder, die die Kameras 108-1 bis 108-M erfasst haben. Der Navigationsrechner 104 kann eine Körperdatenbank 130 verwenden, welche mit Forminformationen typischer Körper, die der Navigationsrechner 104 identifizieren müssen könnte, gefüllt ist. Die Forminformationen eines Körpers in der Körperdatenbank 130 bestehen vorzugsweise aus Koordinaten von Knotenpunkten (Vertices) des Körpers, wie sie typischerweise aus einem CAD-System verfügbar sind. Der Navigationsrechner 104 entwickelt eine oder mehrere Vergleichsmetriken, indem er das aus der Verarbeitung der Bilder der Kameras 108-1 bis 108-M näherungsweise ermittelte Hüllvolumen mit den Forminformationen, die in der Körperdatenbank 130 gespeichert sind, vergleicht. Stellen sich für die Forminformationen eines der in der Körperdatenbank 130 gespeicherten Körper heraus, dass diese stark mit dem näherungsweise ermittelten Hüllvolumen korrelieren, dann kann der Navigationsrechner die Forminformationen für den Körper verwenden, um das näherungsweise ermittelte Hüllvolumen zu verfeinern. Beispielsweise kann der Navigationsrechner eine Vergleichsmetrik entwickeln, indem er Abstände zwischen jedem Knotenpunkt des näherungsweise ermittelten Hüllvolumens und einem korrespondierenden Knotenpunkt, der als Teil der Forminformationen für einen Körper in der Körperdatenbank 130 gespeichert ist, analysiert. Ein Beispiel einer weiteren Vergleichsmetrik, die entwickelt werden könnte, ist das Ergebnis des Analysierens der Eigenschaften der Trägheitsmomentachsen des näherungsweise ermittelten Hüllvolumens mit den Trägheitsmomentachsen eines Körpers in der Körperdatenbank 130. Zusätzliche Vergleichsmetriken sind den Fachleuten bekannt. Ein bevorzugtes Ausführungsbeispiel verwendet eine Vielzahl von Vergleichsmetriken, um den Grad der Korrelation zwischen dem näherungsweise ermittelten Hüllvolumen und einem in der Körperdatenbank 130 gespeicherten Körper zu bestimmen.
  • Es ist nicht notwendig, dass die Kameras 108-1 bis 108-M den gesamten Körper aufnehmen. Nur derjenige Teil des Körpers 102, der von Interesse ist, muss von den Kameras 108-1 bis 108-M aufgenommen werden. Weiterhin sind der Körper 102 und die Kameras 108-1 bis 108-M vorzugsweise bezüglich einander so positioniert, dass das Sichtfeld jeder Kamera näherungsweise die gleichen Teile des Körpers erfasst.
  • 3 zeigt ein Flussdiagram 300 der Schritte, die für eine näherungsweise Ermittlung des Hüllvolumens aus den erfassten Bildern nötig sind. Jedes Bild 302-1 bis 302-M, welches von einer Kamera 108-1 bis 108-M aufgenommen wird, wird zunächst in den Blöcken 304-1 bis 304-M bereinigt. Dies bedeutet, dass das Bild um jede bekannte Unregelmäßigkeit der Linse korrigiert wird, bezüglich der bekannten Brennweite der verwendeten Linse normalisiert wird, an die Auflösung der Kamera angepasst wird, etc. Die Blöcke 306-1 bis 306-M verarbeiten das bereinigte Bild, welches die Blöcke 304-1 bis 304-M erzeugt haben, um die Darstellung des Körpers von der Darstellung des Hintergrundes in dem Bild heraus zu lösen. Die Blöcke 308-1 bis 308-M führen einen Kantenerkennungsvorgang bezüglich des in den Blöcken 306-1 bis 306-M herausgelösten Körpers durch. Die Blöcke 310-1 bis 310-M verwenden die von den Blöcken 308-1 bis 308-M erzeugten Kanteninformationen, um für den Körper eine allgemein Kj-seitige Hüllpyramide anzunähern, wobei 1 <= j <= M. Die auf diese Weise aus jedem der von den Kameras erfassten Bilder 301-1 bis 301-M errechneten Hüllpyramiden werden in einem Block 312 basierend auf der Aufnahmezeit des jeweiligen Bildes und der Lage der Kamera, wie von den Blöcken 314-1 bis 314-M bereitgestellt, normalisiert. Die Blöcke 314-1 bis 314-M schneiden weiterhin alle Hüllpyramiden miteinander zu einem Hüllvolumen des Körpers. Ein Block 316 kombiniert das näherungsweise ermittelte Hüllvolumen mit der von der Positionsverfolgungseinrichtung gelieferten Lage des Körpers, wie von Block 318 bereitgestellt, um die Position und Ausrichtung des Körpers anzunähern. Hat der Navigationsrechner Zugriff auf eine Körperdatenbank 130, dann vergleicht Block 316 das Hüllvolumen mit den Forminformationen aller darin enthaltener Körper. Wird in der Körperdatenbank 130 ein Körper gefunden, der über Abmessungen und eine Form verfügt, welche innerhalb einer vorherbestimmten Toleranz bezüglich des Hüllvolumens liegen, dann verwendet der Navigationsrechner die Forminformationen für den Körper in der Körperdatenbank, um die Näherung für das Hüllvolumen zu verfeinern. Bei dem bevorzugten Ausführungsbeispiel erfassen die Kameras 108 fortwährend (oder so schnell wie die Kameras können) Bilder des Körpers 102, und während der Körper 102 gedreht wird, werden Hüllpyramiden von diesen zusätzlichen Bildern mit einem zuvor bestimmten Hüllvolumen geschnitten, um das angenäherte Hüllvolumen und die näherungsweise ermittelte Orientierung des Körpers 102 zu verfeinern.
  • 4 zeigt ein Beispiel einer anfänglichen Näherung eines Hüllvolumens 400 des Körpers 102, welche durch Verwendung dreier Kameras 108-1, 108-2 und 108-3 erzeugt wurde. Das Hüllvolumen des Körpers 102 kann mittels eines beliebigen von einer Vielzahl wohlbekannter und für diese Bestimmung verfügbarer Verfahren ermittelt werden. Abhängig von der Anzahl der Kameras 108-1 bis 108-M oder der Ansichten einer einzelnen Kamera 108-1, beginnt sich, wie unten beschrieben, die Schnittmenge der kombinierten Hüllvolumina der Form des Körpers 102 anzunähern.
  • 5 zeigt ein weiteres Ausführungsbeispiel des Formcharakterisierungssystems 500, bei dem eine Kamera 108 dazu verwendet wird, eine Vielzahl von Bildern des Körpers 102 zu erfassen, während sich der Körper 102 dreht und durch den Raum bewegt, beispielsweise entlang eines mit Pfeil R 502 bezeichneten Pfades. Die Blöcke 304 bis 318 aus 3 können sämtliche Bilder, die die Kamera 108 von dem Körper 102 erfasst, so verarbeiten, als hätte eine andere Kamera jedes Bild von einem anderen Beobachtungspunkt bezüglich des Körpers 102 aufgenommen.
  • 6 zeigt noch ein weiteres Ausführungsbeispiel des Formcharakterisierungssystems 600, bei dem die Kamera 108 gleichzeitig ein Bild des Körpers 102 und der Reflektion des Körpers 102 in einem Spiegel 602 aufnimmt. Bei diesem Ausführungsbeispiel verarbeitet der Navigationsrechner 104 das von der Kamera 108 erfasste Bild, um das Bild in zwei Bilder aufzuteilen, wobei ein Bild das Bild des Körpers 102 enthält und das andere Bild das Bild der Reflektion des Körpers 102 in dem Spiegel 602 enthält. Im Endeffekt verhält sich der Spiegel 602 wie eine zweite, wenngleich virtuelle Kamera. Somit verarbeiten die Blöcke 302 bis 318 des in 3 dargestellten Flussdiagramms 300 das Bild der Reflektion des Körpers 102 in dem Spiegel 602, als wäre das Bild von einer separaten Kamera erfasst worden. In ähnlicher Weise könnte mehr als ein Spiegel 602 verwendet werden.
  • Ein Ausführungsbeispiel, um die Koordinatensysteme 122-1 bis 122-M der Kameras 108-1 bis 108-M des Formcharakterisierungssystems 100 bezüglich einander und bezüglich des Koordinatensystems 112 des rechnergestützten Navigationssystems zu kalibrieren, besteht in der Verwendung eines Kalibrierungskörpers mit einer genau bekannten Form. 7 zeigt ein Beispiel eines solchen Kalibrierungskörpers 700. 7a zeigt eine Vorderansicht des Kalibrierungskörpers 700. 7b eine Seitenansicht des Kalibrierungskörpers 700. 7c zeigt eine Draufsicht des Kalibrierungskörpers 700.
  • 8 zeigt ein Flussdiagram 800 der zur Kalibrierung der Kameras erforderlichen Schritte. Die Blöcke 804-1 bis 804-M führen Bereinigung, Herauslösen des Körpers und Kantenerkennen in den von jeder der Kameras gelieferten Bildern 802-1 bis 802-M durch, wobei jedes Bild 802-1 bis 802-M ein Bild des Kalibrierungskörpers 700 aus einer bekannten Perspektive (zum Beispiel von vorne 702, von der Seite 704 und von oben 706) ist. Die Blöcke 806-1 bis 806-M liefern eine Näherung der Position und Ausrichtung jeder Kamera 108 und wenden auf den Positions- und Ausrichtungsnäherungen basierende Korrekturen auf die von den Blöcken 804-1 bis 804-M erzeugten Kanten an. Ein Block 808 vergleicht die von den Blöcken 806-1 bis 806-M korrigierten Kanten mit den bekannten Kanteninformationen von Perspektiven des Kalibrierungskörpers. Befinden sich die korrigierten Kanten innerhalb einer vorgegebenen Toleranz um die bekannten Kanten, dann gelten die Kameras als kalibriert und die von Block 806 erzeugten Positions- und Ausrichtungsinformationen können von dem Navigationsrechner 104 verwendet werden. Liegen die korrigierten Kanten außerhalb der vorgegebenen Toleranz um die bekannten Kanten, dann wird der Unterschied zwischen den korrigierten Kanten und den bekannten Kanten von einem Block 810 berechnet und dem Block 806 zur Verbesserung der Näherungen der Position und Ausrichtung jeder Kamera zur Verfügung gestellt. Die Blöcke 806, 808 und 810 werden wiederholt, bis jede der Kameras 108 kalibriert ist.
  • 9 zeigt ein weiteres Ausführungsbeispiel des Formcharakterisierungssystems 900. Anstelle der Verwendung von Kameras 108-1 bis 108-M zur Erfassung von Bildern des Körpers 102 vor einem Hintergrund 110-1 bis 110-N verwendet dieses Ausführungsbeispiel Lichtquellen 902-1 bis 902-M, die bezüglich der Sensoren 904-1 bis 904-N positioniert sind. Die Positionen der Lichtquellen 902-1 bis 902-M und der Sensoren 904-1 bis 904-N befinden sich in einer vorherbestimmten festen Beziehung zueinander und sind dem Navigationsrechner 104 bekannt. Alternativ dazu verfolgt der Navigationsrechner 104 die Positionen aller Lichtquellen 902-1 bis 902-M und aller Sensoren 904-1 bis 904-N und kann Informationen von den Sensoren so umformen, dass sie äquivalent sind zu Informationen, die von einem System stammen, bei dem die Position der Lichtquellen 902-1 bis 902-M in einer festen Beziehung zu der Position der Sensoren 904-1 bis 904-N steht. Zusätzlich verfolgt der Navigationsrechner 104 Veränderungen in der Position entweder der Lichtquellen 902-1 bis 902-M oder der Sensoren 904-1 bis 904-N. Weiterhin sind die Lichtquellen 902-1 bis 902-M und die Sensoren 904-1 bis 904-N bezüglich einander und bezüglich des Körpers 102 so positioniert, dass der Körper 102 das Licht von jeder der Lichtquellen 902-1 bis 902-M verdeckt und einen Schatten auf einem der Sensoren 904-1 bis 904-N verursacht, der kolinear mit der Lichtquelle 902-1 bis 902-M und dem Körper 102 ist. Die Sensoren 904-1 bis 904-N sind zweidimensionale Erfassungseinrichtungen, die in der Lage sind, die Bereiche, die in dem Schatten 906-1 bis 906-N des Körpers 102 liegen, von denen zu unterscheiden, die dies nicht tun. Jeder der Sensoren 904-1 bis 904-N liefert Informationen über die in den Schatten 906-1 bis 906-N liegenden Bereiche an den Navigationsrechner 104. Nur die Schatten 906-1 bis 906-N desjenigen Teils des Körpers 102, der von Interesse ist, brauchen auf die Sensoren 904-1 bis 904-N zu fallen. Ein bevorzugter Sensortyp ist eine zweidimensionale Matrix ladungsgekoppelter Bauelemente (CCD). Solch eine CCD-Matrix stellt gewöhnlich ein Bild bereit, welches sich aus Pixeln zusammensetzt, wobei jedes Pixel einem CCD-Element der zweidimensionalen Matrix entspricht.
  • 10 zeigt ein Flussdiagramm 925 der zum näherungsweisen Ermitteln des Hüllvolumens aus den von den Sensoren 904-1 bis 904-N generierten Bildern verwendeten Schritte. Jedes Bild 926-1 bis 926-N von jedem der Sensoren 904-1 bis 904-N wird zuerst von den Blöcken 928-1 bis 928-N bereinigt. Das bedeutet, dass die Blöcke 928-1 bis 928-N das Bild um jegliche bekannten Unregelmäßigkeiten der Linse korrigieren, die Schatteninformationen an die Auflösung des Sensors anpassen, etc. Die Blöcke 930-1 bis 930-N verarbeiten die von den Blöcken 928-1 bis 928-N erzeugten bereinigten Bilder, um die Teile der Bilder herauszulösen, die den Schlagschatten repräsentieren. Die Blöcke 932-1 bis 932-N führen einen Kantenerkennungsvorgang bezüglich der von den Blöcken 930-1 bis 930-N erzeugten Bilder der herausgelösten Schatten durch. Die Blöcke 934-1 bis 934-N verwenden die von den Blöcken 932-1 bis 932-N erzeugten Kanteninformationen, um eine allgemein N-seitige Hüllpyramide für den Körper näherungsweise zu ermitteln. Die Hüllpyramiden, die auf diese Weise aus jedem der von den Sensoren erzeugten Bilder 926-1 bis 926-N berechnet wurden, werden von einem Block 936 basierend auf der Zeit der Erfassung dieses Bildes und der Lage der Kamera, wie von den Blöcken 938-1 bis 938-N bereitgestellt, normalisiert. Der Block 936 schneidet dann jede der Hüllpyramiden miteinander zu einem näherungsweisen Hüllvolumen des Körpers. Ein Block 940 kombiniert das näherungsweise ermittelte Hüllvolumen mit der von Block 942 bereitgestellten Lage des Körpers aus der Positionsverfolgungseinrichtung, um die Position und Ausrichtung des Körpers näherungsweise zu bestimmen. Der Block 940 verwendet Forminformationen aus der Körperdatenbank, falls diese verfügbar ist. Wird insbesondere ein Körper in der Körperdatenbank 130 gefunden, welcher über Abmessungen und eine Form verfügt, die innerhalb einer vorbestimmten Toleranz bezüglich des Hüllvolumens liegt, dann wird der Navigationsrechner 104 die Forminformationen für den Körper in der Körperdatenbank verwenden, um die Näherung des Hüllvolumens zu verfeinern. Bei dem bevorzugten Ausführungsbeispiel erzeugen die Sensoren 904-1 bis 904-N fortwährend (oder so schnell wie die Sensoren können) Darstellungen der Schatten 906-1 bis 906-N des Körpers 102, und während der Körper 102 gedreht wird, werden Hüllpyramiden von diesen zusätzlichen Darstellungen mit einem zuvor berechneten Hüllvolumen geschnitten, um die Näherung des Hüllvolumens und die Näherung der Ausrichtung des Körpers 102 zu verfeinern.
  • 11 zeigt ein weiteres Ausführungsbeispiel des Formcharakterisierungssystems 950, bei dem ein Sensor 904 verwendet wird, um eine Vielzahl von Bildern mit Darstellungen eines Schattens 906 des Körpers 102 zu erzeugen, während der Körper 102 beispielsweise entlang eines Pfades mit der Bezeichnung R 502 durch den Raum bewegt wird, während er von einer (1) Lichtquelle 902 beleuchtet wird. Die Blöcke 928 bis 940 in 10 können jedes der von dem Sensor 904 erzeugten Bilder des Körpers 102 so verarbeiten, als wäre jedes Bild von einem anderen Sensor erzeugt worden.
  • Die schattenaufnehmenden Einrichtungen können mittels eines Körpers von bekannter Form und Größe kalibriert werden. Ein repräsentativer Körper 700, der zur Kalibrierung verwendet werden kann, ist in 7a dargestellt, und die Verwendung dieses Körpers zur Kalibrierung von schattenaufnehmenden Einrichtungen entspricht dem oben beschriebenen Prozess zur Kalibrierung der Kameras, mit dem Unterschied, dass anstatt von Bildern der Kameras 108 Bilder der schattenaufnehmenden Einrichtungen 906-1 bis 906-N verwendet werden.
  • Die Algorithmen, die zur näherungsweisen Ermittlung der Form des Körpers 102 verwendet werden, können beliebige der wohlbekannten und auf dem Gebiet der Computergraphik verwendeten sein. Solche Algorithmen sind in auf dem Gebiet verwendeten Publikationen beschrieben wie Computer Graphics: Principles and Practise von James D. Foley, et al (Addison-Wesley, 1990), welches hiermit durch Inbezugnahme einbezogen wird. Ausgehend von der bestimmten Form des Körpers 102 kann das System anschließend die Lage der Spitze 126 bestimmen.
  • Werden wenigstens zwei Erfassungseinrichtungen (entweder Kameras 108 oder schattenaufnehmende Einrichtungen 904) verwendet, dann sind der Strahler 206 und das Positionsverfolgungssystem 106 nicht erforderlich, weil das Bild des Körpers (oder der Schatten des Körpers) schon einer der mehreren Einrichtungen Informationen über die relative Position des Körpers 102 bezüglich der anderen Einrichtungen bereitstellt. Diese Informationen können verwendet werden, um die Position des Körpers 102 bezüglich des Koordinatensystems 112 des Navigationsrechners 104 beispielsweise daraus abzuleiten, dass mehrere homologe Punktepaare in mindestens zwei Kameraansichten des Körpers 102 stereographisch bestimmt werden. Dies ist der Fall, da die Position der Erfassungseinrichtungen (entweder 108 oder 904) bezüglich des Koordinatensystems 112 des Navigationsrechners 104 bekannt ist und während des Betriebes des Formcharakterisierungssystems verfolgt wird und eine lineare Transformation verwendet werden kann, um zwischen den Koordinatensystemen der Erfassungseinrichtung 108 oder 904 und dem des Navigationsrechners 104 abzubilden.
  • Zusätzlich kann der realistische Eindruck des Körpers 102, während er auf einem Anzeigemonitor dargestellt wird, weiter verbessert werden, indem Farbgebung und/oder Textur optional mit bekannten Verfahren erschaffen werden. In diesem Fall können eine oder mehrere Lichtquellen 128 optional simuliert werden, um die auf einem Computergraphikschirm dargestellte Ansicht des Körpers 102 zu schattieren.

Claims (43)

  1. System zur Bestimmung der Form und Ausrichtung eines Körpers (102), umfassend: - ein rechnergestütztes Navigationssystem, welches ein globales Koordinatensystem (112) aufstellt; - eine Erfassungseinrichtung (108), welche ausgebildet ist, eine Serie von Darstellungen des Körpers (102) zu erzeugen, wobei ein Koordinatensystem (122) der Erfassungseinrichtung (108) bezüglich des globalen Koordinatensystems (112) kalibriert ist; - eine dem Körper zugeordnete Verfolgungseinrichtung (106), deren Koordinatensystem (120) bezüglich des globalen Koordinatensystems (112) kalibriert ist, wobei die Verfolgungseinrichtung (106) ausgebildet ist, den Körper (102) relativ zum globalen Koordinatensystem (112) des rechnergestützten Navigationssystems zu verfolgen und mit dem rechnergestützten Navigationssystem zu kommunizieren; und - wobei das rechnergestützte Navigationssystem eine zentrale Verarbeitungseinheit besitzt, die ausgebildet ist, die Serie von Darstellungen und eine relative Lage des Körpers (102) zum globalen Koordinatensystem (112) des rechnergestützten Navigationssystems zu verarbeiten, um die Form und Ausrichtung des Körpers (102) relativ zur Verfolgungseinrichtung (106) zu bestimmen.
  2. System gemäß Anspruch 1, wobei die Erfassungseinrichtung (108) mehrere digitale Kameras beinhaltet und jede Darstellung ein von der Kamera erfasstes Bild ist.
  3. System gemäß Anspruch 1, wobei die Erfassungseinrichtung (108) eine Videokamera ist und die Darstellung ein von der Videokamera erfasster Video-Frame ist.
  4. System gemäß Anspruch 1, wobei die Erfassungseinrichtung (108) den vom Körper (102) geworfenen Schatten (906) bestimmt und die Darstellung ein Bild des Schattens (906) ist.
  5. System gemäß Anspruch 2, wobei das System darüber hinaus einen festen Hintergrund (110) beinhaltet.
  6. System gemäß Anspruch 1, wobei die Verfolgungseinrichtung (106) ein optisches Verfolgungssystem ist.
  7. System gemäß Anspruch 6, wobei die Verfolgungseinrichtung (106) einen aktiven Strahler (206) beinhaltet, der dem Körper (102) zugeordnet ist.
  8. System gemäß Anspruch 6, wobei die Verfolgungseinrichtung (106) Leuchtdioden beinhaltet.
  9. System gemäß Anspruch 1, wobei die Verfolgungseinrichtung (106) eine nichtoptische Verfolgungseinrichtung (106) ist.
  10. System gemäß Anspruch 9, wobei die Verfolgungseinrichtung (106) eine magnetische Verfolgungseinrichtung (106) ist.
  11. System gemäß Anspruch 1, wobei die Verfolgungseinrichtung (106) fest am Körper (102) befestigt ist.
  12. System gemäß Anspruch 1, wobei die Verfolgungseinrichtung (106) in den Körper (102) eingebaut ist.
  13. System gemäß Anspruch 1, wobei die Erfassungseinrichtung (108) eine einzelne Kamera ist, welche mehrere Bilder erfasst, während der Körper (102) relativ zur Kamera bewegt wird, und jede Darstellung ein von der Kamera erfasstes Bild ist.
  14. System gemäß Anspruch 4, wobei die Erfassungseinrichtung (108) eine Matrix von ladungsgekoppelten Bauelementen ist, welche die Bewegung des vom Körper (102) geworfenen Schattens (906) bestimmt, während der Körper (102) relativ zur Erfassungseinrichtung (108) bewegt wird.
  15. System gemäß Anspruch 1, wobei das rechnergestützte Navigationssystem basierend auf der ermittelten Form und Ausrichtung des Körpers (102) die Position eines charakteristischen Punktes (124) auf dem Körper (102) verfolgt.
  16. System gemäß Anspruch 1, wobei ein Navigationsrechner (104) eine Näherung der Form des Körpers (102) mit einem Modell des Körpers (102), welches aus einer Vielzahl von Modellen, die in dem Navigationsrechner (104) gespeichert sind, ausgewählt ist, vergleicht.
  17. System zur Bestimmung der Form und Ausrichtung eines Körpers (102), umfassend: - ein rechnergestütztes Navigationssystem, welches ein globales Koordinatensystem (112) aufstellt; - eine Erfassungseinrichtung (108), welche ausgebildet ist, eine Serie von Darstellungen des Körpers (102) während einer relativen Bewegung zwischen dem Körper (102) und der Erfassungseinrichtung (108) zu erzeugen, wobei ein Koordinatensystem (122) der Erfassungseinrichtung (108) bezüglich des globalen Koordinatensystems (112) kalibriert ist; - einen Strahler (206), der mit dem Körper (102) in einer festen Beziehung steht; - eine Verfolgungseinrichtung (106) mit einem optischen Positionssensor (204), der ausgebildet ist, das von dem Strahler (206) abgestrahlte Licht zu erfassen und den sich mit dem Körper (102) bewegenden Strahler (206) zu verfolgen, um den Körper (102) relativ zum globalen Koordinatensystem (112) des rechnergestützten Navigationssystems zu lokalisieren; und - wobei das rechnergestützte Navigationssystem eine zentrale Verarbeitungseinheit besitzt, die ausgebildet ist, die Serie von Bildern und eine relative Lage des Körpers (102) zum globalen Koordinatensystems (112) des rechnergestützten Navigationssystems zu verarbeiten, um die Form und Ausrichtung des Körpers (102) relativ zum Strahler (206) zu bestimmen.
  18. System gemäß Anspruch 17, wobei die Erfassungseinrichtung (108) mehrere digitale Videokameras beinhaltet.
  19. System gemäß Anspruch 18, wobei das System darüber hinaus einen festen Hintergrund (110) beinhaltet.
  20. System gemäß Anspruch 17, wobei die Verfolgungseinrichtung (106) ein optisches Verfolgungssystem ist.
  21. System gemäß Anspruch 20, wobei die Verfolgungseinrichtung (106) einen aktiven Strahler (206) beinhaltet, der dem Körper (102) zugeordnet ist.
  22. System gemäß Anspruch 20, wobei die Verfolgungseinrichtung (106) Leuchtdioden beinhaltet.
  23. System gemäß Anspruch 17, wobei die Verfolgungseinrichtung (106) fest am Körper (102) befestigt ist.
  24. System gemäß Anspruch 17, wobei die Verfolgungseinrichtung (106) in den Körper (102) eingebaut ist.
  25. System gemäß Anspruch 17, wobei die Erfassungseinrichtung (108) eine einzelne Kamera ist und jede Darstellung ein von der Kamera erfasstes Bild des Körpers (102) ist.
  26. System gemäß Anspruch 17, wobei die Erfassungseinrichtung (108) einen von dem Körper (102) geworfenen Schatten (906) bestimmt.
  27. System gemäß Anspruch 17, wobei das rechnergestützte Navigationssystem basierend auf der ermittelten Form und Ausrichtung des Körpers (102) die Position eines charakteristischen Punktes auf dem Körper (102) verfolgt.
  28. System gemäß Anspruch 17, wobei ein Navigationsrechner (104) eine Näherung der Form des Körpers (102) mit einem Modell des Körpers (102), welches aus einer Vielzahl von Modellen, die in dem Navigationsrechner (104) gespeichert sind, ausgewählt ist, vergleicht.
  29. Verfahren zur Bestimmung der Form und Ausrichtung eines Körpers (102) mittels eines rechnergestützten Navigationssystems, welches ein globales Koordinatensystem (112) definiert, wobei das Verfahren folgende Schritte umfasst: - Erzeugen einer Serie von Darstellungen des Körpers (102) mittels einer Erfassungseinrichtung (108), wobei ein Koordinatensystem (122) der Erfassungseinrichtung (108) bezüglich des globalen Koordinatensystems (112) kalibriert ist; - Bestimmen (314) eines zusammengesetzten Hüllvolumens des Körpers (102) aus der Serie von Darstellungen; - Bestimmen (316) der Form des Körpers (102) aus dem zusammengesetzten Hüllvolumen; - Bestimmen einer Position und einer Ausrichtung des Körpers (102) mittels einer dem Körper (102) zugeordneten Verfolgungseinrichtung (106), die den Körper (102) relativ zum globalen Koordinatensystem (112) des rechnergestützten Navigationssystems verfolgt und mit dem rechnergestützten Navigationssystem kommuniziert, wobei ein Koordinatensystem (120) der Verfolgungseinrichtung (106) bezüglich des globalen Koordinatensystems (112) kalibriert ist.
  30. Verfahren gemäß Anspruch 29, wobei das Verfahren das Kalibrieren des Körpers (102) bezüglich des rechnergestützten Navigationssystems beinhaltet, so dass das rechnergestützte Navigationssystem sowohl die Position als auch die Ausrichtung des Körpers (102) verfolgen kann.
  31. Verfahren gemäß Anspruch 29, wobei der Erzeugungsschritt mittels einer Videokamera durchgeführt wird und jede Darstellung ein Video-Frame von einer Videokamera ist.
  32. Verfahren gemäß Anspruch 29, wobei der Erzeugungsschritt durch Bestimmen des Schattens (906), welchen der Körper (102) wirft, durchgeführt wird und jede Darstellung ein Bild des Schattens (906) ist.
  33. Verfahren gemäß Anspruch 29, wobei die Verfolgungseinrichtung (106) eine optische Verfolgungseinrichtung (106) ist.
  34. Verfahren gemäß Anspruch 29, wobei die Verfolgungseinrichtung (106) einen dem Körper (102) zugeordneten aktiven Strahler (206) beinhaltet.
  35. Verfahren gemäß Anspruch 33, wobei die Verfolgungseinrichtung (106) Leuchtdioden beinhaltet.
  36. Verfahren gemäß Anspruch 29, wobei die Verfolgungseinrichtung (106) eine nichtoptische Verfolgungseinrichtung (106) ist.
  37. Verfahren gemäß Anspruch 36, wobei die Verfolgungseinrichtung (106) eine magnetische Verfolgungseinrichtung (106) ist.
  38. Verfahren gemäß Anspruch 29, wobei die Verfolgungseinrichtung (106) fest am Körper (102) befestigt ist.
  39. Verfahren gemäß Anspruch 29, wobei die Verfolgungseinrichtung (106) in den Körper (102) eingebaut ist.
  40. Verfahren gemäß Anspruch 29, wobei der Erzeugungsschritt mittels einer einzelnen Kamera, die mehrere Bilder erfasst, während der Körper (102) relativ zur Kamera bewegt wird, durchgeführt wird.
  41. Verfahren gemäß Anspruch 29, wobei das rechnergestützte Navigationssystem basierend auf der ermittelten Form und Ausrichtung des Körpers (102) die Position eines charakteristischen Punktes auf dem Körper (102) verfolgt.
  42. Verfahren gemäß Anspruch 29, wobei der Bestimmungsschritt ein Vergleichen einer Näherung der Form des Körpers (102) mit einem Modell des Körpers (102), welches aus einer Vielzahl von Modellen, welche in einem Navigationsrechner (104) gespeichert sind, ausgewählt ist, beinhaltet.
  43. Verfahren gemäß Anspruch 29, wobei eine Serie von Darstellungen des Körpers (102) aus wenigstens zwei Perspektiven erzeugt und Position und Ausrichtung des Körpers (102) aus der Form des Körpers (102) und der Serie von Darstellungen des Körpers (102) bestimmt werden.
DE102006005036.3A 2005-02-04 2006-02-03 Vorrichtung und Verfahren zur verbesserten Formcharakterisierung Active DE102006005036B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/050,920 US7623250B2 (en) 2005-02-04 2005-02-04 Enhanced shape characterization device and method
US11/050,920 2005-02-04

Publications (2)

Publication Number Publication Date
DE102006005036A1 DE102006005036A1 (de) 2006-09-07
DE102006005036B4 true DE102006005036B4 (de) 2023-05-25

Family

ID=36848288

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006005036.3A Active DE102006005036B4 (de) 2005-02-04 2006-02-03 Vorrichtung und Verfahren zur verbesserten Formcharakterisierung

Country Status (3)

Country Link
US (1) US7623250B2 (de)
JP (1) JP2006258798A (de)
DE (1) DE102006005036B4 (de)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112005002690B4 (de) * 2004-11-01 2013-05-29 Cognitens Ltd. Verfahren und System zur optischen Kantenbestimmung
JP4327754B2 (ja) * 2005-03-16 2009-09-09 富士フイルム株式会社 画像一覧生成装置および方法並びにプログラム
WO2007038330A2 (en) * 2005-09-22 2007-04-05 3M Innovative Properties Company Artifact mitigation in three-dimensional imaging
US9439623B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical planning system and navigation system
US9498182B2 (en) 2012-05-22 2016-11-22 Covidien Lp Systems and methods for planning and navigation
US9439627B2 (en) 2012-05-22 2016-09-13 Covidien Lp Planning system and navigation system for an ablation procedure
US9439622B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical navigation system
US8750568B2 (en) 2012-05-22 2014-06-10 Covidien Lp System and method for conformal ablation planning
US9161799B2 (en) 2013-01-28 2015-10-20 Warsaw Orthopedic, Inc. Surgical implant system and method
US9830424B2 (en) 2013-09-18 2017-11-28 Hill-Rom Services, Inc. Bed/room/patient association systems and methods
US10064687B2 (en) 2014-01-13 2018-09-04 Brainlab Ag Estimation and compensation of tracking inaccuracies
US9950194B2 (en) 2014-09-09 2018-04-24 Mevion Medical Systems, Inc. Patient positioning system
GB2559090B (en) 2015-11-03 2020-10-07 Synaptive Medical Barbados Inc Dual zoom and dual field-of-view microscope
DE102016205469A1 (de) * 2016-04-01 2017-10-05 Wobben Properties Gmbh Messsystem zur Vermessung einer Oberfläche
EP3463164B1 (de) 2016-05-23 2023-01-11 MAKO Surgical Corp. Systeme und verfahren zur identifizierung und verfolgung von physischen objekten während eines robotischen chirurgischen eingriffs
US11291507B2 (en) 2018-07-16 2022-04-05 Mako Surgical Corp. System and method for image based registration and calibration
US11707329B2 (en) 2018-08-10 2023-07-25 Covidien Lp Systems and methods for ablation visualization
US11911325B2 (en) 2019-02-26 2024-02-27 Hill-Rom Services, Inc. Bed interface for manual location
CN113841392A (zh) * 2019-05-16 2021-12-24 麦克赛尔株式会社 图像处理装置以及图像处理方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6356272B1 (en) 1996-08-29 2002-03-12 Sanyo Electric Co., Ltd. Texture information giving method, object extracting method, three-dimensional model generating method and apparatus for the same
US20020051006A1 (en) 2000-09-26 2002-05-02 Minolta Co., Ltd. Method and system for generating three-dimensional data
US20030016861A1 (en) 2000-04-27 2003-01-23 Takayuki Okatani Apparatus for constituting three-dimensional model
US20030038801A1 (en) 2001-08-24 2003-02-27 Sanyo Electric Co., Ltd. Three dimensional modeling apparatus
US20030063292A1 (en) 1998-10-23 2003-04-03 Hassan Mostafavi Single-camera tracking of an object
US6662036B2 (en) 1991-01-28 2003-12-09 Sherwood Services Ag Surgical positioning system

Family Cites Families (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1489334A (en) * 1973-10-19 1977-10-19 Nat Res Dev Surgical splints and materials therefor
DE2936259A1 (de) * 1979-09-07 1981-03-19 Siemens AG, 1000 Berlin und 8000 München Vorrichtung zum punktieren von koerperinternen organen, gefaessen o.dgl.
DE2939044A1 (de) * 1979-09-27 1981-04-09 Ibm Deutschland Gmbh, 7000 Stuttgart Einrichtung fuer elektronenstrahllithographie
DE2940005A1 (de) * 1979-10-03 1981-04-16 Philips Patentverwaltung Gmbh, 2000 Hamburg Verfahren und vorrichtung zur schichtweisen darstellung eines dreidimensionalen objektes
DE2941395A1 (de) * 1979-10-12 1981-04-23 Philips Patentverwaltung Gmbh, 2000 Hamburg Vorrichtung zur erzeugung von schichtbildern aus vielfachperspektivbildern mit unterschiedlichem ueberlagerungsgrad
JPS5786368A (en) * 1980-11-19 1982-05-29 Hitachi Medical Corp Body contour display device for radiotherapy plan
US4567896A (en) * 1984-01-20 1986-02-04 Elscint, Inc. Method and apparatus for calibrating a biopsy attachment for ultrasonic imaging apparatus
DE3500605A1 (de) * 1985-01-10 1986-07-10 Markus Dr. 5300 Bonn Hansen Vorrichtung zur messung der positionen und bewegungen des unterkiefers relativ zum oberkiefer
US4722056A (en) * 1986-02-18 1988-01-26 Trustees Of Dartmouth College Reference display systems for superimposing a tomagraphic image onto the focal plane of an operating microscope
US4757379A (en) * 1986-04-14 1988-07-12 Contour Dynamics Apparatus and method for acquisition of 3D images
US4873651A (en) * 1987-04-21 1989-10-10 Case Western Reserve University Method and apparatus for reconstructing three-dimensional surfaces from two-dimensional images
DE3717871C3 (de) * 1987-05-27 1995-05-04 Georg Prof Dr Schloendorff Verfahren und Vorrichtung zum reproduzierbaren optischen Darstellen eines chirururgischen Eingriffes
US4836778A (en) * 1987-05-26 1989-06-06 Vexcel Corporation Mandibular motion monitoring system
US5207681A (en) * 1987-10-26 1993-05-04 Neurodynamics, Inc. Drill guide apparatus for perpendicular perforation of the cranium
US4908656A (en) * 1988-01-21 1990-03-13 Nikon Corporation Method of dimension measurement for a pattern formed by exposure apparatus, and method for setting exposure conditions and for inspecting exposure precision
US5251127A (en) * 1988-02-01 1993-10-05 Faro Medical Technologies Inc. Computer-aided surgery apparatus
EP0326768A3 (de) * 1988-02-01 1991-01-23 Faro Medical Technologies Inc. Computerunterstütze chirurgische Vorrichtung
US5050608A (en) * 1988-07-12 1991-09-24 Medirand, Inc. System for indicating a position to be operated in a patient's body
US5422491A (en) * 1988-11-04 1995-06-06 Fujitsu Limited Mask and charged particle beam exposure method using the mask
JP2702183B2 (ja) * 1988-11-04 1998-01-21 富士通株式会社 半導体製造装置
US5197476A (en) * 1989-03-16 1993-03-30 Christopher Nowacki Locating target in human body
JP2931983B2 (ja) * 1989-06-30 1999-08-09 ジーイー横河メディカルシステム株式会社 放射線治療システム
ES2085885T3 (es) * 1989-11-08 1996-06-16 George S Allen Brazo mecanico para sistema interactivo de cirugia dirigido por imagenes.
US5222499A (en) * 1989-11-15 1993-06-29 Allen George S Method and apparatus for imaging the anatomy
US5172331A (en) * 1989-12-18 1992-12-15 Fujitsu Limited Apparatus and method for effecting exposure of sample to charged particle beam
US4972836A (en) * 1989-12-18 1990-11-27 General Electric Company Motion detector for high-resolution magnetic resonance imaging
US5086401A (en) * 1990-05-11 1992-02-04 International Business Machines Corporation Image-directed robotic system for precise robotic surgery including redundant consistency checking
US5198877A (en) * 1990-10-15 1993-03-30 Pixsys, Inc. Method and apparatus for three-dimensional non-contact shape sensing
WO1992006645A1 (en) 1990-10-19 1992-04-30 St. Louis University Surgical probe locating system for head use
JP3112025B2 (ja) * 1990-10-26 2000-11-27 株式会社日立製作所 生体計測装置
US5662111A (en) * 1991-01-28 1997-09-02 Cosman; Eric R. Process of stereotactic optical navigation
US6167295A (en) 1991-01-28 2000-12-26 Radionics, Inc. Optical and computer graphic stereotactic localizer
US6006126A (en) * 1991-01-28 1999-12-21 Cosman; Eric R. System and method for stereotactic registration of image scan data
US5155435A (en) * 1991-08-08 1992-10-13 The Regents Of The University Of California Method and apparatus for performing interventional medical procedures using MR imaging of interventional device superimposed with ghost patient image
DE59207799D1 (de) * 1991-10-04 1997-02-13 Zeiss Carl Fa Stirnreif für eine Mess-, Beleuchtungs- oder Beobachtungseinheit
US5276337A (en) * 1991-10-31 1994-01-04 International Business Machines Corporation Accuracy of alignment and O/L measurement systems by means of tunable source and handling of signal
US5230623A (en) * 1991-12-10 1993-07-27 Radionics, Inc. Operating pointer with interactive computergraphics
US5389101A (en) * 1992-04-21 1995-02-14 University Of Utah Apparatus and method for photogrammetric surgical localization
EP0574686A2 (de) * 1992-05-13 1993-12-22 The Spectranetics Corporation Lineares Abtastverfahren und Vorrichtung zur Energieeinkopplung in ein optische Faserbündel
US5365996A (en) * 1992-06-10 1994-11-22 Amei Technologies Inc. Method and apparatus for making customized fixation devices
FR2694881B1 (fr) * 1992-07-31 1996-09-06 Univ Joseph Fourier Procede de determination de la position d'un organe.
US5309913A (en) * 1992-11-30 1994-05-10 The Cleveland Clinic Foundation Frameless stereotaxy system
US5732703A (en) * 1992-11-30 1998-03-31 The Cleveland Clinic Foundation Stereotaxy wand and tool guide
US5517990A (en) * 1992-11-30 1996-05-21 The Cleveland Clinic Foundation Stereotaxy wand and tool guide
FR2699271B1 (fr) * 1992-12-15 1995-03-17 Univ Joseph Fourier Procédé de détermination du point d'ancrage fémoral d'un ligament croisé de genou.
EP0616290B1 (de) * 1993-03-01 2003-02-05 Kabushiki Kaisha Toshiba System zur Verarbeitung von medizinischen Daten zur Unterstützung der Diagnose
US5787886A (en) * 1993-03-19 1998-08-04 Compass International Incorporated Magnetic field digitizer for stereotatic surgery
EP0700269B1 (de) * 1993-04-22 2002-12-11 Image Guided Technologies, Inc. Anordnung zur bestimmung der gegenseitigen lage von körpern
DE69433588T2 (de) * 1993-04-26 2005-02-03 St. Louis University Anzeige der lage einer sonde
US5394875A (en) * 1993-10-21 1995-03-07 Lewis; Judith T. Automatic ultrasonic localization of targets implanted in a portion of the anatomy
US5549616A (en) * 1993-11-02 1996-08-27 Loma Linda University Medical Center Vacuum-assisted stereotactic fixation system with patient-activated switch
US5876325A (en) * 1993-11-02 1999-03-02 Olympus Optical Co., Ltd. Surgical manipulation system
US5748696A (en) * 1993-11-26 1998-05-05 Kabushiki Kaisha Toshiba Radiation computed tomography apparatus
EP0665696B1 (de) * 1994-01-31 2001-08-22 Hitachi Denshi Kabushiki Kaisha Fernsehkamera mit digitaler Videosignalbearbeitungsschaltung
DE4415944C2 (de) * 1994-05-05 1998-07-09 Karl Stefan Riener Elektronische Zielscheibe und Verfahren zu dessen Auswertung
DE4416229A1 (de) * 1994-05-07 1996-01-11 Zeiss Carl Fa Verfahren zum Betrieb eines Operationsmikroskopes
DE4417944A1 (de) * 1994-05-21 1995-11-23 Zeiss Carl Fa Verfahren zum Korrelieren verschiedener Koordinatensysteme in der rechnergestützten, stereotaktischen Chirurgie
DE69531994T2 (de) * 1994-09-15 2004-07-22 OEC Medical Systems, Inc., Boston System zur positionserfassung mittels einer an einem patientenkopf angebrachten referenzeinheit zur anwendung im medizinischen gebiet
DE69530355D1 (de) * 1994-11-28 2003-05-22 Ohio State University Columbus Vorrichtung zur medizinischen Intervention
JP2611188B2 (ja) * 1994-11-30 1997-05-21 工業技術院長 生体計測用基準点設定方法および装置
US5682890A (en) * 1995-01-26 1997-11-04 Picker International, Inc. Magnetic resonance stereotactic surgery with exoskeleton tissue stabilization
JP3539645B2 (ja) * 1995-02-16 2004-07-07 株式会社日立製作所 遠隔手術支援装置
US5591207A (en) * 1995-03-30 1997-01-07 Linvatec Corporation Driving system for inserting threaded suture anchors
US5617857A (en) * 1995-06-06 1997-04-08 Image Guided Technologies, Inc. Imaging system having interactive medical instruments and methods
US5772594A (en) * 1995-10-17 1998-06-30 Barrick; Earl F. Fluoroscopic image guided orthopaedic surgery system with intraoperative registration
US6175415B1 (en) * 1997-02-19 2001-01-16 United Technologies Corporation Optical profile sensor
JP3008875B2 (ja) * 1997-02-25 2000-02-14 日本電気株式会社 被写体抽出装置
DE19709960A1 (de) * 1997-03-11 1998-09-24 Aesculap Ag & Co Kg Verfahren und Vorrichtung zur präoperativen Bestimmung der Positionsdaten von Endoprothesenteilen
US5921992A (en) * 1997-04-11 1999-07-13 Radionics, Inc. Method and system for frameless tool calibration
US6512844B2 (en) * 1997-05-30 2003-01-28 California Institute Of Technology 3D rendering
US5878103A (en) * 1997-06-30 1999-03-02 Siemens Corporate Research, Inc. Adaptive detector masking for speed-up of cone beam reconstruction
WO1999001078A2 (en) * 1997-07-03 1999-01-14 Koninklijke Philips Electronics N.V. Image-guided surgery system
IL121267A0 (en) * 1997-07-09 1998-01-04 Yeda Res & Dev Method and device for determining the profile of an object
US6081336A (en) * 1997-09-26 2000-06-27 Picker International, Inc. Microscope calibrator
US6021343A (en) * 1997-11-20 2000-02-01 Surgical Navigation Technologies Image guided awl/tap/screwdriver
US6317139B1 (en) * 1998-03-25 2001-11-13 Lance Williams Method and apparatus for rendering 3-D surfaces from 2-D filtered silhouettes
US6301498B1 (en) * 1998-04-17 2001-10-09 Cornell Research Foundation, Inc. Method of determining carotid artery stenosis using X-ray imagery
US6563499B1 (en) * 1998-07-20 2003-05-13 Geometrix, Inc. Method and apparatus for generating a 3D region from a surrounding imagery
US6226003B1 (en) * 1998-08-11 2001-05-01 Silicon Graphics, Inc. Method for rendering silhouette and true edges of 3-D line drawings with occlusion
DE19842798C1 (de) * 1998-09-18 2000-05-04 Howmedica Leibinger Gmbh & Co Kalibriervorrichtung
IL126809A (en) * 1998-10-29 2001-08-26 Sarin Technologies Ltd Apparatus and method of examining the shape of gemstones
US6285902B1 (en) * 1999-02-10 2001-09-04 Surgical Insights, Inc. Computer assisted targeting device for use in orthopaedic surgery
US6590669B1 (en) * 1999-04-30 2003-07-08 Christoph Wagner Method for optically detecting the shape of objects
JP2001061861A (ja) * 1999-06-28 2001-03-13 Siemens Ag 画像撮影手段を備えたシステムおよび医用ワークステーション
AUPQ212499A0 (en) * 1999-08-10 1999-09-02 Ajax Cooke Pty Ltd Item recognition method and apparatus
EP1135748A1 (de) * 1999-09-30 2001-09-26 Koninklijke Philips Electronics N.V. Verfahren und anordnung der bildverarbeitung zur verfolgung eines bewegten objektes in einer bildsequenz
US6288785B1 (en) * 1999-10-28 2001-09-11 Northern Digital, Inc. System for determining spatial position and/or orientation of one or more objects
US6535219B1 (en) * 2000-03-30 2003-03-18 Intel Corporation Method and apparatus to display objects in a computer system
JP2002031507A (ja) * 2000-07-14 2002-01-31 Tokyo Denki Univ 三次元画像計測装置
US20040181149A1 (en) * 2001-02-07 2004-09-16 Ulrich Langlotz Device and method for intraoperative navigation
EP1238684B1 (de) * 2001-03-05 2004-03-17 BrainLAB AG Verfahren zur Erstellung bzw. Aktualisierung eines Bestrahlungsplans
US6455835B1 (en) * 2001-04-04 2002-09-24 International Business Machines Corporation System, method, and program product for acquiring accurate object silhouettes for shape recovery
EP1412541A2 (de) * 2001-06-20 2004-04-28 Koninklijke Philips Electronics N.V. Verfahren zur segmentierung numerischer bilder
EP1451671A2 (de) * 2001-07-06 2004-09-01 Koninklijke Philips Electronics N.V. Bildverarbeitungsverfahren zur interaktion mit einer 3d-fläche, die in einem 3d-bild dargestellt ist
US7349922B2 (en) * 2001-11-14 2008-03-25 Yeda Research And Development Co. Ltd. Method and apparatus for data clustering including segmentation and boundary detection
EP1340470B1 (de) * 2002-03-01 2004-09-15 BrainLAB AG Operationslampe mit Kamerasystem zur 3D-Referenzierung
ATE275882T1 (de) * 2002-04-16 2004-10-15 Brainlab Ag Marker für ein instrument und verfahren zur lokalisation eines markers
DE60225792T2 (de) * 2002-07-25 2009-04-16 Stryker Leibinger Gmbh & Co. Kg Korrektur von geometrischen Verzerrungen und Intensitätsverzerrungen in MR-Daten
US6658080B1 (en) * 2002-08-05 2003-12-02 Voxar Limited Displaying image data using automatic presets
JP3941631B2 (ja) * 2002-08-16 2007-07-04 富士ゼロックス株式会社 三次元撮像装置および方法
JP2005537648A (ja) * 2002-08-29 2005-12-08 サイバーオプティックス・コーポレーション 改善された光学機器を備える多重光源整列センサ
DE10254942B3 (de) * 2002-11-25 2004-08-12 Siemens Ag Verfahren zur automatischen Ermittlung der Koordinaten von Abbildern von Marken in einem Volumendatensatz und medizinische Vorrichtung
US7218763B2 (en) * 2003-02-27 2007-05-15 Eastman Kodak Company Method for automated window-level settings for magnetic resonance images
US20060036148A1 (en) * 2004-07-23 2006-02-16 Grimm James E Navigated surgical sizing guide

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6662036B2 (en) 1991-01-28 2003-12-09 Sherwood Services Ag Surgical positioning system
US6356272B1 (en) 1996-08-29 2002-03-12 Sanyo Electric Co., Ltd. Texture information giving method, object extracting method, three-dimensional model generating method and apparatus for the same
US20030063292A1 (en) 1998-10-23 2003-04-03 Hassan Mostafavi Single-camera tracking of an object
US20030016861A1 (en) 2000-04-27 2003-01-23 Takayuki Okatani Apparatus for constituting three-dimensional model
US20020051006A1 (en) 2000-09-26 2002-05-02 Minolta Co., Ltd. Method and system for generating three-dimensional data
US20030038801A1 (en) 2001-08-24 2003-02-27 Sanyo Electric Co., Ltd. Three dimensional modeling apparatus

Also Published As

Publication number Publication date
US7623250B2 (en) 2009-11-24
DE102006005036A1 (de) 2006-09-07
JP2006258798A (ja) 2006-09-28
US20060241404A1 (en) 2006-10-26

Similar Documents

Publication Publication Date Title
DE102006005036B4 (de) Vorrichtung und Verfahren zur verbesserten Formcharakterisierung
DE112006002674B4 (de) Verfahren und Vorrichtungen für praktisches 3D-Sichtigkeitssystem
EP3330922B1 (de) Verfahren und vorrichtung zum darstellen eines objektes
US8208029B2 (en) Method and system for calibrating camera with rectification homography of imaged parallelogram
DE69819363T2 (de) System zur bestimmung der räumlichen position und orientierung eines körpers
DE102015011914B4 (de) Konturlinienmessvorrichtung und Robotersystem
DE102012108567B4 (de) Verfahren zum Erlangen von Tiefeninformationen unter Verwendung eines Lichtmusters
DE112009001833B4 (de) 3D-Flugzeit-Kamerasystem und zugehöriges Positions-/Orientierungs-Kalibrationsverfahren
DE60310226T2 (de) Verfahren zur linearen raumabtastung und vorrichtung zur erzeugung eines numerischen 3d modells
EP2245986B1 (de) Pyramidenförmige Röntgenmarkervorrichtung
EP2886043A1 (de) Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten
CN112132906B (zh) 一种深度相机与可见光相机之间的外参标定方法及系统
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE112010002174T5 (de) Verfahren und vorrichtung für ein praktisches 3d-sehsystem
CN109215063A (zh) 一种事件触发相机与三维激光雷达的配准方法
DE112014001268T5 (de) Kompensation eines Scanners mit strukturiertem Licht, der in sechs Freiheitsgraden verfolgt wird
EP1420264A1 (de) Verfahren und Vorrichtung zur Kalibrierung eines Messsystems
EP2082686A1 (de) Orientierte Wiedergabe von Aufnahmen
DE102018129143A1 (de) Variabler messobjektabhängiger Kameraaufbau und Kalibrierung davon
DE212012000054U1 (de) Geräte, Aufbau, Schaltungen und Systeme zum Beurteilen, Einschätzen und/oder Bestimmen relativer Positionen, Ausrichtungen, Orientierungen und Rotationswinkel eines Teils eines Knochens und zwischen zwei oder mehreren Teilen eines oder mehrerer Knochen
EP2728374A1 (de) Erfindung betreffend die Hand-Auge-Kalibrierung von Kameras, insbesondere Tiefenbildkameras
DE112017003426T5 (de) Verfahren und System zum Rekonstruieren einer dreidimensionalen Darstellung
DE102014012693B4 (de) System und Verfahren sowie Computerprogramm zur Positions-und Lagebestimmung von Objekten
EP1657678B1 (de) Videobildunterstützte Patientenregistrierung
Gomez et al. Calibration errors in augmented reality: A practical study

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20130131

R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: STRYKER EUROPEAN OPERATIONS HOLDINGS LLC, KALA, US

Free format text: FORMER OWNER: STRYKER EUROPEAN HOLDINGS VI, LLC (N.D. GES. D. STAATES DELAWARE), KALAMAZOO, MICH., US

Owner name: STRYKER EUROPEAN OPERATIONS HOLDINGS LLC, KALA, US

Free format text: FORMER OWNER: STRYKER LEIBINGER GMBH & CO. KG, 79111 FREIBURG, DE

Owner name: STRYKER EUROPEAN HOLDINGS I, LLC (N.D. GES. D., US

Free format text: FORMER OWNER: STRYKER LEIBINGER GMBH & CO. KG, 79111 FREIBURG, DE

Owner name: STRYKER EUROPEAN HOLDINGS I, LLC (N.D. GES. D., US

Free format text: FORMER OWNER: STRYKER EUROPEAN HOLDINGS VI, LLC (N.D. GES. D. STAATES DELAWARE), KALAMAZOO, MICH., US

R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE

R081 Change of applicant/patentee

Owner name: STRYKER EUROPEAN OPERATIONS HOLDINGS LLC, KALA, US

Free format text: FORMER OWNER: STRYKER EUROPEAN HOLDINGS I, LLC (N.D. GES. D. STAATES DELAWARE), KALAMAZOO, MICH., US

R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final