DE69819363T2 - System zur bestimmung der räumlichen position und orientierung eines körpers - Google Patents

System zur bestimmung der räumlichen position und orientierung eines körpers Download PDF

Info

Publication number
DE69819363T2
DE69819363T2 DE69819363T DE69819363T DE69819363T2 DE 69819363 T2 DE69819363 T2 DE 69819363T2 DE 69819363 T DE69819363 T DE 69819363T DE 69819363 T DE69819363 T DE 69819363T DE 69819363 T2 DE69819363 T2 DE 69819363T2
Authority
DE
Germany
Prior art keywords
energy
segment
pair
brand
positions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69819363T
Other languages
English (en)
Other versions
DE69819363D1 (de
Inventor
Eldon Stephen LEIS
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northern Digital Inc
Original Assignee
Northern Digital Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northern Digital Inc filed Critical Northern Digital Inc
Publication of DE69819363D1 publication Critical patent/DE69819363D1/de
Application granted granted Critical
Publication of DE69819363T2 publication Critical patent/DE69819363T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • G01S17/875Combinations of systems using electromagnetic waves other than radio waves for determining attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/74Systems using reradiation of electromagnetic waves other than radio waves, e.g. IFF, i.e. identification of friend or foe

Description

  • Die vorliegende Erfindung betrifft Vorrichtungen und Verfahren zum Ermitteln des/der räumlichen Ortes und Ausrichtung von jedem aus einer Mehrzahl von Körpern.
  • Es gibt bekannte Systeme zum Ermitteln der räumlichen Position und Winkelausrichtung eines Körpers (oder Objektes). Ein solches System beinhaltet passive Retroreflektoren wie Punktmarken oder Targets, die an dem Körper angebracht sind, und ein zweites System beinhaltet aktive Strahlungsemitter als die angebrachten Punktmarken. Bei beiden Techniken wird das Bild einer konstrastreichen Marke auf beabstandete Sensoren projiziert und mit mathematischen Verarbeitungsvorgängen werden die dreidimensionalen Koordinaten jeder der Punktmarken ermittelt. Diese dreidimensionalen (d. h. 3D-) Koordinaten werden dann als diskrete Punkte verwendet oder können als ein Satz angesehen werden, wenn ihre geometrische Anordnung bekannt ist, so dass Position und Winkelausrichtung des Körpers (d. h. sechs Freiheitsgrade: x-, y- und z-Positionen sowie Stampf-, Gier- und Schlinger-Winkelausrichtungen) im Raum relativ zu einem dreidimensionalen Koordinatensystem ermittelt werden, die an einem vorgewählten Punkt im Raum zentriert sind, typischerweise an einem Punkt, der relativ zu den Sensoren fest ist.
  • Die Ermittlung der räumlichen Position und entweder des Vektorwinkels oder der Winkelausrichtung eines Körpers hat mehrere Nutzungsmöglichkeiten. So kann beispielsweise ein Zeigegerät aus dem Körper gemacht werden, wobei sich die Endspitze des Zeigegeräts in einer bekannten Position relativ zu den Marken befindet. Ein solches Zeigegerät kann als Digitalisierungszeiger verwendet werden, der in Rückwärtsentwicklungsanwendungen mit der Hand gehalten wird. Ein Bediener bewegt diesen Zeigekörper zu verschiedenen bekannten Stellen auf einem gefertigten Teil, und die Genauigkeit der Fertigungsabläufe wird anhand einer Analyse der ermittelten Endspitzenposition des Zeigegerätes ermittelt. Diese Anwendung erfordert ein äußerst genaues System.
  • In einer anderen Anwendung, wie z. B. bei einem bildgeführten chirurgischen Verfahren, wird die Haltung des Instruments in Bezug auf den Patienten verfolgt. An bestimmten chirurgischen Instrumenten sind Marken angebracht. Anhand dieser Information kann der Chirurg sehen, wohin das Instrument auf einem MR- oder CT-Scan zeigt und was hinter der Endspitze des chirurgischen Instrumentes liegt. Diese Anwendung verlangt ebenfalls ein äußerst genaues System.
  • In einem Emissionsmarken- (d. h. einem aktiven Marken-) System werden mehrere CCD- (ladungsgekoppelte Bauelemente) Sensoren zum Erfassen der von der Marke emittierten Energie verwendet. Eine einzelne Punktmarke wird pro Sensorzyklus zum Emittieren von Infrarotenergie erregt. Bei jedem Sensorzyklus wird die auf den Sensor fokussierte emittierte Energie gesammelt (d. h. integriert) und zum Sensorverarbeitungsschaltkomplex übertragen. Um die 3D-Position der Marke zu ermitteln, muss die Marke auf wenigstens drei Sensorachsen erfasst werden (d. h. um mindestens 3 orthogonale Ebenen abzudecken). Ein System, das emittierende Marken mit auf den Sensoren erzeugten kontrastreichen Bildern verwendet, hat viele Vorteile, wobei die Kontrolle über die Aktivierung jeder der Marken eine positive und automatische Markenunterscheidung und die Fähigkeit ergibt, schnelle Linearsensoren zu verwenden. Schnelle Linearsensoren sind relativ kostspielig, und es kann bei einem einzigen Sensorzyklus immer nur eine Marke verfolgt werden.
  • In einem System mit retroreflektiver Marke (d. h. passiver Marke) wird eine Energiequelle zum Emittieren von Infrarotenergie in der allgemeinen Richtung der retroreflexionsfähigen Marke erregt. Dann wird die von der Marke reflektierte Energie mit Hilfe mehrerer CCD-Sensoren erfasst. Bei jedem Sensorzyklus wird die auf den Sensor fokussierte reflektierte Energie gesammelt (d. h. integriert) und zum Sensorverarbeitungsschaltkomplex übertragen. Um die 3D-Position der Marke zu ermitteln, muss die Marke auf wenigstens drei Sensorachsen erfasst werden (d. h. zum Abdecken von mindestens 3 orthogonalen Ebenen). Ein System mit retroreflexionsfähiger Marke hat viele Vorteile, wie z. B. die Verwendung von drahtlosen Marken und die Fähigkeit, kostenarme langsame Area-Array-Sensoren zu verwenden. Diese Systeme sind jedoch mit Problemen in Verbindung mit positiv identifizierenden Marken behaftet.
  • Das US-Patent 4 652 917 beschreibt ein System zum Überwachen von Position und Haltung einer eine Rakete tragenden Flügelspitze. Eine oder zwei elektronische Kameras ist/sind am Rumpf des Flugzeugs montiert, und drei rechteckige Zielpunkte sind am Flügel in der Nähe der Rakete markiert. Auf Array-Sensoren in den Kameras werden Bilder der Zielpunkte dargestellt. Es kann eine Infrarotlampe vorgesehen sein, um die Zielpunkte bei Nacht zu beleuchten. Die Kameras sind mit einem Computer gekoppelt, der ein Zielverfolgungsgatter von sechs mal acht Pixeln für das Bild jedes Zielpunkts definiert. Die Zielpunkte bedecken jeweils einen Bereich von vier Pixeln auf einer Kamera-Sensor-Array. Der Ort des Medians jedes Zielpunktbildes wird durch Positionieren des jeweiligen Zielverfolgungsgatters über dem Bild ermittelt, so dass sich der Median des Bildes am Median des Gatters befindet. Eine Bewegung der Flügelspitze wird durch Verfolgen der Abweichung des Medians jedes Zielpunktbildes vom Median seines Verfolgungsgatters und durch Umpositionieren des Verfolgungsgatters überwacht. Separate Verarbeitungskanäle verarbeiten die Daten in Bezug auf die drei verschiedenen Zielpunkte. Position und Haltung im Sinne von Stampfen, Gieren und Schlingern der Flügelspitze werden anhand der durch die Verfolgung der drei Zielpunkte erzeugten Abweichungsdaten berechnet. Das US-Patent 4 652 917 schlägt auch vor, dass individuelle Zielpunkte die Form eines Musters oder eines Satzes von kontrastreichen Markierungen oder Linien haben können, die von geeigneten Mustererkennungskomponenten erkannt werden können.
  • Es ist wünschenswert, einen rentablen Area-Array-Sensor zu verwenden, der mehrere Marken in einem einzigen Sensorzyklus verfolgen kann. Wie in der Technik bekannt ist, gibt es Systeme, die einen einzelnen Area-Array-Sensor und kostenarme Komponenten beinhalten. DeMenthon (Patent Nr. 5,227,985) lehrt ein System, das mit einem einzigen Sensor und mit Matrixtechniken zum Ermitteln der Haltung eines Körpers arbeitet. Dieses System ist auf nicht koplanare Marken begrenzt und basiert auf Projektionsmethoden zum Extrahieren von 6D-Informationen aus 2D-Bildern. Dieses Verfahren ist für medizinische Anwendungen nicht genau genug. Wie in der Technik bekannt ist, ist der Fehler in der Tiefenmessung für diese Art von System zu groß. Triangulationsverfahren haben einen klaren Vorteil gegenüber Projektionsverfahren im Hinblick auf die Tiefengenauigkeit. Triangulationsverfahren, die auch als stereometrische Techniken bezeichnet werden, wurden wegen der kostspieligen Hardware abgelehnt, die zur Durchführung von Echtzeitberechnungen nötig war. Mehrere Markentriangulationsverfahren mit Area-Array-Sensoren haben das zusätzliche Problem einer schlechten Markenidentifikation, was gewöhnlich durch menschlichen Eingriff gelöst wird. Frühere Systeme arbeiteten möglicherweise schlecht in wirklichen Situationen von Streu-IR-Quellen und Reflexionen, die als unerwünschte und unerwartete Marken erscheinen. Frühere Systeme arbeiten eventuell auch bei Vorliegen mehrerer, in unmittelbarer Nähe zueinander befindlicher Körper schlecht.
  • Die vorliegende Erfindung wird nachfolgend durch die Ansprüche 1 und 8 definiert, auf die nunmehr Bezug genommen werden sollte.
  • Eine bevorzugte Ausgestaltung der vorliegenden Erfindung stellt ein System zum Ermitteln des/der räumlichen Ortes und Ausrichtung von jedem aus einer Mehrzahl von Körpern bereit. Jeder der Körper hat wenigstens drei Marken in einer vorbestimmten, relativen geometrischen Beziehung. Jede Marke ist entweder eine aktive Marke zum Emittieren von Energie als Reaktion auf ein Aktivierungssignal oder eine passive Marke zum Reflektieren von Energie, die von einer aktivierbaren Energiequelle auf eine solche passive Marke auftrifft. Es ist ein kombinierter Energiedetektor zum Erfassen der von einer aktiven Marke emittierten Energie oder der von einer passiven Marke reflektierten Energie vorgesehen. Es ist ein Kombi-Prozessor vorgesehen. Im Speicher ist die vorbestimmte, relative geometrische Beziehung der Marken für jeden der Körper gespeichert. Der Prozessor vergleicht die gespeicherte vorbestimmte geometrische Beziehung der Marken für jeden der Körper mit dem Energiemuster, das vom Energiedetektor erfasst wurde, um die Körper zu identifizieren, die die erfasste Energie emittieren oder reflektieren.
  • Bei einer solchen Anordnung kann jeder Körper mit einer sehr einfachen Folge von Vorgängen in Echtzeit unter Anwendung einer einfachen Markenplatzierungsmethodik mit robuster positiver Markenidentifikation verfolgt werden. Damit können mehrere Körper gleichzeitig verfolgt werden.
  • Die Marken jedes Körpers befinden sich in einer bekannten und festen relativen Geometrie, in der alle Segmentlängen unter allen Paaren aller Marken eindeutig sind, wobei der Begriff „eindeutig" einen Differenzschwellenwert auf der Basis der Genauigkeit des Systems mit sich bringt (d. h. die Differenz in den geometrischen Beziehungen der Marken für die Körper ist erfassbar). Es können mehrere Objekte gleichzeitig verfolgt werden, da Paare gleichartiger Segmente unter allen verfolgten Körpern eindeutige relative Winkel haben, wobei der Begriff „eindeutig" wiederum einen Differenzschwellenwert auf der Basis der Genauigkeit des Systems bedeutet. Die Markengeometrie kann kolinear oder koplanar sein, je nach den Anforderungen der Anwendungen.
  • Ferner wird bei einer solchen Anordnung ein System bereitgestellt, das die Haltung eines Körpers mit 3 oder mehr Marken in einer bekannten relativen Geometrie in Abhängigkeit von einfachen Platzierungsregeln verfolgt, die nicht darauf beschränkt sind, nicht koplanar oder nicht kolinear zu sein. Das System kann mit rentablen, langsamen Area-Array-Sensoren arbeiten, die mehrere Marken in einem einzigen Sensorzyklus verfolgen können, wodurch die scheinbare Abtastrate jeder der Marken erhöht wird.
  • Das bevorzugte System verwendet eine stereometrische Anordnung von Sensoren, so dass eine ausreichende Genauigkeit für Hochleistungsanwendungen wie chirurgische Anwendungen erzielt wird.
  • Ferner kann das System rentable digitale Signalprozessoren und einfache Verarbeitungsrechenschritte verwenden, die die diskreten Marken des Körpers in drei Dimensionen (3D) automatisch und positiv identifizieren und die in Anwesenheit von vielen falschen Marken und mehreren Körpern in unmittelbarer Nähe zueinander arbeiten. Das System ist so gestaltet, dass es die Haltung von einem oder mehreren Körpern in Echtzeit in einer geschlossenen Lösung mit einem Bild von einem einzigen Sensorzyklus ermittelt, anstatt prädiktive Verfahren anzuwenden, um die Haltung eines Körpers mit Bildern von mehreren Sensorzyklen weiter zu verfolgen.
  • Ferner ist das System so gestaltet, dass es automatisch verschiedene Körper erkennt und verfolgt, die vor der Verfolgung bekannt sind.
  • Kurze Beschreibung der Zeichnungen
  • Weitere Merkmale der Erfindung werden mit Bezug auf die nachfolgende Beschreibung in Verbindung mit den folgenden Zeichnungen leichter verständlich. Dabei zeigt:
  • 1 ein Blockdiagramm eines erfindungsgemäßen Systems zum Ermitteln des/der räumlichen Ortes und Ausrichtung eines Paares von starren Körpern;
  • 2 das Paar von Körpern für die Verwendung in dem System von 1;
  • 3 ein Diagramm einer Tabelle, die in einem Speicher eines im System von 1 verwendeten Prozessors gespeichert ist;
  • 4, 5, 6, 6A6B, 7, 7A7C, 8 und 8A8B Ablaufdiagramme, die schematisch die Folge von Vorgängen des Systems von 1 illustrieren, wobei 7 die Beziehung zwischen den 7A7C und 8 die Beziehung zwischen den 8A und 8B zeigen;
  • 9A, 9B bis 18 ausführliche Beispiele für die Elemente im Speicher von 3 in verschiedenen Phasen der Ausführung des Systems von 1.
  • Beschreibung der bevorzugten Ausgestaltungen
  • Gemäß 1 wird ein System 10 zum Ermitteln des/der räumlichen Ortes und Ausrichtung von einem oder mehreren, hier einem Paar von starren Körpern 11a, 11b vorgesehen. Hier sind die in 2 gezeigten und ausführlicher beschriebenen starren Körper 11a, 11b unterschiedliche chirurgische Instrumente. Der starre Körper 11a hat dabei eine Mehrzahl, hier zwei, passiven, retroreflektierenden Punktmarken 12a, 12b und einer daran angebrachten aktiven emittierenden Marke 12b. Die Energie retroreflektierenden Marken 12a, 12c beinhalten eine am Körper 11a anbringbare Kugel, die mit einem retroreflexionsfähigen Material überzogen ist, wie es allenthalben erhältlich und in der Technik bekannt ist. Die Marken 12a, 12b, 12c werden in einer vorbestimmten, festen relativen geometrischen Beziehung am Körper 11a angebracht. Die vorbestimmte, feste relative geometrische Beziehung wird durch nachfolgend beschriebene einfache Platzierungsregeln definiert.
  • Wieder mit Bezug auf 1, das System 10 beinhaltet ein kombiniertes Energieerfassungssystem 14 zum Erfassen der Energie, die von der am Körper 11a angebrachten aktiven Marke 12b emittiert wird, und der Energie, die von den am Körper 11a angebrachten passiven Marken 12a, 12c reflektiert werden. Das kombinierte Detektorsystem 14 beinhaltet jeweils ein Paar links montierter und rechts montierter Sensorbaugruppen 14L und 14R. Jede der Sensorbaugruppen 14L, 14R beinhaltet Folgendes: jeweils einen zweidimensionalen CCD-Sensor 18L, 18R (1); jeweils eine Fokussierlinse 22L, 22R wie gezeigt und eine Mehrzahl von Lichtenergie emittierenden Quellen 24L, 24R (hier Infrarotenergie emittierende Dioden), wie gezeigt.
  • Jede der Sensorbaugruppen 14R und 14L hat ihr eigenes u-, v-, zs-Koordinatensystem, das jeweils auf seine assoziierten direktionalen Infrarotenergiequellen 24L, 24R ausgerichtet ist. Die Lichtquellen 24L, 24R sind umfangsmäßig gleichmäßig um die zs-Achse jeder der Sensorbaugruppen 14R und 14L verteilt. Die Mehrzahl der Lichtquellen 24L, 24R wird mit einem Prozessorteil 26 mit elektrischer Energie erregt. Der Prozessorteil 26 beinhaltet einen Prozessor 28, einen Host-Computer 30, ein Display 32 und einen Controller 34. Der Prozessor 28 erregt die Lichtquellen 24L, 24R über ein Signal auf Leitung 36. Die Mehrzahl der Lichtquellen 24L, 24R erzeugt einen einfallenden direktionalen Infrarotenergiestrahl mit einer Ausbreitungsrichtung entlang einer direktionalen Achse, die allgemein der zs-Achse jeder der Sensorbaugruppen 14L, 14R in Verbindung mit dieser direktionalen Energiequelle 24L, 24R entspricht. Der einfallende direktionale Energiestrahl, der von der direktionalen Infrarotenergiequelle erzeugt wird, hat eine Größe, Form und Intensität, die dem volumetrischen Blickfeld seiner zugehörigen Sensorbaugruppe 14L, 14R entspricht und ausreicht, um einen einfallenden direktionalen Energiestrahl über das gesamte Messvolumen zu erzeugen.
  • Die Sensorbaugruppen 14L, 14R können jeweils Ausgangssignale auf den Leitungen 39L, 39R erzeugen, die die Intensität von darauf fokussierter Energie repräsentieren. In jedem Sensorzyklus wird die darauf fokussierte Energie gesammelt (d. h. integriert) und zum Prozessor 28 übertragen. Hier sind die Sensorbaugruppen 14L und 14R an einer festen Referenz montiert und um eine vorbestimmte Distanz, hier 500 mm, voneinander beabstandet. Die Sensorbaugruppen 14L, 14R haben dabei jeweils ein Blickfeld, das ausreicht, um ein gemeinsames Messvolumen von etwa 1 m3 zu beobachten, das entlang der zs-Achse in einem Abstand von etwa 1,9 m von dem in der Mitte zwischen den Linsen 22L und 22R befindlichen Ursprungspunkt zentriert ist.
  • Wie oben erwähnt, hat jede der Sensorbaugruppen 14L und 14R ihre eigene zugehörige Linse 22L bzw. 22R, um sowohl die reflektierte Energie von den Energie retroreflektierenden Marken 12a, 12c als auch die Energie zu fokussieren, die von der Energie emittierenden Marke 12b emittiert wird, um ein fokussiertes Energiebild der emittierten oder reflektierten Energie von den Marken 12a, 12b, 12c jeweils auf die assoziierten Sensorbaugruppen 14R bzw. 14L der Linsen 22L bzw. 22R zu erzeugen. Der Prozessor 28 ist mit den Sensorbaugruppen 14L und 14R gekoppelt und ermittelt die zweidimensionalen u-, v-Positionen des fokussierten Energiebildes auf jeder der Sensorbaugruppen 14L und 14R. Dann, mittels der u-, v-Position des fokussierten Energiebildes derselben Marke 12a, 12b, 12c auf jeder der Sensorbaugruppen 14L und 14R zum Erzeugen der linken und rechten Sensorenergiequellen-Ortstabellen 50L, 50R (3 und 9A, 9b) und setzen der linken und rechten Quellenzähler 51L, 51R, wie nachfolgend beschrieben wird [sic].
  • Der Prozessor 28 ist mit dem Host-Computer 30 gekoppelt, damit die räumliche Position der Körper 11a, 11b auf dem Display 32 angezeigt oder vom Host-Computer 30 weiter verarbeitet werden kann. Wie oben erwähnt, ist der Prozessor 28 mit den direktionalen Energiequellen 24L, 24R gekoppelt, damit der Prozessorteil 26 die direktionalen Energiequellen 24R und 24L zu geeigneten Zeiten aktivieren kann. Der Prozessor 28 ist auch mit dem Controller 34 gekoppelt, damit der Prozessor 28 den Controller 34 anweisen kann, die Energie emittierenden Marken 12b zur erforderlichen Zeit über die Leitung 27 zu aktivieren.
  • Der Betrieb des Systems 10 wird für den Körper 11a beschrieben, wobei zu verstehen ist, dass die Folge der Vorgänge für andere starre Körper wie z. B. den Körper llb im Wesentlichen gleich, oder äquivalent, ist. Somit wird die aktive Marke 12b über ein Kabel 27 (1) wie gezeigt zum Controller 34 gesendet. Dabei hat die Energie emittierende Marke 12b wie oben erwähnt eine Infrarotenergie emittierende Diode der Marke 12b, die nach der Erregung mit elektrischer Energie, die ihr über das Kabel 27 vom Controller 34 zugeführt wird, Infrarotlichtenergie emittiert. Solche Infrarotenergie emittierenden Dioden sind allgemein erhältlich und in der Technik bekannt.
  • Nun mit ausführlicherer Bezugnahme auf 2, an den starren Körpern 11a und 11b sind jeweils Marken 12a12c bzw. 12d12f angebracht. Es ist zunächst zu verstehen, dass es nicht relevant ist, dass die Marken 12a und 12c retroreflektiv sind und die Marke 12b aktiv ist. Diese Konfiguration ist lediglich beispielhaft und die nachfolgend beschriebenen Verfahren sind vom Markentyp unabhängig. An jedem Körper 11a, 11b sind die Marken 12a, 12b, 12c bzw. 12d, 12e, 12f in einer vorbestimmten (d. h. bekannten) und festen relativen Geometrie angebracht. Ferner muss sich die relative Geometrie für die Marken 12a, 12b und 12c nachweisbar von der relativen Geometrie von Marken 12c, 12d und 12f des Körpers 11b unterscheiden. Somit sind, wie in 2 gezeigt, die Marken 12a, 12b und 12c des Körpers 11a von den Liniensegmenten SLab, SLbc bzw. SLac beabstandet. Ferner schneiden sich die Liniensegmente SLab, SLbc und SLac wie gezeigt in Winkeln θab, θbc und θac wie gezeigt. Ebenso sind die Marken 12d, 12e und 12f von Körper 11b jeweils wie gezeigt durch Liniensegmente SLde, SLef und SLdf beabstandet. Ferner schneiden sich die Liniensegmente SLde, SLef und SLdf wie gezeigt im Winkel θde, θef und θdf wie gezeigt. Ferner muss sich die Länge von Segment SLab von der der Segmente SLac und SLbc unterscheiden, ebenso muss das Segment SLbc eine andere Länge haben als das Segment SLac. Die Varianz Δ in der bevorzugten Ausgestaltung beträgt 5,0 mm. Wenn also Segment SLab die Länge SLab hat, dann beträgt die Länge von Segment SLbc wenigstens SLab ± Δ, und die Länge von Segment SLac ist wenigstens SLab ± Δ und wenigstens SLbc ± Δ. Das heißt, die Länge aller Segmente SLab, SLbc und SLac muss sich um Δ voneinander unterscheiden. Ferner hat ein Körper mit 3 Marken 3 Segmente. Im Allgemeinen ist die Zahl der Segmente jedoch gleich N*(N – 1)/2, wobei N die Gesamtzahl der Marken ist. Körper 11a hat ein Paar von Segmenten SLab, SLbc, die die gleiche Länge haben wie das Paar von Segmenten SLde, SLef am Körper 11b; diese können auch dann noch verfolgt werden, wenn sich der relative Winkel θab zwischen Segment SLab, SLbc am Körper 11a vom relativen Winkel Bde zwischen Segment SLde, SLef an Körper 11b unterscheidet. Die Markengeometrie kann kolinear, nicht kolinear, koplanar oder nicht koplanar sein, je nach den Anforderungen der Anwendung. Das Paar Körper 11a, 11b wird gleichzeitig verfolgt, wenn Paare von gleichen Segmenten unter allen verfolgten Körpern 11a, llb eindeutige relative Winkel haben; auch hier bedeutet der Begriff "eindeutig" wieder eine Schwellenwertdifferenz auf der Basis der Genauigkeit des Systems 10. Das heißt, die Marken 12a12c, 12d12f werden jeweils auf den Körpern 11a, 11b platziert, damit jeder der Körper 11a, 11b eine(n) eindeutige(n) Signatur oder Fingerabdruck hat, die/der vom Prozessor 28 erkannt und verfolgt werden kann.
  • Bevor der Betrieb des Systems 10 erörtert wird, ist zunächst zu bemerken, dass der Prozessor 28 einen Speicher 40 hat (3), der drei Sätze von Tabellen speichert, 4248; 50L, 50R und 52; und 5662. Ein erster Tabellensatz (d. h. ein Starrer-Körper-Definitionstabellensatz 4248) definiert die vorbestimmte geometrische Beziehung der Marken 12a12d, 12e12f für jeden der Körper 11a, 11b; ein zweiter Tabellensatz (d. h. sensorgenerierte Datentabellen 50L, 50R und 52) enthält Informationen, die bei jedem Abtasten der Sensoren 14L, 14R erzeugt werden, und diese Tabellen 50L, 50R und 52 sind daher nicht mit einem bestimmten Körper assoziiert; und einen dritten Tabellensatz (d. h. Verarbeitungstabellen 5662) erzeugt der Prozessor, während die starren Körper 11a, 11b identifiziert und verfolgt werden. Diese Tabellen (und Zähler 51L, 51R und 53, nachfolgend beschrieben) befinden sich im Prozessor 28 und werden vom Prozessor 28 bei dessen Betriebsfolge verwendet.
  • Starrer-Körper-Definitionstabellen 4248
  • Die Starrer-Körper-Definitionstabellen beinhalten: eine Markenpositionstabelle 42; eine Markensegmenttabelle 44; eine Markensegmentpunkt- (•) Produkttabelle 46 und eine Markensegmentsatztabelle 48. Diese Starrer-Körper-Definitionstabellen 4248 gelten für alle Körper 11a, 11b und enthalten zuvor bekannte Informationen über die geometrische Beziehung der Marken 12a12c sowie 12d12f, die jeweils an starren Körpern 11a, 11b angebracht sind, um dadurch jedem der Körper 11a, 11b eine(n) eindeutige(n) Signatur oder Fingerabdruck zu geben, die/der vom Prozessor 28 erkannt und verfolgt werden kann. Diese Starrer-Körper-Definitionstabellen 4248 werden einmal vor der Identifikation und bei nachfolgenden Verfolgungsvorgängen des Prozessors 28 initialisiert.
  • Markenpositionstabelle 42
  • Mit jedem starren Körper 11a, 11b ist eine Markenpositionstabelle 42 assoziiert, wie für Körper 11a in 11 dargestellt ist. Die Markenpositionstabelle 42 beinhaltet die 3D-Position (X', Y', Z') jeder Marke 12a, 12b und 12c, die beispielsweise mit dem starren Körper 11a assoziiert ist. Mit Bezug auf 11 ist die Markenpositionstabelle 42 für den Körper 11a dargestellt, wobei zu verstehen ist, dass Tabelle 42 eine ähnliche Tabelle für Körper 11b hat. Die 3D-Position von Marke 12a, 12b und 12c ist dargestellt.
  • Segmentlängentabelle 44
  • Mit jedem starren Körper 11a, 11b ist eine Markensegmentlängentabelle 44 (12) assoziiert, die den Satz von Segmentlängen eines Körpers 11a, 11b enthält. Ein Segment wird als die Linie angesehen, die ein Paar Marken 12a, 12b, 12c für Körper 11a und Marken 12d, 12e und 12f für Körper 11b verbindet. Wie also oben in Verbindung mit 2 bemerkt wurde, hat der Körper 11a die Segmente SLab, SLbc und SLac, und der Körper 11b hat die Segmente SLde, SLef und SLdf. Der komplette Satz von Segmenten für einen Körper ist jede Kombination von Markenpaaren. Somit gibt es N*(N – 1)/2 Segmente für einen Körper, wobei N die Zahl der an dem Körper angebrachten Marken ist. 12 zeigt die Markensegmentlängentabelle 44 für Körper 11a. Die Segmentlängen SLab, SLbc und SLac sind dargestellt.
  • Markensegmentsatztabelle 48
  • Mit jedem starren Körper 11a, 11b ist eine Markensegmentsatztabelle 48 (13) assoziiert, die die Markensegmentsätze enthält. Es gibt für jede Marke einen Eintrag in der Tabelle 48. Jeder Markeneintrag enthält 2 oder mehr Segmente, die mit dieser Marke verbunden sind. An jeder Marke hängen für einen Körper mit N Marken N – 1 Segmente. 13 zeigt den Satz von Segmenten für einen starren Körper 11a. Mit jeder Marke 12a, 12b, 12c sind zwei Segmente (d. h. Segment 1 und Segment 2 in 13) assoziiert. Somit ist, wie in den 2 und 13 angedeutet, die Marke 12a für den Körper 11a an den Segmenten SLab und Slac angebracht; die Marke 12b ist an den Segmenten SLab und SLbc angebracht. Die Marke 12c ist an den Segmenten SLac und SLbc angebracht. Es ist klar, dass es für Marke 11b eine ähnliche Tabelle gäbe.
  • Segmentpunkt- (•) Produkttabelle 46
  • Mit jedem starren Körper ist eine Segmentpunkt- (•) Produkttabelle 46 (14) assoziiert, die die Liste von Punkt- (•) Produkten zwischen jeder Kombination von Segmenten enthält. Das Punkt- (•) Produkt dient als Festlegung des Winkels B zwischen den Segmentlängen SL, wenn die Segmente als Vektoren behandelt werden, die auf den Nullpunkt des X-, Y-, Z-Koordinatensystems von System 10 transponiert werden. Es gibt N*(N – 1)/2 Kombinationen von Segmentpaaren, wobei N die Zahl der Segmente in dem starren Körper ist. Das Beispiel von 14 zeigt den Satz von Punkt- (•) Produkten für Körper 11a. Dabei ist gemäß der Darstellung das Punkt- (•) Produkt für Winkel θa,b zwischen Segmentlängen SLab und SLbc 3600. Ebenso ist gemäß der Darstellung das Punkt- (•) Produkt für Winkel θa,c zwischen Segmentlängen SLab und SLac 0, und das Punkt- (•) Produkt für Winkel θb,c zwischen Segmentlängen SLbc und SLac ist als 2500 dargestellt. Es ist zu verstehen, dass eine ännliche Tabelle für Körper 11b existiert.
  • Sensorgenerierte Datentabellen 50L, 50R und 52
  • Die sensorgenerierten Datentabellen 50L, 50R und 52 beinhalten: die linke und rechte Sensorenergiequellen-Ortstabelle 50L, 50R; und eine 3D-Rohmarkentabelle 52.
  • Linker- und Rechter-Sensorenergiequellentabelle 50L, 50R
  • Im Speicher 40 befindet sich für jeden Arear-Array-CCD-Sensor 18L, 18R (1, 9A, 9B) eine Sensorenergiequellentabelle 50L und 50R. Es gibt für jeden auf dem CCD-Sensor 18L, 18R erfassten Energiepunkt einen Eintrag. Die Linke-Quelle- und Rechte-Quelle-Zähler 51L und 51R enthalten jeweils die Zahl der jeweils auf dem linken und rechten Sensor 18L, 18R erfassten Energiepunkte. Jeder Eintrag hat einen U- und einen V-Wert, die dem Masseschwerpunkt des Energiepunkts entlang der U-Achse und der V-Achse des assoziierten Sensors 18L, 18R entsprechen. In der bevorzugten Ausgestaltung gibt es eine Linke- und eine Rechte-Sensor-Energiequellentabelle 50L, 50R (3). Dabei gibt es vier Energiequellen S1–S4, S5–S8, die jeweils von einem der Sensoren 18L, 18R erfasst werden, wie in den 9A und 9B angedeutet ist. Es ist zu bemerken, dass sich die Quellen S1–S8 in den u-, v-Koordinaten der Sensoren 18L, 18R befinden, wie die 9A und 9B zeigen.
  • 3D-Rohmarkentabelle 52
  • Im Speicher 40 befindet sich eine einzelne 3D-Rohmarkentabelle 52 (3, 10), die einen einzelnen Eintrag für jeden ermittelten, aber unqualifizierten Markenort (Rohmarken) enthält. Jeder Eintrag hat einen X-, Y- und Z- (d. h. das X-, Y-, Z-Koordinatensystem von System 10) Wert, der dem Koordinatensystem des Positionssensors mit dem Ursprungsmittelpunkt zwischen den Bildsensoren 18L, 18R entspricht. Der Rohmarkenzähler 53 enthält die Zahl der erfassten Rohmarken. 10 zeigt ein Beispiel von 4 Rohmarken. In diesem Beispiel werden die Marken 12a, 12b und 12c von Körper 11a erfasst, und es gibt eine unbekannte Streumarke. Die Zuordnung dieser Marken R1–R4 ist zu diesem Zeitpunkt mit Bezug auf die Marken 12a12c sowie 12d12f jeweils auf den Körpern 11a und 11b nicht bekannt. Anhand der Vorgangsfolge wird die Korrespondenz dieser Marken zum Körper 11a bzw. Körper 11b ermittelt.
  • Verarbeitungstabellen 5662
  • Die Verarbeitungstabellen lauten: eine Segment-Rohmarken-Querverweistabelle 56; eine Qualifiziertes-Segment-Tabelle 58; eine Gemessene-Markenposition-Tabelle 60; und eine Berechnete-Starrer-Körper-Positions- und -Ausrichtungs-(Lage)-Tabelle 62. Diese Verarbeitungstabellen 5662 werden vom Prozessor 28 für jeden der starren Körper 11a, 11b erzeugt und vom Prozessor 28 generiert, während die starren Körper erkannt (d. h. identifiziert) und verfolgt werden.
  • Segment-Rohmarken-Querverweistabelle 56
  • Mit jedem starren Körper ist eine Segment-Rohmarken-Querverweistabelle 56 (3, 15) assoziiert, die alle Rohmarkenpaare 12a, 12b und 12c enthält, die eine Beabstandungsdistanz haben, die nahe an der definierten Segmentlänge des starren Körpers liegt. Der Begriff „nahe" ist durch eine Längendifferenz zwischen dem definierten Segment und dem getesteten Segment definiert, was weniger ist als ein bestimmter vordefinierter Wert (d. h. eine Distanz, die vom System 10 erfasst werden kann). In der bevorzugten Ausgestaltung beträgt dieser Wert 1,5 mm. Das folgende Beispiel (15) illustriert Paare von Marken, die mit den vordefinierten Segmentlängen SLab, SLbc, SLac des Körpers 11a übereinstimmen. Die Rohmarkenpaardaten werden vom Prozessor 28 gemäß einem in Verbindung mit 6 beschriebenen Verfahren ermittelt. Es sei hier jedoch lediglich gesagt, dass die beiden Sätze von vier Rohenergiedaten S1–S8, die vom rechten und linken Sensor 14L, 14R (9A, 9B) erfasst werden, in diesem Beispiel vom Prozessor 28 in vier Rohmarken R1–R4 (im X-, Y-, Z-Koordinatensystem von 10) umgewandelt und in der 3D-Rohmarkentabelle 52 (10) gespeichert werden. Weil es also vier Rohmarken R1–R4 gibt, gibt es sechs Segmentlängen (d. h. SL12, SL13, SL14, SL23, SL24 und SL34). In diesem Beispiel sind die Rohmarken R1 und R2 um eine Segmentlänge SL12 voneinander beabstandet, die nahe an der Länge von Segment SLab liegt. Die Rohmarken (R1, R4), (R3, R4) und (R2, R3) sind alle um eine Länge voneinander beabstandet, die nahe an der Länge des Segments SLbc liegt. Auch sind die Rohmarken (R2, R4) und (R1, R3) um eine Länge voneinander beabstandet, die nahe an der Länge von Segment SLac liegt. Diese Daten werden in der Segment-Rohmarken-Querverweistabelle 56 wie in 15 gezeigt gespeichert.
  • Qualifiziertes-Segment-Tabelle 58
  • Es gibt für jeden starren Körper 11a, 11b eine Qualifiziertes-Segment-Tabelle 58 (3, 16). Diese Tabelle 58 wird während der Segmentverifizierungsphase generiert, die in Verbindung mit 7 beschrieben wird. Es sei hier lediglich gesagt, dass es für jedes Segment des starren Körpers einen Eintrag gibt. In dem Beispiel in 16 sind alle Segmente SLab, SLbc und SLac von Körper 11a qualifiziert.
  • Gemessene-Markenpositionstabelle 60
  • Mit jedem starren Körper 11a, 11b ist eine Gemessene-Markenpositionstabelle 60 (3, 17) assoziiert, die die 3D-Positionen der Rohmarken R1–R4 enthält, die identifiziert, validiert und auf die Ist-Marken 12a12c, 12d12f des Körper abgebildet wurden. Das Beispiel in 17 zeigt die gemessene Position der Marken 12a, 12b und 12c des Körpers 11a; dabei entspricht Ist-Marke 12a Rohmarke R2, Ist-Marke 12b entspricht Rohmarke R4 und Ist-Marke 12c entspricht Rohmarke R1.
  • Berechnete-Starrer-Körper-Positions- und -Ausrichtungstabelle 62
  • Mit jedem starren Körper ist eine Berechnete-Starrer-Körper-Positions- und -Ausrichtungstabelle 62 (3, 18) assoziiert, die die Transformation des starren Körpers enthält. Dies ist die Lage, die anhand der Gemessene-Markenpositionstabelle 60 (17) auf der Basis der Markenpositionstabelle 42 (11) ermittelt wird. Mit anderen Worten, die Lage ist die Transformation, die die Markenpositionstabelle 42 in dasselbe Raum-X-, Y-, Z-Koordinatensystem von 10 wie in der Gemessene-Markenpositionstabelle 60 gezeigt bewegt. Das in 18 gezeigte Beispiel illustriert die Lage von Körper 11a.
  • Übersicht über die Folge von Vorgängen
  • Die Lage oder Ausrichtung eines Körpers oder von Körpern kann gleichzeitig und in Echtzeit mit den folgenden Vorgängen wie im Ablaufdiagramm von 4 illustriert ermittelt werden. In Schritt 401 werden die Energiequellen 24L und 24R (1) sowie die aktive Marke 12b aktiviert. Gemäß 1 werden diese Energiequellen durch das Linsensystem 22L, 22R fokussiert und projizieren ein Bild auf die CCD-Sensoren 18L, 18R. Dieses Bild wird von den Sensoren 18L, 18R abgetastet, und Intensitäten über einem bestimmten Schwellenwert werden vom Prozessor 28 analysiert. In Schritt 402 werden die Positionen der Sensorenergiequellen in Linke- und Rechte-Sensoren-Energiequellen-Ortstabellen 50L, 50R (3, 9A, 9B) gespeichert. Die Position wird in Pixeleinheiten angegeben. Die horizontale Achse des Sensors wird U, die vertikale Achse V genannt. In der bevorzugten Ausgestaltung werden ein linker und ein rechter Sensor 18L, 18R verwendet. Die Linke-Quellen- bzw. Rechte-Quellen-Zähler 51L, 51R werden jeweils auf die Zahl der erfassten Energiequellen auf dem linken bzw. rechten Sensor 18L, 18R eingestellt. In dem in Verbindung mit 9A und 9B beschriebenen Beispiel gibt es vier erfasste Energiequellen S1–S4, S5–S8, die jeweils von den Sensoren 18L, 18R erfasst werden; somit ist die Zahl in jedem der Zähler 51L und 51R in diesem Beispiel 4.
  • In Schritt 403 werden geeignete Tabellen (d. h. Tabellen 52, 56) und Zähler (51L, 51R und 53) für die nachfolgende Vorgangsfolge initialisiert. Die 3D-Rohmarkentabelle 52, der Rohmarkenzähler 53 und die Segment-Rohmarken-Querverweistabelle 56 werden alle geleert. In Schritt 404 werden die in den Linker- und Rechter-Sensor-Energiequellen-Ortstabellen 50L, 50R gespeicherten Energiequellen vom Prozessor 26 analysiert und es wird die 3D-Rohmarkentabelle 52 (10) generiert. Der Rohmarkenzähler 53 wird auf die Zahl der erfassten Rohmarken gesetzt. Zu diesem Zeitpunkt ist unbekannt, was diese Marken sind. Einige können Marken von dem/den verfolgten Körper(n) sein, andere können Reflexionen sein, und wieder andere können vom Markenerfassungsverfahren verursachte Artefakte sein. Triangulationsverfahren zum Erzeugen der 3D-Position von stereoskopischen Ansichten sind in der Technik hinlänglich bekannt, und ein Verfahren wird später im Abschnitt Generiere-3D-Rohmarkentabelle 52 beschrieben.
  • In den Schritten 405 und 406 wird die Distanz, d. h. Segmentlängen, SL12, SL13, SL14, SL23, SL24 und SL34 zwischen allen Kombinationen von 3D-Rohmarkenpaaren berechnet. Diese berechneten Längen werden mit der Segmentlängentabelle 44 (12) für jeden verfolgten Körper 11a, 11b verglichen. Übereinstimmungen werden in die Segment-Rohmarken-Querverweistabelle 56 (15) für jeden Körper 11a, 11b gesetzt. Diese Schritte werden ausführlich in 6 in Verbindung mit der Generiere-Segment-Rohmarken-Querverweistabelle 56 (15) beschrieben.
  • In Schritt 407 werden alle möglichen Segmentvoraussagen in der Segment-Rohmarken-Querverweistabelle 56 (15) für jeden Körper 11a, llb durch Vergleichen der relativen Winkel, ?, zwischen den Segmentlängen SL des Körpers 11a, 11b verifiziert. Diese Schritte werden später in Verbindung mit 7, Segmentverifizierung, ausführlich beschrieben. In Schritt 408 wird die Korrespondenz zwischen den 3D-Rohmarken R1–R4 in dem oben gegebenen Beispiel und den Ist-Marken 12a12c, 12d12f der Körper 11a bzw. 11b durch Satzschnittmethoden anhand der Markensegmentsatztabelle 48 (13) des Körpers in Verbindung mit der Segment-Rohmarken-Querverweistabelle 56 (15) des Körpers ermittelt. Die 3D-Rohmarken werden in der Gemessene-Markenpositionstabelle 60 (17) dargestellt. Diese Schritte werden nachfolgend in Verbindung mit 8, Markenkorrespondenzextraktion, ausführlich beschrieben.
  • In Schritt 409 wird die Ausrichtung (Lage) des Körpers anhand der Marken ermittelt, die in der Gemessene-Markenpositionstabelle 60 (17) enthalten sind. Verfahren zum Ermitteln der 6 Freiheitsgrade für einen starren Körper anhand von diskreten Marken sind in der Technik hinlänglich bekannt und werden hier nicht beschrieben. Schließlich werden in Schritt 410 die Lagen aller Körper in Tabelle 62 (18) gespeichert und können angezeigt werden. Die Lage kann je nach Bedarf auch gespeichert, zu einem anderen Computer übertragen oder weiterverarbeitet werden. Die obige Folge wird angesichts eines Beispiels und im Hinblick auf die nachfolgenden ausführlichen Beschreibungen leicht offensichtlich.
  • Erzeugung der 3D-Rohmarkentabelle 52
  • Die Energiequellen S1–S4, S5–S8 (9A und 9B), die in der Linker- und Rechter-Sensor-Energiequellen-Ortstabelle 50L, 50R gespeichert sind, werden analysiert, und 3D-Rohmarken R1–R4 (10) werden ermittelt. Der Rohmarkenzähler 53 wird auf die Zahl der erfassten Rohmarken gesetzt. Es wird mit Bezug auf 5 das folgende Verfahren zum Erzeugen von 3D-Positionen von zwei stereoskopischen Bildern beschrieben. Das folgende Verfahren ist in der Technik hinlänglich bekannt und es stehen andere Methoden zur Verfügung.
  • In Schritt 501 wird der Rohmarkenzähler 53 zunächst auf 0 gesetzt. Für jede Linker-Sensor-Energiequelle 14L und jede Rechter-Sensor-Energiequelle 14R werden in den Schritten 502, 503, 504 und 505 parametrische Liniengleichungen erzeugt. Eine Linie verläuft zwischen einem Punkt auf einem der Sensoren 18L, 18R (d. h. bei V = U = Zs = O, oder dem Nullpunkt des Sensorkoordinatensystems) und einer der Energiequellen S1–S4. Somit gibt es vier Linien (d. h. linke Linien) von Sensor 18L zu jeder der erfassten Quellen S1–S4. Ebenso gibt es vier Linien (d. h. rechte Linien) vom Sensor 18R zu jeder der erfassten Energiequellen S5–S8. In den Schritten 506, 507 sowie 512 bis 515 wird eine Doppelschleife verarbeitet, die jede linke Linie mit jeder rechten Linie paart. Die Zahl der Gesamtwiederholungen dieser Schleife ist gleich LinkeQuellen 52L * RechteQuellen 52R. In dem oben beschriebenen Beispiel gibt es 4 LinkeQuellen S1–S4 und 4 RechteQuellen S5–S8 (9A und 9B), die 16 Wiederholungen zum Berechnen der Tabelle 52 (10) erfordern.
  • In den Schritten 508 und 509 wird die Mindestdistanz zwischen einer linken und einer rechten Linie ermittelt. Wenn diese Distanz geringer ist als ein vordefiniertes Minimum, dann werden die Linien als sich schneidend angesehen, und eine mögliche 3D-Marke R1–R4 wurde entdeckt. Diese Marke wird als roh angesehen, da sie zu diesem Zeitpunkt unbekannt ist, wenn es sich um eine gültige Marke handelt. Es gibt in dem in 10 gezeigten Beispiel 4 solche Übereinstimmungen. Der Mindestabstand ist von der Systemgenauigkeit abhängig und wird so klein wie praktisch möglich gehalten, um die Zahl von falschen Marken zu reduzieren. In Schritt 510 und 511 wird der 3D-Mittelpunkt zwischen der linken und der rechten Linie in die 3D-Rohmarkentabelle 52 (10) gesetzt. Der Rohmarkenzähler 53 wird inkrementiert.
  • Nach Beendigung der Schritte 501 bis 515 enthält der Rohmarkenzähler 53 die Zahl der erfassten Rohmarken, und die 3D-Rohmarkentabelle 52 (10) ist komplett. Von diesem Punkt an werden alle nachfolgenden Entscheidungen an 3D-Marken getroffen, und die 2D-Sensorenergieorte werden nicht mehr benötigt. Für das Beispiel werden 4 3D-Rohmarken R1–R4 erfasst. Zu diesem Zeitpunkt ist unbekannt, was die einzelnen Marken sind.
  • Erzeugung der Segment-Rohmarken-Querverweistabelle 56 (15) für alle starren Körper
  • Nachfolgend wird der Ablauf der nächsten Folge im Überblick beschrieben. Alle möglichen Segmente zwischen allen 3D-Rohmarken (z. B. R1–R4) in Tabelle 52 (10) werden mit allen Segmentlängen SLab, SLbc, SLac sowie SLde, SLef, SLdf jedes Körpers 11a bzw. 11b in Tabelle 44 (12) verglichen. Wird eine Übereinstimmung entdeckt, dann wird das 3D-Rohmarkenpaar zur Segment-Rohmarken- Querverweistabelle 56 (15) für diesen Körper addiert. Dasselbe getestete Rohsegment kann mit mehreren starren Körpern übereinstimmen. Ebenso kann ein starres Körpersegment mehrere übereinstimmende Rohtestsegmente haben. Diese werden in einem späteren Vorgang, Segmentverifizierung (7), ausgefiltert.
  • Das oben Gesagte wird anhand eines Beispiels und des Ablaufdiagramms von 6, Generiere-Segment-Rohmarken-Querverweistabelle 56, für alle starren Körper erläutert. In den Schritten 601, 602 sowie 613 bis 616 wird eine zweistufige Verarbeitungsschleife gesteuert. Die zwei äußersten Schleifen werden durch die Zähler N und L indexiert (nicht gezeigt, aber im Prozessor 26 enthalten), die zum Paaren aller Kombinationen von 3D-Rohmarken R1–R4 verwendet werden. Es gibt N'*(N' – 1)/2 Segmente (Markenpaare), wobei N' gleich Rohmarken R1–R4 ist, hier z. B. N' = 4. Die Segmentlänge zwischen 3D-Rohmarken N und L wird einmal pro Wiederholung der äußeren zwei Schleifen (Schritte 603) berechnet. Diese Länge wird als Testsegment bezeichnet und wird im folgenden Abschnitt verwendet.
  • In den Schritten 604, 611 und 612 wird eine Verarbeitungsschleife vom Zähler J (nicht dargestellt, aber im Prozessor 28 enthalten) gesteuert, die durch alle verfolgten starren Körper sequenziert. In den Schritten 605, 609 und 610 wird eine Verarbeitungsschleife vom Zähler K (nicht dargestellt, aber im Prozessor 28 enthalten) gesteuert, die durch alle Segmente in einem der Körper 11a, 11b sequenziert, hier allgemein durch Körper J angedeutet. Der Segmentvergleich erfolgt in den Schritten 606, 607 und 608. Das Segment K von Körper J wird mit dem Testsegment verglichen. Ein Segment wird dann als übereinstimmend angesehen, wenn die Differenz kleiner als ein vordefinierter wert ist. Wenn eine Übereinstimmung vorliegt, werden die Werte der 3D-Rohmarkenpaar-Indexzähler N und L in das nächste verfügbare Paar in der Segment-Rohmarken-Querverweistabelle 56 (15) für Körper J für Segment K gesetzt. Der Zähler „Gesamtrohpaare" (nicht dargestellt, aber im Prozessor 28 enthalten) für Segment K wird inkrementiert. Der vordefinierte Wert ist von der Systemgenauigkeit abhängig und wird so klein wie praktisch möglich gehalten, um die Zahl der Segmentübereinstimmungen zu reduzieren, aber groß genug, um eine unnötige Rückweisung von gültigen Segmenten zu vermeiden.
  • In dem in 15 gegebenen Beispiel hat die Segmentlänge SLab für Körper 11a eine einzige Übereinstimmung, nämlich 3D-Rohmarkenpaar R1 und R2. Die Segmentlänge SLbc hat 3 Übereinstimmungen, nämlich 3D-Rohmarkenpaare R1 und R4; R3 und R4 sowie R2 und R3. Die Segmentlänge SLac hat zwei Übereinstimmungen, nämlich 3D-Rohmarkenpaare R2 und R4 sowie R1 und R3. Es ist klar, dass 3 der 6 Segmente nicht Teil des starren Körpers 11a sind und per Segmentverifizierung (7) eliminiert werden müssen.
  • Segmentverifizierung
  • Alle möglichen Segmente, die von den 3D-Rohmarkenpaaren in der Segment-Rohmarken-Querverweistabelle 56 (15) für jeden Körper 11a, 11b definiert sind, werden durch Vergleichen der relativen Winkel θ zwischen den Segmentlängen SL des Körpers 11a, 11b verifiziert. Das Verfahren wird klar, wenn man das in 7, 7A7C gezeigte Ablaufdiagramm anhand des folgenden Beispiels untersucht. Der Segmentverifizierungsvorgang hat eine fünfstufige Steuerschleife.
  • In den Schritten 701, 726 und 727 wird eine Verarbeitungsschleife vom Zähler L gesteuert, der durch alle verfolgten starren Körper sequenziert. In Schritt 701 wird die Qualifiziertes-Segment-Tabelle 58 (16) für den verifizierten starren Körper L geleert. In den Schritten 702, 724 und 725 wird eine Verarbeitungsschleife vom Zähler J gesteuert, die durch alle Segmentlängen SL von Körper L sequenziert. In die Steuerschleife wird gegangen, wenn das Segment J nicht bereits qualifiziert ist, wie die Qualifiziertes-Segment-Tabelle 58 (16) zeigt.
  • In den Schritten 704, 720 und 721 wird vom Zähler N eine Verarbeitungsschleife gesteuert, die durch alle 3D-Rohmarkenpaare in der Segment-Rohmarken-Querverweistabelle 56 (15) von Körper L für Segment J sequenziert, wenn das Segment J in der Qualifiziertes-Segment-Tabelle 58 (16) nicht qualifiziert wurde (d. h. auf FALSCH gesetzt, Schritt 703). In Schritt 705 wird der Vektor X, auf den Koordinatenachsenmullpunkt von System 10 transponiert, für das 3D-Rohmarkenpaar N von Segment J für Körper L berechnet. In den Schritten 706, 718 und 719 wird vom Zähler K eine Verarbeitungsschleife gesteuert, die durch alle Segmentlängen nach dem Segment J im Körper L sequenziert.
  • In den Schritten 707, 716 und 717 wird von Zähler M eine Verarbeitungsschleife gesteuert, die durch alle 3D-Rohmarkenpaare in der Segment-Rohmarken-Querverweistabelle 56 (15) von Körper L für Segment K sequenziert. In den Schritten 708 bis 711 wird der Vektor Y, auf den Nullpunkt transponiert, für das 3D-Rohmarkenpaar M von Segment K für Körper L berechnet. Das Punkt- (•) Produkt zwischen Vektor X und Vektor Y wird ermittelt. Dieses Punkt- (•) Produkt wird mit dem Ist-Punkt- (•) Produkt für Segmentpaar J und K wie in der Segment-Punktprodukttabelle 46 (14) für Körper L gespeichert verglichen. Wenn die Differenz kleiner ist als ein vorbestimmter Wert, dann gilt dies als eine Übereinstimmung. Der vordefinierte Wert ist von der Genauigkeit des Systems 10 abhängig und wird so klein wie praktisch möglich gehalten, um die Zahl der falschen Segmentübereinstimmungen zu reduzieren, aber groß genug, um ein unnötiges Zurückweisen von gültigen Segmenten zu vermeiden. Die bevorzugte Ausgestaltung benutzt einen Wert von 200.
  • Wenn eine Übereinstimmung gefunden wird, werden beide Segmente als validiert angesehen, und die 3D-Rohmarkenpaare N und M für Segmente J und K in der Segment-Rohmarken-Querverweistabelle 56 (15) werden als wahr angesehen. In den Schritten 712 bis 715 muss das gültige 3D-Rohmarkenpaar N und M zur ersten Position in Reihe J und K bewegt werden. Ein Gesamtreihenpaarzähler (nicht dargestellt) wird auf 1 gesetzt, alle anderen 3D-Rohmarkenpaare werden eliminiert. Die Segmente J und K werden in der Qualifiziertes-Segment-Tabelle 58 (16) auf wahr gesetzt. Nach Abschluss jeder Wiederholung von Steuerschleife J wird in Schritt 722 ein Test durchgeführt. Wenn Segment J nach dem Vergleich mit allen nachfolgenden Segmenten nicht qualifiziert ist, wird es als schlechtes Segment angesehen. In Schritt 723 werden alle 3D-Rohmarkenpaare für Segment J eliminiert, und die Zähler-Gesamtrohpaare werden auf 0 gesetzt. Der Prozess wird für alle Körper 11a, 11b wiederholt (Schritte 725728).
  • Nachfolgend wird ein Beispiel mit Bezug auf die Segment-Rohmarken-Querverweistabelle 56 (15), die Segment-Punktprodukttabelle 46 (14), die 3D-Rohmarkentabelle 52 (10) und das Ablaufdiagramm von 7, Segmentverifizierung, beschrieben. Die nachfolgende Eventfolge kann durch das Ablaufdiagramm verfolgt werden:
    L = Körper 11a
    J = Segmentlänge SLab Segmentlänge SLab ist nicht qualifiziert.
    N = Paar 1 (R1 , R2) von SLab Generiere Vektor für Paar N (R1, R2)
    K = Segmentlänge SLbc
    M = Paar 1 (R1, R4) von Segmentlänge SLbc
    Generiere Vektor für Paar M (R1, R4)
    Erzeuge Punktprodukt (•); (R1, R2) • (R1, R4) = 3599.995117
    Vergleiche mit Punktprodukttabelle 46 (14) für SLab, SLbc = 3600
    Übereinstimmung gefunden
    Lösche Paar 2 (R3, R4) und Paar 3 (R2, R3) von Segmentlänge SLbc
    Setze Segmentlänge SLbc auf qualifiziert
    Setze Segmentlänge SLab auf qualifiziert
    Rücke M vor auf nächstes Paar
    Dies war das letzte Paar von Segmentlänge SLbc.
    Rücke K vor zu Segmentlänge SLac
    M = Paar 1 von Segmentlänge SLac
    Generiere Vektor für Paar M (2,4)
    Generiere Punktprodukt (•), (R1, R2) • (R2, R4) = 0.001304
    Vergleiche mit Punktprodukttabelle 46 (14) für Segmentlängen SLab, SLac = 0
    Übereinstimmung gefunden
    Lösche Paar 2 (R1, R3) von Segmentlänge SLac
    Setze Segmentlänge SLac auf qualifiziert
    Setze Segmentlänge SLab auf qualifiziert
    Rücke M vor zu nächstem Paar
    Dies war das letzte Paar von Segmentlänge SLab.
    Rücke K vor zu nächstem Segment.
    Dies war das letzte Segment.
    Rücke N vor zu nächstem Paar
    Dies war das letzte Paar.
    Rücke J vor zu nächster Segmentlänge SLbc
    Dieses Segment ist qualifiziert.
    Rücke J vor zu nächster Segmentlänge SLac
    Dieses Segment ist qualifiziert.
    Rücke J vor zu nächstem Segment
    Dieses war das letzte Segment.
    Rücke L vor zu nächstem Körper
    Dies war der letzte Körper.
    Fertig, siehe Tabelle (Schritt 158)
  • Markenkorrespondenzextraktion
  • Die Korrespondenz zwischen den 3D-Rohmarken, die in der Segment-Rohmarken-Querverweistabelle 56 (15) indexiert wurde, und den Ist-Marken der Körper, wird durch Satzschnittmethoden mittels der Markensegmentsatztabelle 48 (13) des Körpers ermittelt. Die 3D-Rohmarken R1–R4 werden in der Gemessene-Markenpositionstabelle 60 (17) des Körpers dargestellt. Diese Schritte werden nachfolgend gemäß Illustration anhand eines Beispiels unter Verwendung des Ablaufdiagramms von 8, Markenkorrespondenzextraktion, beschrieben.
  • Der Vorgang der Markenkorrespondenzextraktion hat eine dreistufige Steuerschleife. In den Schritten 801, 825 und 826 wird vom Zähler K eine Verarbeitungsschleife gesteuert, die durch alle verfolgten starren Körper sequenziert. In den Schritten 802, 823 und 824 wird vom Zähler N eine Verarbeitungsschleife gesteuert, die durch alle Marken von Körper K sequenziert. Der Satzschnittpunkt wird mit Registern M1 und M2 ermittelt. Diese werden in Schritt 803 zunächst auf leer gesetzt. In den Schritten 804, 812 und 813 wird von Zähler J eine Verarbeitungsschleife gesteuert, die durch alle Segmentlängen sequenziert, die an der Marke N von Körper K anhängen. Für jede Marke gibt es B-1 Verbindungssegmente, wobei B die Gesamtzahl der Marken für den Körper ist.
  • In Schritt 805 wird L auf die Segmentnummer gesetzt, indexiert um J für Marke N von Körper K in der Markensegmentsatztabelle 48 (13). In den Schritten 807 bis 811 wird, wenn es eine qualifizierte Segmentlänge SL in der Segment-Rohmarken-Querverweistabelle 56 (15) gibt, der Satzschnittpunkt von Marken getestet. Wenn M1 leer ist, wird M1 auf die erste Marke des Paares gesetzt und M2 wird auf die zweite Marke des Paares gesetzt. Wenn M1 nicht leer ist, dann wird getestet, ob M1 entweder gleich der ersten oder gleich der zweiten Marke des Paares ist. Wenn M1 nicht gleich einer der Marken ist, dann schneidet es sich nicht mit dem Satz und wird auf zurückgewiesen gesetzt. Ebenso wird M2 entweder auf die erste oder die zweite Marke des Paares getestet. Wenn M2 nicht gleich einer der Marken ist, dann schneidet es sich nicht mit dem Satz und wird auf zurückgewiesen gesetzt. Dies wird für alle Verbindungssegmente mit Marke N wiederholt.
  • Zu diesem Zeitpunkt können M1 und M2 verschiedene Zustände haben, die in den Schritten 814, 815817, 818820 sowie 821822 getestet werden. Wenn M1 eine gültige Marke ist und M2 zurückgewiesen wird, dann entspricht die durch M1 referenzierte Rohmarke Marke N. Wenn M2 eine gültige Marke ist und M1 zurückgewiesen wird, dann entspricht die durch M2 referenzierte Rohmarke Marke N. Die durch M1 oder M2 referenzierte 3D-Rohmarkenposition kann auf die Gemessene-Markenpositionstabelle 60 (17) kopiert werden. Wenn sowohl M1 als auch M2 zurückgewiesen werden oder leer sind, dann gibt es keine übereinstimmende Rohmarke für Marke N, und die Gemessene-Markenpositionstabelle 60 (17) wird für diese Marke auf fehlend gesetzt.
  • Beispiel
  • Das Durcharbeiten eines Beispiels soll die obigen Aussagen klären. Es wird Bezug genommen auf die Segment-Rohmarken-Querverweistabelle 56 (15), die Markensegmentsatztabelle 48 (13), die 3D-Rohmarkentabelle 52 (10), die Gemessene-Markenpositionstabelle 60 und das Ablaufdiagramm von 8, Markenkorrespondenzextraktion. Die folgende Eventfolge kann durch das Ablaufdiagramm verfolgt werden:
    K = Körper 11a
    N = Marke 12a
    Setze M1 und M2 auf leer
    Setze J auf erstes Segment in Markensegmentsatztabelle 48 (13) für Marke 12a
    Setze L auf Segmentlänge SLab wie durch J referenziert.
  • Es gibt ein qualifiziertes SLab-Segment in der Segment-Rohmarken-Querverweistabelle 56 (16). Das Rohmarkenpaar ist R1, R2.
  • M1 ist leer, daher setze M1 = R1 und M2 = R2.
  • Rücke J zu zweitem Segment in Markensegmentsatztabelle 48 (13) für Marke 12a vor.
  • Setze L auf Segmentlänge SLac gemäß Referenzierung durch J.
  • Es gibt ein qualifiziertes SLac-Segment in der Segment-Rohmarken-Querverweistabelle 56 (15). Das Rohmarkenpaar ist R2, R4.
  • M1 ist nicht leer.
  • M1 ist nicht gleich R2 oder R4, daher setze M1 auf zurückgewiesen.
  • M2 ist gleich R2.
  • Rücke J auf drittes Segment in Markensegmentsatztabelle 48 (13) für Marke 12a vor. Dies war das letzte Segment für Marke N.
  • Teste M1 und M2
  • M1 wird zurückgewiesen und M2 ist gleich R2, daher entspricht 3D-Rohmarke R2 der Ist-Marke N (12a).
  • Kopiere 3D in Gemessene-Markenpositionstabelle 60 (17).
  • Rücke N zu Marke 12b vor.
  • Die obige Folge wird für Marken 12b und 12c wiederholt. Der Vorgang wird mit Rohmarke R2 wiederholt, aber wird in die Ist-Marke 12a abgebildet, Rohmarke R4 wird in Ist-Marke 12b abgebildet, und Rohmarke R1 wird in Ist-Marke 12c abgebildet.
  • Ermittlung der Körperausrichtung (Lage)
  • Jetzt haben wir alle Informationen, die zum Ermitteln der Lage des starren Körpers benötigt werden. Dies wird in der Technik gut verstanden und hier nicht beschrieben. Die Lage wird in der Berechnete-Starrer-Körper-Positions- und -Ausrichtungstabelle 62 (18) gespeichert.

Claims (12)

  1. Vorrichtung zum Ermitteln des/der räumlichen Ortes und Ausrichtung von jedem aus einer Mehrzahl von Körpern, wobei die Vorrichtung Folgendes umfasst: Positionserfassungsmittel (14) zum Festlegen eines dreidimensionalen Koordinatenraums und mit einem Energieerkennungsmittel (18L, 18R), das die Aufgabe hat, Energie zu erfassen, die von einer Quelle an einer Position in dem Koordinatenraum ausgeht, und als Reaktion darauf Signale zu erzeugen, die für die Position einer erkannten Quelle repräsentativ sind; Verarbeitungsmittel (28), die mit dem Positionserfassungsmittel (14) gekoppelt sind, um die genannten Signale zu empfangen, und deren Aufgabe es ist, davon in den Koordinaten (X, Y, Z) des genannten Raums die Position (R1 ... ) einer erkannten Quelle zu ermitteln, wobei die Verarbeitungsmittel (28) ferner Folgendes umfassen: einen Speicher (40), in dem eine Mehrzahl von festen relativen geometrischen Beziehungen gespeichert sind, wobei jede solche Beziehung ein entsprechendes anderes Muster von wenigstens drei Markenpositionen (12a, 12b, 12c) anhand der Längen aller Segmente (SLab, SLac, SLbc), die von einem Paar der Markenpositionen (12a, 12b; 12a, 12c; 12b, 12c) terminiert werden, wobei sich alle Längen voneinander unterscheiden, und eine vorbestimmte Winkeleigenschaft jedes Segmentpaares definiert; Mittel (405, 406) zum Ermitteln von Distanzen, die von Paaren von Positionen (R1, R2 ... ) von erkannten Quellen definiert werden, und Wählen derjenigen solcher definierter Distanzen, die mit im Speicher (40) gespeicherten Segmentlängen übereinstimmen; Mittel (407) zum Ermitteln der genannten vorbestimmten Winkeleigenschaft jedes Paares der genannten gewählten definierten Distanzen, das einem Segmentpaar mit einer gespeicherten vorbestimmten Winkeleigenschaft entspricht, Vergleichen der vorbestimmten Winkeleigenschaft des Paares von gewählten definierten Distanzen mit der gespeicherten Winkeleigenschaft des entsprechenden Segmentpaares und, wenn die verglichenen Winkeleigenschaften übereinstimmen, Wählen jedes Paares von Positionen von erkannten Quellen, die das Paar von gewählten definierten Distanzen definieren; Mittel (408) zum Identifizieren solcher gewählter Positionen von erkannten Quellen mit einzelnen der gespeicherten Markenpositionen und zum Bilden von Sätzen der identifizierten gewählten Positionen, die den verschiedenen Mustern von Markenpositionen (12a, 12b, 12c; 12d, 12e, 12f) entsprechen; und Mittel (801827) zum Speichern jedes solchen Satzes (60) von Positionen im Speicher (40), um einen Ort und eine Ausrichtung für das entsprechende Muster in dem genannten Raum zu definieren; und wobei die Vorrichtung ferner eine Mehrzahl von Sätzen von Marken (12a, 12b, 12c; 12d, 12e, 12f) umfasst, wobei jeder Satz von Marken so angeordnet ist, dass er einem jeweiligen einen der genannten Muster auf einem jeweiligen Objekt (11a; 11b) entspricht, und wobei jede Marke die Aufgabe hat, von dem Energieerkennungsmittel (18L, 18R) erkennbare Energie zu emittieren oder zu reflektieren.
  2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass das Verarbeitungsmittel (28) Mittel (409) zum Vergleichen jedes gespeicherten Satzes (60) von Positionen mit einem entsprechenden einen (42) der gespeicherten Muster von Markenpositionen beinhaltet.
  3. Vorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Energieerkennungsmittel eine stereometrische Anordnung eines Paares von zweidimensionalen Feldern von Sensoren (18L, 18R) umfasst, wobei das Positionserfassungsmittel Mittel (22L, 22R) zum Bilden von fokussierten Energiebildern von Energiequellen im Koordinatenraum auf den Sensorfeldern (18L, 18R) beinhaltet, und wobei das Verarbeitungsmittel (28) Mittel (5) zum Ermitteln der Position einer Quelle in den Koordinaten des genannten Raums beinhaltet, indem Projektionen durch die Abbildung (22L, 22R) von Bildern errechnet werden, die auf den Sensorfeldern (18L, 18R) gebildet sind.
  4. Vorrichtung nach Anspruch 1, 2 oder 3, dadurch gekennzeichnet, dass das Positionserfassungsmittel (14) Mittel (24L, 24R) zum Richten von Energie in den Koordinatenraum beinhaltet und wenigstens einige der Marken (12a, 12c) passive, energiereflektierende Marken sind.
  5. Vorrichtung nach Anspruch 4, dadurch gekennzeichnet, dass das Verarbeitungsmittel (28) die Aufgabe hat, die Aktivierung des Energierichtmittels (24L, 24R) zu steuern.
  6. Vorrichtung nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass wenigstens einige der Marken (12b) energieemittierende Marken sind.
  7. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass das Verarbeitungsmittel (28) die Aufgabe hat, die Aktivierung der energieemittierenden Marken (12b) zu steuern.
  8. Verfahren zum Ermitteln des/der räumlichen Ortes und Ausrichtung von jedem auf einer Mehrzahl von Körpern, wobei das Verfahren die folgenden Schritte umfasst: Versehen jedes Körpers (11a, 11b) mit einem Satz von wenigstens drei Marken (12a, 12b, 12c; 12d, 12e, 12f), wobei jede Marke die Aufgabe hat, Energie zu emittieren oder zu reflektieren, und wobei jeder Satz in einem anderen Muster auf dem jeweiligen Objekt angeordnet ist, wobei das Muster durch eine entsprechende feste relative geometrische Beziehung zwischen den Positionen der Marken definiert und so gestaltet ist, dass die Längen aller Segmente (SLab, SLac, SLbc), die durch ein Paar der Markenpositionen terminiert werden, sich voneinander unterscheiden; Speichern einer Definition jeder der genannten festen relativen geometrischen Beziehungen in einem Speicher (40), wobei jede Definition die Segmentlängen in Verbindung mit den Markenpaaren in dem entsprechenden Satz und eine vorbestimmte Winkeleigenschaft jedes Segmentpaares umfasst; Erstellen eines dreidimensionalen Koordinatensystems in einem Raum, das die Mehrzahl von Körpern (11a, 11b) enthält, und Erkennen von Energie, die von Quellen an Positionen in dem genannten Raum ausgeht; Erzeugen von Signalen, die für die Position der erkannten Quelle repräsentativ sind, als Reaktion auf die Erkennung jeder Quelle in dem genannten Raum; Ermitteln jeder genannten Position in dem dreidimensionalen Koordinatensystem; Ermitteln von Distanzen, die durch Paare der Positionen (R1, R2 ... ) der erkannten Quellen definiert werden; Vergleichen (606, 607) der genannten Distanzen mit gespeicherten Segmentlängen und Wählen (608) derjenigen der genannten Distanzen, die mit gespeicherten Segmentlängen übereinstimmen; Ermitteln (709) der genannten vorbestimmten Winkeleigenschaft jedes Paares der genannten gewählten Distanzen, das einem Segmentpaar mit einer gespeicherten vorbestimmten Winkeleigenschaft entspricht; Vergleichen (710) der vorbestimmten Winkeleigenschaft jedes solchen Paares der gewählten Distanzen mit der gespeicherten vorbestimmten Eigenschaft des entsprechenden Segmentpaares, und, wenn die verglichenen Winkeleigenschaften übereinstimmen, Wählen (712, 714) jedes Paares der Positionen (R1, R2 ... ) der erkannten Quellen, das das Paar von gewählten Distanzen definiert, und dadurch Identifizieren der genannten gewählten Positionen von erkannten Quellen mit einzelnen der gespeicherten Marken in Verbindung mit den gespeicherten Winkeleigenschaften; und Assoziieren (801827) des Satzes von Marken (12a, 12b, 12c) jeder genannten gespeicherten Definition mit einem jeweiligen Satz der genannten identifizierten gewählten Positionen in dem Speicher (40).
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die genannten identifizierten gewählten Positionen (60), die mit dem Satz von Marken (12a, 12b, 12c) einer genannten gespeicherten Definition assoziiert sind, mit identifizierten Referenzpositionen (42) verglichen werden, die mit dem Satz von Marken (12a, 12b, 12c) derselben gespeicherten Definition assoziiert sind, um Schlingern, Stampfen und Gieren (62) des entsprechenden Körpers (11a) zu ermitteln.
  10. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass die genannten identifizierten gewählten Positionen (60), die mit dem Satz von Marken (12a, 12b, 12c) einer genannten gespeicherten Definition assoziiert sind, mit identifizierten Referenzpositionen (42) verglichen werden, die mit dem Satz von Marken (12a, 12b, 12c) derselben gespeicherten Definitionen assoziiert sind, um eine Translation (62) des entsprechenden Körpers (11a) zu ermitteln.
  11. Verfahren nach Anspruch 8, 9 oder 10, dadurch gekennzeichnet, dass der Schritt des Erzeugens von Signalen, die für die Position einer erkannten Quelle repräsentativ sind, das Bilden von fokussierten Energiebildern einer Energiequelle in dem genannten Raum auf einem Paar von zweidimensionalen Feldern von Sensoren (18L, 18R) in einer stereometrischen Anordnung umfasst, und der Schritt des Ermittelns der Position in dem dreidimensionalen Koordinatensystem das Berechnen eines Schnittpunktes von Projektionen von dem Paar Felder beinhaltet.
  12. Verfahren nach einem der Ansprüche 8 bis 11, dadurch gekennzeichnet, dass eine Mehrzahl von Segmenten im Hinblick auf die Länge gleich sind und jeweils Elemente von verschiedenen der genannten geometrischen Beziehungen sind, und dadurch, dass dort, wo eine Mehrzahl der geometrischen Beziehungen ein oder mehrere Paare solcher gleicher Segmente beinhalten, die genannten vorbestimmten Winkeleigenschaften solcher Paare sich voneinander unterscheiden.
DE69819363T 1997-12-05 1998-12-02 System zur bestimmung der räumlichen position und orientierung eines körpers Expired - Lifetime DE69819363T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US985462 1997-12-05
US08/985,462 US6061644A (en) 1997-12-05 1997-12-05 System for determining the spatial position and orientation of a body
PCT/CA1998/001118 WO1999030182A1 (en) 1997-12-05 1998-12-02 A system for determining the spatial position and orientation of a body

Publications (2)

Publication Number Publication Date
DE69819363D1 DE69819363D1 (de) 2003-12-04
DE69819363T2 true DE69819363T2 (de) 2004-08-05

Family

ID=25531511

Family Applications (2)

Application Number Title Priority Date Filing Date
DE69819363T Expired - Lifetime DE69819363T2 (de) 1997-12-05 1998-12-02 System zur bestimmung der räumlichen position und orientierung eines körpers
DE1034440T Pending DE1034440T1 (de) 1997-12-05 1998-12-02 System zur bestimmung der räumlichen position und orientierung eines körpers

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE1034440T Pending DE1034440T1 (de) 1997-12-05 1998-12-02 System zur bestimmung der räumlichen position und orientierung eines körpers

Country Status (8)

Country Link
US (1) US6061644A (de)
EP (1) EP1034440B1 (de)
JP (1) JP2002505412A (de)
CN (1) CN1199054C (de)
AT (1) ATE253229T1 (de)
CA (1) CA2312352C (de)
DE (2) DE69819363T2 (de)
WO (1) WO1999030182A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008023760A1 (de) 2008-05-15 2009-12-03 Medizin & Service Gmbh Anordnung zur Bestimmung der Position und Lage eines an einem Objekt befindlichen Merkmals

Families Citing this family (232)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6363940B1 (en) 1998-05-14 2002-04-02 Calypso Medical Technologies, Inc. System and method for bracketing and removing tissue
EP2289423A1 (de) * 1998-05-14 2011-03-02 David N. Krag System zum Klammern von Gewebe
US6301549B1 (en) * 1998-06-26 2001-10-09 Lucent Technologies, Inc. Three dimensional object boundary and motion determination device and method of operation thereof
US8788020B2 (en) 1998-10-23 2014-07-22 Varian Medical Systems, Inc. Method and system for radiation application
US6937696B1 (en) 1998-10-23 2005-08-30 Varian Medical Systems Technologies, Inc. Method and system for predictive physiological gating
US6621889B1 (en) * 1998-10-23 2003-09-16 Varian Medical Systems, Inc. Method and system for predictive physiological gating of radiation therapy
US6279579B1 (en) * 1998-10-23 2001-08-28 Varian Medical Systems, Inc. Method and system for positioning patients for medical treatment procedures
US6973202B2 (en) * 1998-10-23 2005-12-06 Varian Medical Systems Technologies, Inc. Single-camera tracking of an object
US6980679B2 (en) * 1998-10-23 2005-12-27 Varian Medical System Technologies, Inc. Method and system for monitoring breathing activity of a subject
US7483049B2 (en) * 1998-11-20 2009-01-27 Aman James A Optimizations for live event, real-time, 3D object tracking
US6707487B1 (en) * 1998-11-20 2004-03-16 In The Play, Inc. Method for representing real-time motion
US6567116B1 (en) * 1998-11-20 2003-05-20 James A. Aman Multiple object tracking system
US7085400B1 (en) 2000-06-14 2006-08-01 Surgical Navigation Technologies, Inc. System and method for image based sensor calibration
DE10051415C2 (de) * 2000-10-17 2003-10-09 Advanced Realtime Tracking Gmb Optisches Trackingsystem und -verfahren
EP2130511A1 (de) * 2000-11-17 2009-12-09 Calypso Medical, Inc System zur Lokalisierung und Definition einer Zielposition in einem menschlichen Körper
JP3759429B2 (ja) * 2001-05-23 2006-03-22 株式会社東芝 障害物検出装置及びその方法
US20020193685A1 (en) 2001-06-08 2002-12-19 Calypso Medical, Inc. Guided Radiation Therapy System
DE10130423B4 (de) * 2001-06-23 2004-02-05 Forschungszentrum Karlsruhe Gmbh Optisches 3D-Positionsmesssystem für die simultane Erfassung von sechs Freiheitsgraden
US7769430B2 (en) * 2001-06-26 2010-08-03 Varian Medical Systems, Inc. Patient visual instruction techniques for synchronizing breathing with a medical procedure
US7135978B2 (en) * 2001-09-14 2006-11-14 Calypso Medical Technologies, Inc. Miniature resonating marker assembly
US6812842B2 (en) 2001-12-20 2004-11-02 Calypso Medical Technologies, Inc. System for excitation of a leadless miniature marker
US6822570B2 (en) 2001-12-20 2004-11-23 Calypso Medical Technologies, Inc. System for spatially adjustable excitation of leadless miniature marker
US6838990B2 (en) 2001-12-20 2005-01-04 Calypso Medical Technologies, Inc. System for excitation leadless miniature marker
US6711431B2 (en) 2002-02-13 2004-03-23 Kinamed, Inc. Non-imaging, computer assisted navigation system for hip replacement surgery
US7634306B2 (en) * 2002-02-13 2009-12-15 Kinamed, Inc. Non-image, computer assisted navigation system for joint replacement surgery with modular implant system
KR100480780B1 (ko) * 2002-03-07 2005-04-06 삼성전자주식회사 영상신호로부터 대상물체를 추적하는 방법 및 그 장치
DE10212841B4 (de) 2002-03-22 2011-02-24 Karl Storz Gmbh & Co. Kg Medizinisches Instrument zur Behandlung von Gewebe mittels Hochfrequenzstrom sowie medizinisches System mit einem derartigen medizinischen Instrument
US6757582B2 (en) 2002-05-03 2004-06-29 Carnegie Mellon University Methods and systems to control a shaping tool
DE10226398B4 (de) * 2002-06-13 2012-12-06 Carl Zeiss Ag Verfahren und Vorrichtung zum Erfassen der Lage eines Objekts im Raum
US6878896B2 (en) 2002-07-24 2005-04-12 United Parcel Service Of America, Inc. Synchronous semi-automatic parallel sorting
ATE463213T1 (de) * 2002-08-09 2010-04-15 Kinamed Inc Nicht bildgebende ortungsverfahren für eine hüftoperation
WO2004016178A2 (en) * 2002-08-16 2004-02-26 Orthosoft Inc. Interface apparatus for passive tracking systems and method of use thereof
US7912529B2 (en) 2002-12-30 2011-03-22 Calypso Medical Technologies, Inc. Panel-type sensor/source array assembly
US9248003B2 (en) * 2002-12-30 2016-02-02 Varian Medical Systems, Inc. Receiver used in marker localization sensing system and tunable to marker frequency
US6889833B2 (en) * 2002-12-30 2005-05-10 Calypso Medical Technologies, Inc. Packaged systems for implanting markers in a patient and methods for manufacturing and using such systems
US7926491B2 (en) * 2002-12-31 2011-04-19 Calypso Medical Technologies, Inc. Method and apparatus for sensing field strength signals to estimate location of a wireless implantable marker
US7289839B2 (en) * 2002-12-30 2007-10-30 Calypso Medical Technologies, Inc. Implantable marker with a leadless signal transmitter compatible for use in magnetic resonance devices
US7247160B2 (en) * 2002-12-30 2007-07-24 Calypso Medical Technologies, Inc. Apparatuses and methods for percutaneously implanting objects in patients
WO2004079546A2 (en) * 2003-03-04 2004-09-16 United Parcel Service Of America, Inc. System for projecting a handling instruction onto a moving item or parcel
US7063256B2 (en) * 2003-03-04 2006-06-20 United Parcel Service Of America Item tracking and processing systems and methods
JP4253567B2 (ja) * 2003-03-28 2009-04-15 オリンパス株式会社 データオーサリング処理装置
US7310441B2 (en) * 2003-04-11 2007-12-18 Intel Corporation Method and apparatus for three-dimensional tracking of infra-red beacons
JP4346950B2 (ja) * 2003-05-02 2009-10-21 キヤノン株式会社 情報処理方法および装置
US7639134B2 (en) * 2003-05-07 2009-12-29 Savi Technology, Inc. Item-level visibility of nested and adjacent containers
US20050162269A1 (en) * 2003-05-07 2005-07-28 Lambright Stephen J. Dual mode reader device
US20050049485A1 (en) * 2003-08-27 2005-03-03 Harmon Kim R. Multiple configuration array for a surgical navigation system
US8571639B2 (en) * 2003-09-05 2013-10-29 Varian Medical Systems, Inc. Systems and methods for gating medical procedures
JP4502361B2 (ja) * 2003-09-30 2010-07-14 キヤノン株式会社 指標姿勢検出方法および装置
WO2005032390A1 (fr) 2003-10-09 2005-04-14 Ap Technologies Sa Dispositif pour traitement medical assiste par robot
DE10350861A1 (de) * 2003-10-31 2005-06-02 Steinbichler Optotechnik Gmbh Verfahren zur Kalibrierung eines 3D-Meßgerätes
US7104947B2 (en) * 2003-11-17 2006-09-12 Neuronetics, Inc. Determining stimulation levels for transcranial magnetic stimulation
US8196589B2 (en) 2003-12-24 2012-06-12 Calypso Medical Technologies, Inc. Implantable marker with wireless signal transmitter
US20050154284A1 (en) * 2003-12-31 2005-07-14 Wright J. N. Method and system for calibration of a marker localization sensing array
US20050154280A1 (en) * 2003-12-31 2005-07-14 Wright J. N. Receiver used in marker localization sensing system
US7684849B2 (en) * 2003-12-31 2010-03-23 Calypso Medical Technologies, Inc. Marker localization sensing system synchronized with radiation source
US7651459B2 (en) * 2004-01-06 2010-01-26 Neuronetics, Inc. Method and apparatus for coil positioning for TMS studies
US9623208B2 (en) * 2004-01-12 2017-04-18 Varian Medical Systems, Inc. Instruments with location markers and methods for tracking instruments through anatomical passageways
US20050215888A1 (en) * 2004-03-05 2005-09-29 Grimm James E Universal support arm and tracking array
US20060052691A1 (en) * 2004-03-05 2006-03-09 Hall Maleata Y Adjustable navigated tracking element mount
US7702178B2 (en) * 2004-03-15 2010-04-20 Sarnoff Corporation Method and apparatus for providing noise reduction
US8177702B2 (en) 2004-04-15 2012-05-15 Neuronetics, Inc. Method and apparatus for determining the proximity of a TMS coil to a subject's head
US20050245820A1 (en) * 2004-04-28 2005-11-03 Sarin Vineet K Method and apparatus for verifying and correcting tracking of an anatomical structure during surgery
US7755486B2 (en) * 2004-05-06 2010-07-13 Savi Technology, Inc. Expanded compatibility RFID tags
US10195464B2 (en) 2004-06-24 2019-02-05 Varian Medical Systems, Inc. Systems and methods for treating a lung of a patient using guided radiation therapy or surgery
US7561717B2 (en) * 2004-07-09 2009-07-14 United Parcel Service Of America, Inc. System and method for displaying item information
US8437449B2 (en) 2004-07-23 2013-05-07 Varian Medical Systems, Inc. Dynamic/adaptive treatment planning for radiation therapy
US8095203B2 (en) * 2004-07-23 2012-01-10 Varian Medical Systems, Inc. Data processing for real-time tracking of a target in radiation therapy
US7899513B2 (en) * 2004-07-23 2011-03-01 Calypso Medical Technologies, Inc. Modular software system for guided radiation therapy
EP1771223A4 (de) * 2004-07-23 2009-04-22 Calypso Med Technologies Inc Vorrichtungen und verfahren zum perkutanen objektimplantieren bei patienten
EP1778086A4 (de) * 2004-07-23 2009-03-18 Calypso Med Technologies Inc Systeme und verfahren für die echtzeit-verfolgung von zielen in der strahlentherapie und anderen medizinischen anwendungen
US9586059B2 (en) * 2004-07-23 2017-03-07 Varian Medical Systems, Inc. User interface for guided radiation therapy
WO2006012631A2 (en) 2004-07-23 2006-02-02 Calypso Medical Technologies, Inc. Integrated radiation therapy systems and methods for treating a target in a patient
US7852317B2 (en) 2005-01-12 2010-12-14 Thinkoptics, Inc. Handheld device for handheld vision based absolute pointing system
US8088058B2 (en) * 2005-01-20 2012-01-03 Neuronetics, Inc. Articulating arm
US20060161059A1 (en) * 2005-01-20 2006-07-20 Zimmer Technology, Inc. Variable geometry reference array
US20060199159A1 (en) * 2005-03-01 2006-09-07 Neuronetics, Inc. Head phantom for simulating the patient response to magnetic stimulation
US7473884B2 (en) * 2005-04-21 2009-01-06 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Orientation determination utilizing a cordless device
WO2007010330A1 (fr) 2005-07-15 2007-01-25 Gulhivair Holding Sa Dispositif et procede de numerisation interne de l'os pour la chirurgie orthopedique et traumatologique assistee par ordinateur
US7824324B2 (en) 2005-07-27 2010-11-02 Neuronetics, Inc. Magnetic core for medical procedures
US8014565B2 (en) * 2005-08-26 2011-09-06 Sony Corporation Labeling used in motion capture
US8054312B2 (en) * 2005-08-26 2011-11-08 Sony Corporation Material for motion capture costumes and props
US7720259B2 (en) * 2005-08-26 2010-05-18 Sony Corporation Motion capture using primary and secondary markers
US7294815B2 (en) * 2005-09-06 2007-11-13 Avago Technologies General Ip (Singapore) Pte. Ltd. System and method for generating positional and orientation information of an object
US9283053B2 (en) 2005-09-19 2016-03-15 Varian Medical Systems, Inc. Apparatus and methods for implanting objects, such as bronchoscopically implanting markers in the lung of patients
WO2007061890A2 (en) 2005-11-17 2007-05-31 Calypso Medical Technologies, Inc. Apparatus and methods for using an electromagnetic transponder in orthopedic procedures
DE112007000340T5 (de) * 2006-02-09 2008-12-18 Northern Digital Inc., Waterloo Retroreflektierende Markenverfolgungssysteme
IL177080A0 (en) * 2006-03-15 2007-08-19 Israel Aerospace Ind Ltd Combat training system and method
US7796119B2 (en) * 2006-04-03 2010-09-14 Avago Technologies General Ip (Singapore) Pte. Ltd. Position determination with reference
ES2569411T3 (es) 2006-05-19 2016-05-10 The Queen's Medical Center Sistema de seguimiento de movimiento para imágenes adaptativas en tiempo real y espectroscopia
WO2008008847A2 (en) * 2006-07-11 2008-01-17 Sony Corporation Using quantum nanodots in motion pictures or video games
US8913003B2 (en) * 2006-07-17 2014-12-16 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer using a projection marker system
US7767967B2 (en) * 2006-11-01 2010-08-03 Sony Corporation Capturing motion using quantum nanodot sensors
WO2008052348A1 (en) * 2006-11-02 2008-05-08 Northern Digital Inc. Integrated mapping system
DE502006007337D1 (de) 2006-12-11 2010-08-12 Brainlab Ag Mehrbandtracking- und Kalibrier-System
US9176598B2 (en) * 2007-05-08 2015-11-03 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer with improved performance
US9884200B2 (en) * 2008-03-10 2018-02-06 Neuronetics, Inc. Apparatus for coil positioning for TMS studies
WO2009149409A1 (en) 2008-06-05 2009-12-10 Calypso Medical Technologies, Inc. Motion compensation for medical imaging and associated systems and methods
US8086026B2 (en) * 2008-06-27 2011-12-27 Waldean Schulz Method and system for the determination of object positions in a volume
US20100061596A1 (en) * 2008-09-05 2010-03-11 Varian Medical Systems Technologies, Inc. Video-Based Breathing Monitoring Without Fiducial Tracking
US10667727B2 (en) * 2008-09-05 2020-06-02 Varian Medical Systems, Inc. Systems and methods for determining a state of a patient
WO2010052874A1 (ja) * 2008-11-05 2010-05-14 パナソニック株式会社 物体位置推定システム、物体位置推定装置、物体位置推定方法、及び、物体位置推定プログラム
US8588892B2 (en) 2008-12-02 2013-11-19 Avenir Medical Inc. Method and system for aligning a prosthesis during surgery using active sensors
WO2010080905A2 (en) * 2009-01-08 2010-07-15 The Board Of Regents Of The University Of Texas System Real-time in vivo radiation dosimetry using scintillation detectors
US9943704B1 (en) 2009-01-21 2018-04-17 Varian Medical Systems, Inc. Method and system for fiducials contained in removable device for radiation therapy
WO2010095437A1 (ja) * 2009-02-19 2010-08-26 パナソニック株式会社 物体位置推定システム、物体位置推定装置、物体位置推定方法、及び物体位置推定プログラム
RU2442997C2 (ru) * 2009-07-06 2012-02-20 Федеральное Государственное Образовательное Учреждение Высшего Профессионального Образования Военная Академия Войсковой Противовоздушной Обороны Вооруженных Сил Российской Федерации Способ измерения дальности и оптико-электронная система (оэс) поиска и сопровождения (варианты)
TWI403690B (zh) * 2009-10-26 2013-08-01 Ind Tech Res Inst 自我定位裝置及其方法
US9839486B2 (en) 2010-04-14 2017-12-12 Smith & Nephew, Inc. Systems and methods for patient-based computer assisted surgical procedures
WO2011134083A1 (en) 2010-04-28 2011-11-03 Ryerson University System and methods for intraoperative guidance feedback
JP2012057996A (ja) 2010-09-07 2012-03-22 Mitsutoyo Corp 画像測定装置及び画像測定方法
CN103347454B (zh) 2010-10-01 2016-10-12 瓦里安医疗系统公司 用于递送植入物,例如在肺中经支气管镜植入标记物的递送导管和方法
CN102012512B (zh) * 2010-11-29 2012-07-04 四川川大智胜软件股份有限公司 机载应答机a/c模式应答信号的识别方法
CA2821670A1 (en) 2010-12-17 2012-06-21 Avenir Medical Inc. Method and system for aligning a prosthesis during surgery
US8385596B2 (en) * 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
US9201185B2 (en) 2011-02-04 2015-12-01 Microsoft Technology Licensing, Llc Directional backlighting for display panels
US8920172B1 (en) * 2011-03-15 2014-12-30 Motion Reality, Inc. Method and system for tracking hardware in a motion capture environment
US8687172B2 (en) 2011-04-13 2014-04-01 Ivan Faul Optical digitizer with improved distance measurement capability
US9833637B2 (en) 2011-05-02 2017-12-05 Radiadyne Llc Skin patch dosimeter
US9606209B2 (en) 2011-08-26 2017-03-28 Kineticor, Inc. Methods, systems, and devices for intra-scan motion correction
US8668345B2 (en) 2011-11-30 2014-03-11 Izi Medical Products Retro-reflective marker with snap on threaded post
US9052414B2 (en) 2012-02-07 2015-06-09 Microsoft Technology Licensing, Llc Virtual image device
US9354748B2 (en) 2012-02-13 2016-05-31 Microsoft Technology Licensing, Llc Optical stylus interaction
US8661573B2 (en) 2012-02-29 2014-03-04 Izi Medical Products Protective cover for medical device having adhesive mechanism
US8749529B2 (en) 2012-03-01 2014-06-10 Microsoft Corporation Sensor-in-pixel display system with near infrared filter
US9075566B2 (en) 2012-03-02 2015-07-07 Microsoft Technoogy Licensing, LLC Flexible hinge spine
US8873227B2 (en) 2012-03-02 2014-10-28 Microsoft Corporation Flexible hinge support layer
USRE48963E1 (en) 2012-03-02 2022-03-08 Microsoft Technology Licensing, Llc Connection device for computing devices
US9426905B2 (en) 2012-03-02 2016-08-23 Microsoft Technology Licensing, Llc Connection device for computing devices
US9064654B2 (en) 2012-03-02 2015-06-23 Microsoft Technology Licensing, Llc Method of manufacturing an input device
US9298236B2 (en) 2012-03-02 2016-03-29 Microsoft Technology Licensing, Llc Multi-stage power adapter configured to provide a first power level upon initial connection of the power adapter to the host device and a second power level thereafter upon notification from the host device to the power adapter
US9460029B2 (en) 2012-03-02 2016-10-04 Microsoft Technology Licensing, Llc Pressure sensitive keys
US9360893B2 (en) 2012-03-02 2016-06-07 Microsoft Technology Licensing, Llc Input device writing surface
US9870066B2 (en) 2012-03-02 2018-01-16 Microsoft Technology Licensing, Llc Method of manufacturing an input device
US9511243B2 (en) 2012-04-12 2016-12-06 University Of Florida Research Foundation, Inc. Prevention of setup errors in radiotherapy
US9314188B2 (en) 2012-04-12 2016-04-19 Intellijoint Surgical Inc. Computer-assisted joint replacement surgery and navigation systems
DE102012207170A1 (de) * 2012-04-30 2013-10-31 Zumtobel Lighting Gmbh Multifunktionale Sensoreinheit und Verfahren zur Justierung der Einheit
US20130300590A1 (en) 2012-05-14 2013-11-14 Paul Henry Dietz Audio Feedback
US10031556B2 (en) 2012-06-08 2018-07-24 Microsoft Technology Licensing, Llc User experience adaptation
US8947353B2 (en) 2012-06-12 2015-02-03 Microsoft Corporation Photosensor array gesture detection
US9019615B2 (en) 2012-06-12 2015-04-28 Microsoft Technology Licensing, Llc Wide field-of-view virtual image projector
US9684382B2 (en) 2012-06-13 2017-06-20 Microsoft Technology Licensing, Llc Input device configuration having capacitive and pressure sensors
US9459160B2 (en) 2012-06-13 2016-10-04 Microsoft Technology Licensing, Llc Input device sensor configuration
US9073123B2 (en) 2012-06-13 2015-07-07 Microsoft Technology Licensing, Llc Housing vents
US9256089B2 (en) 2012-06-15 2016-02-09 Microsoft Technology Licensing, Llc Object-detecting backlight unit
US9355345B2 (en) 2012-07-23 2016-05-31 Microsoft Technology Licensing, Llc Transparent tags with encoded data
US8964379B2 (en) 2012-08-20 2015-02-24 Microsoft Corporation Switchable magnetic lock
US9008757B2 (en) 2012-09-26 2015-04-14 Stryker Corporation Navigation system including optical and non-optical sensors
US9152173B2 (en) 2012-10-09 2015-10-06 Microsoft Technology Licensing, Llc Transparent display device
US8654030B1 (en) 2012-10-16 2014-02-18 Microsoft Corporation Antenna placement
EP2908970B1 (de) 2012-10-17 2018-01-03 Microsoft Technology Licensing, LLC Vorsprünge zum spritzgiessen von metalllegierungen
WO2014059618A1 (en) 2012-10-17 2014-04-24 Microsoft Corporation Graphic formation via material ablation
WO2014059625A1 (en) 2012-10-17 2014-04-24 Microsoft Corporation Metal alloy injection molding overflows
CA2928460C (en) 2012-10-30 2021-10-19 Truinject Medical Corp. System for injection training
US8952892B2 (en) 2012-11-01 2015-02-10 Microsoft Corporation Input location correction tables for input panels
US8786767B2 (en) 2012-11-02 2014-07-22 Microsoft Corporation Rapid synchronized lighting and shuttering
US9513748B2 (en) 2012-12-13 2016-12-06 Microsoft Technology Licensing, Llc Combined display panel circuit
KR101371387B1 (ko) * 2013-01-18 2014-03-10 경북대학교 산학협력단 트랙킹 시스템 및 이를 이용한 트랙킹 방법
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
WO2014120734A1 (en) 2013-02-01 2014-08-07 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
US9176538B2 (en) 2013-02-05 2015-11-03 Microsoft Technology Licensing, Llc Input device configurations
US10578499B2 (en) 2013-02-17 2020-03-03 Microsoft Technology Licensing, Llc Piezo-actuated virtual buttons for touch surfaces
KR101446173B1 (ko) * 2013-02-21 2014-10-01 주식회사 고영테크놀러지 트랙킹 시스템 및 이를 이용한 트랙킹 방법
US9638835B2 (en) 2013-03-05 2017-05-02 Microsoft Technology Licensing, Llc Asymmetric aberration correcting lens
US9247998B2 (en) 2013-03-15 2016-02-02 Intellijoint Surgical Inc. System and method for intra-operative leg position measurement
US9304549B2 (en) 2013-03-28 2016-04-05 Microsoft Technology Licensing, Llc Hinge mechanism for rotatable component attachment
EP2787320B1 (de) 2013-04-05 2017-09-20 Leica Geosystems AG Totalstation mit Scanfunktionalität und wählbaren Scanmodi
US9480415B2 (en) 2013-04-26 2016-11-01 Medtronic Navigation, Inc. Electromagnetic coil apparatuses for surgical navigation and corresponding methods
US9552777B2 (en) 2013-05-10 2017-01-24 Microsoft Technology Licensing, Llc Phase control backlight
JP2015011480A (ja) * 2013-06-27 2015-01-19 カシオ計算機株式会社 画像生成装置、画像生成方法及びプログラム
EP3017317B2 (de) * 2013-07-04 2022-06-15 Signify Holding B.V. Bestimmung der orientierung
US9448631B2 (en) 2013-12-31 2016-09-20 Microsoft Technology Licensing, Llc Input device haptics and pressure sensing
CA2972754A1 (en) 2014-01-17 2015-07-23 Clark B. Foster Injection site training system
US9317072B2 (en) 2014-01-28 2016-04-19 Microsoft Technology Licensing, Llc Hinge mechanism with preset positions
US9759854B2 (en) 2014-02-17 2017-09-12 Microsoft Technology Licensing, Llc Input device outer layer and backlighting
US10290231B2 (en) 2014-03-13 2019-05-14 Truinject Corp. Automated detection of performance characteristics in an injection training system
US10120420B2 (en) 2014-03-21 2018-11-06 Microsoft Technology Licensing, Llc Lockable display and techniques enabling use of lockable displays
CN106572810A (zh) 2014-03-24 2017-04-19 凯内蒂科尔股份有限公司 去除医学成像扫描的预期运动校正的系统、方法和装置
US9919165B2 (en) 2014-05-07 2018-03-20 Varian Medical Systems, Inc. Systems and methods for fiducial to plan association
US10043284B2 (en) 2014-05-07 2018-08-07 Varian Medical Systems, Inc. Systems and methods for real-time tumor tracking
EP2944283B1 (de) 2014-05-14 2018-08-15 Stryker European Holdings I, LLC Navigationssystem zum verfolgen der position eines arbeitsziels
WO2016014718A1 (en) 2014-07-23 2016-01-28 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10324733B2 (en) 2014-07-30 2019-06-18 Microsoft Technology Licensing, Llc Shutdown notifications
US9424048B2 (en) 2014-09-15 2016-08-23 Microsoft Technology Licensing, Llc Inductive peripheral retention device
US9447620B2 (en) 2014-09-30 2016-09-20 Microsoft Technology Licensing, Llc Hinge mechanism with multiple preset positions
CN107072740B (zh) 2014-11-21 2020-05-22 思外科有限公司 视觉跟踪系统和跟踪识别器间传输数据的可见光通信系统
BR112017011443A2 (pt) 2014-12-01 2018-02-27 Truinject Corp instrumento de treinamento de injeção emitindo luz omnidirecional
EP3047809B1 (de) 2015-01-23 2022-04-13 Storz Medical Ag Extrakorporales stosswellenlithotripsiesystem mit offline-ultraschallortung
US11096605B2 (en) 2015-03-31 2021-08-24 Medtronic Navigation, Inc. Modular coil assembly
US9924103B2 (en) * 2015-04-09 2018-03-20 The Boeing Company Automated local positioning system calibration using optically readable markers
US10416799B2 (en) 2015-06-03 2019-09-17 Microsoft Technology Licensing, Llc Force sensing and inadvertent input control of an input device
US10222889B2 (en) 2015-06-03 2019-03-05 Microsoft Technology Licensing, Llc Force inputs and cursor control
US9752361B2 (en) 2015-06-18 2017-09-05 Microsoft Technology Licensing, Llc Multistage hinge
US9864415B2 (en) 2015-06-30 2018-01-09 Microsoft Technology Licensing, Llc Multistage friction hinge
US9860145B2 (en) 2015-07-02 2018-01-02 Microsoft Technology Licensing, Llc Recording of inter-application data flow
US9733915B2 (en) 2015-07-02 2017-08-15 Microsoft Technology Licensing, Llc Building of compound application chain applications
US9785484B2 (en) 2015-07-02 2017-10-10 Microsoft Technology Licensing, Llc Distributed application interfacing across different hardware
US9733993B2 (en) 2015-07-02 2017-08-15 Microsoft Technology Licensing, Llc Application sharing using endpoint interface entities
US10261985B2 (en) 2015-07-02 2019-04-16 Microsoft Technology Licensing, Llc Output rendering in dynamic redefining application
US9712472B2 (en) 2015-07-02 2017-07-18 Microsoft Technology Licensing, Llc Application spawning responsive to communication
US9658836B2 (en) 2015-07-02 2017-05-23 Microsoft Technology Licensing, Llc Automated generation of transformation chain compatible class
US10198252B2 (en) 2015-07-02 2019-02-05 Microsoft Technology Licensing, Llc Transformation chain application splitting
US10031724B2 (en) 2015-07-08 2018-07-24 Microsoft Technology Licensing, Llc Application operation responsive to object spatial status
US10198405B2 (en) 2015-07-08 2019-02-05 Microsoft Technology Licensing, Llc Rule-based layout of changing information
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
US10277582B2 (en) 2015-08-27 2019-04-30 Microsoft Technology Licensing, Llc Application service architecture
EP3365049A2 (de) 2015-10-20 2018-08-29 Truinject Medical Corp. Injektionssystem
US10905496B2 (en) * 2015-11-16 2021-02-02 Think Surgical, Inc. Method for confirming registration of tracked bones
WO2017091479A1 (en) 2015-11-23 2017-06-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
EP3380032A4 (de) 2015-11-24 2019-12-18 Think Surgical, Inc. Aktive roboterstiftplatzierung in der knietotalendoprothese
US10061385B2 (en) 2016-01-22 2018-08-28 Microsoft Technology Licensing, Llc Haptic feedback for a touch input device
US10352689B2 (en) * 2016-01-28 2019-07-16 Symbol Technologies, Llc Methods and systems for high precision locationing with depth values
EP3419544A4 (de) 2016-02-26 2019-10-23 Think Surgical, Inc. Verfahren und system zur anleitung der benutzerpositionierung eines roboters
WO2017151441A2 (en) 2016-02-29 2017-09-08 Truinject Medical Corp. Cosmetic and therapeutic injection safety systems, methods, and devices
US10849688B2 (en) 2016-03-02 2020-12-01 Truinject Corp. Sensory enhanced environments for injection aid and social training
US11185373B2 (en) 2016-03-02 2021-11-30 Think Surgical, Inc. Method for recovering a registration of a bone
US10344797B2 (en) 2016-04-05 2019-07-09 Microsoft Technology Licensing, Llc Hinge with multiple preset positions
TWI643092B (zh) * 2016-08-10 2018-12-01 Giant Manufacturing Co., Ltd. 動態姿勢偵測系統
US10037057B2 (en) 2016-09-22 2018-07-31 Microsoft Technology Licensing, Llc Friction hinge
US11207114B2 (en) 2016-09-26 2021-12-28 Think Surgical, Inc. Pin placement holder for surgical pin driver
US10772685B2 (en) 2017-01-16 2020-09-15 Think Surgical, Inc. System and method for bone re-registration and marker installation
US10269266B2 (en) 2017-01-23 2019-04-23 Truinject Corp. Syringe dose and position measuring apparatus
JP2018151832A (ja) * 2017-03-13 2018-09-27 キヤノン株式会社 情報処理装置、情報処理方法、および、プログラム
US10471478B2 (en) 2017-04-28 2019-11-12 United Parcel Service Of America, Inc. Conveyor belt assembly for identifying an asset sort location and methods of utilizing the same
CN109282750B (zh) * 2017-07-21 2020-10-16 镱钛科技股份有限公司 光学量测系统、光学量测装置及其量测方法
US20190096066A1 (en) * 2017-09-28 2019-03-28 4Sense, Inc. System and Method for Segmenting Out Multiple Body Parts
US11154369B2 (en) 2018-01-24 2021-10-26 Think Surgical, Inc. Environmental mapping for robotic assisted surgery
US11439411B2 (en) 2019-05-24 2022-09-13 Think Surgical, Inc. System and method to improve surgical cutting in the presence of surgical debris
EP3815643A1 (de) 2019-10-29 2021-05-05 Think Surgical, Inc. System mit zwei freiheitsgraden
CN112263786B (zh) * 2020-10-26 2022-11-25 中国人民解放军空军军医大学 一种食管癌治疗用定位装置
CN116636313A (zh) 2020-12-04 2023-08-22 利奥癌症治疗公司 多轴医学成像

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4652917A (en) * 1981-10-28 1987-03-24 Honeywell Inc. Remote attitude sensor using single camera and spiral patterns
US4649504A (en) * 1984-05-22 1987-03-10 Cae Electronics, Ltd. Optical position and orientation measurement techniques
FR2590681B1 (fr) * 1985-11-27 1988-06-24 Alcatel Espace Systeme de localisation d'un objet muni d'au moins une mire passive.
JPS62293115A (ja) * 1986-06-12 1987-12-19 Takenaka Komuten Co Ltd 移動物体の位置姿勢自動測量装置
JP2896539B2 (ja) * 1991-06-19 1999-05-31 株式会社竹中工務店 物体の位置、角度等の固有情報の検出方法
US5227985A (en) * 1991-08-19 1993-07-13 University Of Maryland Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object
US5521843A (en) * 1992-01-30 1996-05-28 Fujitsu Limited System for and method of recognizing and tracking target mark
JPH0696397A (ja) * 1992-09-16 1994-04-08 Mitsubishi Electric Corp 画像追尾装置および画像追尾方法
US5828770A (en) * 1996-02-20 1998-10-27 Northern Digital Inc. System for determining the spatial position and angular orientation of an object

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008023760A1 (de) 2008-05-15 2009-12-03 Medizin & Service Gmbh Anordnung zur Bestimmung der Position und Lage eines an einem Objekt befindlichen Merkmals

Also Published As

Publication number Publication date
US6061644A (en) 2000-05-09
EP1034440B1 (de) 2003-10-29
JP2002505412A (ja) 2002-02-19
DE1034440T1 (de) 2001-05-03
CN1283272A (zh) 2001-02-07
CN1199054C (zh) 2005-04-27
DE69819363D1 (de) 2003-12-04
CA2312352A1 (en) 1999-06-17
WO1999030182A1 (en) 1999-06-17
CA2312352C (en) 2005-09-06
EP1034440A1 (de) 2000-09-13
ATE253229T1 (de) 2003-11-15

Similar Documents

Publication Publication Date Title
DE69819363T2 (de) System zur bestimmung der räumlichen position und orientierung eines körpers
EP1597539B1 (de) Verfahren und optisches system zur vermessung der topographie eines messobjekts
DE102006005036B4 (de) Vorrichtung und Verfahren zur verbesserten Formcharakterisierung
EP2742319B1 (de) Messgerät zur bestimmung der räumlichen lage eines messhilfsinstruments
DE102014104712B4 (de) Registrierung einer in Cluster zerfallenden Szene mit visualisierten Clustern
EP2850388B1 (de) Registrierverfahren und -vorrichtung für ein positionserfassungssystem
EP2227703B1 (de) Verfahren zur bewegungserfassung
DE112017000642T5 (de) Systeme und Verfahren für eine mögliche Kollision zwischen einem Objekt und Detektieren eines Patienten
DE112014001268T5 (de) Kompensation eines Scanners mit strukturiertem Licht, der in sechs Freiheitsgraden verfolgt wird
EP1517647A1 (de) Verfahren und instrument zur chirurgischen navigation
EP1886641A1 (de) Verfahren und System zum Bestimmen der relativen Lage eines medizinischen Instruments relativ zu einer Körperstruktur
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
EP3195256B1 (de) Verfahren und vorrichtung zum identifizieren von strukturelementen eines projizierten strukturmusters in kamerabildern
EP1420264A1 (de) Verfahren und Vorrichtung zur Kalibrierung eines Messsystems
WO1997006409A1 (de) Verfahren und vorrichtung zur schnellen erfassung der lage einer zielmarke
DE102010042278A1 (de) Operationsnavigationssystem mit strukturiertem Licht
DE19638758A1 (de) Verfahren und Vorrichtung zur dreidimensionalen Vermessung von Objekten
DE102011084444A1 (de) Verfahren zur Ermittlung von Begrenzungsinformationen eines Patienten und/oder eines Objekts
DE102008025538A1 (de) Kalibrierung eines Mehrebenen-Röntgengeräts
EP1066497A1 (de) Verfahren zur bestimmung der position und drehlage eines objektes
EP3377916A1 (de) Medizintechnische koordinatenmessvorrichtung und medizintechnisches koordinatenmessverfahren
DE102012000831A1 (de) Zielmarken zur Bestimmung der räumlichen Lage von Punktwolken aus terrestrischen Laserscannern
DE102014012693B4 (de) System und Verfahren sowie Computerprogramm zur Positions-und Lagebestimmung von Objekten
DE102017100885B4 (de) Verfahren und vorrichtung zum erzeugen und projizieren eines 3d-thermogramms samt daten zu den aufnahmebedingungen
EP3154431A1 (de) Verfahren zur bestimmung von ursprungsorten von strahlungssignalen in einem messbereich und messgerät zur simultanen erfassung von strahlungsereignissen zerfallender radionuklide in dem messbereich