DE102006005036A1 - Vorrichtung und Verfahren zur verbesserten Formcharakterisierung - Google Patents
Vorrichtung und Verfahren zur verbesserten Formcharakterisierung Download PDFInfo
- Publication number
- DE102006005036A1 DE102006005036A1 DE102006005036A DE102006005036A DE102006005036A1 DE 102006005036 A1 DE102006005036 A1 DE 102006005036A1 DE 102006005036 A DE102006005036 A DE 102006005036A DE 102006005036 A DE102006005036 A DE 102006005036A DE 102006005036 A1 DE102006005036 A1 DE 102006005036A1
- Authority
- DE
- Germany
- Prior art keywords
- tracking device
- computer
- shape
- navigation system
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 15
- 238000000034 method Methods 0.000 claims abstract description 42
- 230000003287 optical effect Effects 0.000 claims description 15
- 239000002131 composite material Substances 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 4
- 239000007787 solid Substances 0.000 claims description 3
- 238000012512 characterization method Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 230000036512 infertility Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000002386 leaching Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/245—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
- G01S5/163—Determination of attitude
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Length, Angles, Or The Like Using Electric Or Magnetic Means (AREA)
Abstract
Description
- HINTERGRUND DER ERFINDUNG
- Gebiet der Erfindung
- Diese Erfindung betrifft das Bestimmen der Form von starren oder annähernd starren Körpern. Genauer gesagt betrifft diese Erfindung die Formbestimmung solcher Körper mittels eines rechnergestützten Navigationssystems.
- Die rechnergestützte Bestimmung der Position von Körpern wird seit vielen Jahren in Fertigungs- und medizinischen Bereichen verwendet. Rechnergestützte Navigation erfordert, dass die vom Navigationssystem zu verfolgenden Körper eine bekannte Form besitzen, so dass die Ausrichtung und Position der Körper vom System korrekt verfolgt werden können. Das Verfolgen wird entweder durch Befestigen einer Verfolgungseinrichtung am Körper oder durch Einbauen der Verfolgungseinrichtung in den Körper bewerkstelligt. Es gibt zahlreiche Verfolgungstechniken, darunter aktive und passive optische Verfolgungssysteme, magnetische Systeme und Inertialsysteme.
- Für viele Anwendungen ist es notwendig, Körper im Anwendungsbereich zu kalibrieren, so dass das Navigationssystem anschließend den Körper verfolgen und ihn rea listisch graphisch auf einem Computeranzeigegerät darstellen kann. Dies wird üblicherweise dadurch bewerkstelligt, dass die Verfolgungseinrichtung in einer festen Beziehung mit dem Körper verbunden und dann der Körper in eine Kalibrierungseinrichtung eingesetzt wird. Diese Einrichtungen können so einfach wie eine Referenzmarke in einer bekannten Beziehung zum Navigationssystem sein, oder es kann eine Einrichtung sein, die den Körper in eine vorbestimmte Haltung bezüglich des Navigationssystems zwingt, wobei sich die Spitze des Körpers in einer vorherbestimmten Position befindet. Gängige Verfolgungskalibrierung erfordert eine Art von physischem Kontakt zwischen dem Körper und der Kalibrierungseinrichtung.
- In bestimmten Situationen kann es wünschenswert sein, den Kontakt mit anderen Vorrichtungen oder Körpern zu minimieren. Für eine chirurgische Operation beispielsweise erfordern die Sterilitätserfordernisse, dass der zu verwendende Körper steril ist und dass jeder Körper, den er in irgendeiner Weise berührt, ebenfalls steril ist. Dies macht es erforderlich, dass die Kalibrierungseinrichtung sterilisiert wird und dass die Kalibrierungseinrichtung innerhalb des sterilen Bereichs verbleibt. Da Platz bei einer chirurgischen Operation kostbar ist, kann dies ein Problem sein.
- Zusätzlich müssen Körper, die Einsätze tragen, so wie Schraubenzieher, Bohrer, Implantateinsetzgeräte etc., jedes Mal neu kalibriert werden, wenn ein neuer Einsatz eingesetzt wird. Schließlich haben einige Geräte keine axiale Form, was dazu führt, dass diese Körper mit den bekannten Verfahren im Anwendungsbereich nur schwierig kalibriert werden konnten.
- KURZER ABRISS DER ERFINDUNG
- Gemäß einem Aspekt der Erfindung bestimmt ein System die Form und Ausrichtung eines Körpers relativ zu einer Verfolgungseinrichtung. Eine Erfassungseinrichtung erzeugt eine Serie von Darstellungen des Körpers. Eine Verfolgungseinrichtung, die in der Lage ist, von einem rechnergestützten Navigationssystem erfasst zu werden, ist dem Körper so zugeordnet, dass die Position des Körpers relativ zum rechnergestützten Navigationssystem lokalisiert ist. Das rechnergestützte Navigationssystem, welches über eine zentrale Verarbeitungseinheit verfügt, verarbeitet die Serie von Darstellungen des Körpers und die relative Lage des Körpers, um die Form und Ausrichtung des Körpers relativ zur Verfolgungseinrichtung zu bestimmen.
- Gemäß einem weiteren Aspekt der Erfindung wird die Form und Ausrichtung eines Körpers relativ zu einem Strahler durch ein System bestimmt. Eine Erfassungseinrich tung erzeugt eine Serie von Darstellungen des Körpers. Ein Strahler, der in der Lage ist, von einem rechnergestützten Navigationssystem erfasst zu werden, ist dem Körper so zugeordnet, dass die Position des Körpers relativ zum rechnergestützten Navigationssystem lokalisiert ist. Das rechnergestützte Navigationssystem, welches über eine zentrale Verarbeitungseinheit verfügt, verarbeitet die Serie von Darstellungen des Körpers und die relative Lage des Körpers, um die Form und Ausrichtung des Körpers relativ zum Strahler zu bestimmen.
- Gemäß einem weiteren Aspekt der Erfindung beinhaltet ein Verfahren zur Bestimmung der Form und Ausrichtung eines Körpers relativ zu einer Verfolgungseinrichtung mittels eines rechnergestützten Navigationssystems den Schritt des Erzeugens einer Serie von Darstellungen des Körpers und der anschließenden Verwendung dieser Darstellungen, um ein zusammengesetztes Hüllvolumen des Körpers zu bestimmen. Die Form des Körpers wird aus dem zusammengesetzten Hüllvolumen bestimmt. Eine Position und eine Ausrichtung des Körpers werden mittels einer dem Körper zugeordneten Verfolgungseinrichtung bestimmt, die mit dem rechnergestützten Navigationssystem kommuniziert.
- Gemäß noch einem weiteren Aspekt der Erfindung beinhaltet ein Verfahren zur Bestimmung der Form und Ausrichtung eines Körpers mittels eines rechnergestützten Navigationssystems den Schritt des Erzeugens einer Serie von Darstellungen des Körpers aus wenigstens zwei Perspektiven. Ein zusammengesetztes Hüllvolumen wird aus der Serie von Darstellungen bestimmt und die Form des Körpers wird aus dem zusammengesetzten Hüllvolumen bestimmt. Die Position und Ausrichtung des Körpers werden aus der Form des Körpers und der Serie von Darstellungen des Körpers bestimmt.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
1 ist eine schematische Darstellung eines Ausführungsbeispiels der vorliegenden Erfindung; -
2a ist eine schematische Ansicht eines weiteren Ausführungsbeispiels der vorliegenden Erfindung; -
2b ist eine schematische Ansicht eines weiteren Ausführungsbeispiels der vorliegenden Erfindung; -
2c ist eine schematische Ansicht eines weiteren Ausführungsbeispiels der vorliegenden Erfindung; -
3 ist ein Flussdiagramm eines Verfahrens zur Bestimmung der Form gemäß einem Ausführungsbeispiel der vorliegenden Erfindung; -
4 ist eine graphische Darstellung des Verfahrens zur Formbestimmung von3 ; -
5 ist eine schematische Ansicht eines weiteren Ausführungsbeispiels der vorliegenden Erfindung; -
6 ist eine schematische Darstellung eines weiteren Ausführungsbeispiels der vorliegenden Erfindung; -
7a ist eine perspektivische Ansicht eines bevorzugten Kalibrierungskörpers; -
7b ist eine Vorderansicht des bevorzugten Kalibrierungskörpers von7a ; -
7c ist eine Seitenansicht des bevorzugten Kalibrierungskörpers von7a ; -
7d ist eine Draufsicht des bevorzugten Kalibrierungskörpers von7a ; -
8 ist ein Flussdiagramm eines Kamerakalibrierungsprozesses; -
9 ist eine schematische Darstellung eines weiteren Ausführungsbeispiels der vorliegenden Erfindung; -
10 ist ein Flussdiagramm eines Verfahrens zur Bestimmung der Form gemäß dem in9 dargestellten Ausführungsbeispiel der vorliegenden Erfindung; und -
11 ist noch ein weiteres Ausführungsbeispiel der vorliegenden Erfindung. - BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSBEISPIELE
-
1 zeigt ein Ausführungsbeispiel eines Formcharakterisierungssystems100 , verwendbar zur Charakterisierung eines Körpers102 , welches einen Navigationsrechner104 , eine Positionsverfolgungseinrichtung106 , eine Vielzahl von Kameras108-1 bis108-M und eine Vielzahl von Hintergründen110-1 bis110-N beinhaltet. Das Formcharakterisierungssystem100 ortet (oder lokalisiert) die Position und Ausrichtung des Körpers102 im Raum bezüglich eines globalen Koordinatensystems112 , welches von dem Navigationsrechner104 aufgestellt ist. Im Besonderen bestimmt das Formcharakterisierungssystem die Position und Ausrichtung der Körperachsen XB 114, YB 116, und ZB118 , welche auf den Körper102 bezogen sind, bezüglich des globalen Koordinatensystems112 , welches vom Navigationsrechner104 aufgestellt ist. Die Position und Ausrichtung der vom Formcharakterisierungssystem100 bestimmten Körperachsen114 ,116 und118 können als lineare Transformationsmatrix ausgedrückt werden, welche Punkte auf dem Körper102 in dem durch die Körperachsen114 ,116 und118 definierten lokalen Koordinatensystem auf Punkte im globalen Koordinatensystem112 abbildet. - Die Positionsverfolgungseinrichtung
106 verfügt über ein lokales Koordinatensystem120 , und jede der Kameras108-1 bis108-M hat ihr eigenes lokales Koordinatensystem122-1 bis122-M . Für die Verwendung als Kameras108-1 bis108-M geeignete Einrichtungen beinhalten bekannte digitale Videokameras, digitale Standbildkameras, Bildaufnahmeeinrichtungen und Vergleichbares. - Die Positionsverfolgungseinrichtung
106 hat eine vorbestimmte und feste Beziehung zum Körper102 und ist bezüglich des rechnergestützten Navigationssystems104 kalibriert. Weiterhin ist die Positionsverfolgungseinrichtung106 in der Lage, die Position eines festen Punktes124 auf der Oberfläche des Körpers102 bezüglich entweder des Koordinatensystems120 der Positionsverfolgungseinrichtung106 oder bezüglich des Koordinatensystems112 des Navigationsrechners104 zu verfolgen, weil die beiden Koordinatensysteme zueinander kalibriert sind. Das Kalibrieren der beiden Koordinatensysteme erlaubt es, jede Messung des Punktes124 auf dem Körper102 bezüglich des Koordinatensystems120 der Positionsverfolgungseinrichtung106 durch eine lineare Transformation auf das Koordinatensystem112 des Navigationsrechners104 abzubilden. - Die Positionsverfolgungseinrichtung
106 kann körperlich getrennt von dem Körper102 sein oder alternativ hierzu kann die Positionsverfolgungseinrichtung106 am Körper102 befestigt oder andernfalls in den Körper102 eingebaut sein und immer noch die erforderlichen Positionsinformationen bereitstellen. Der Punkt124 kann sich an einer festen Position bezüglich der Positionsverfolgungseinrichtung106 befinden oder durch ein unten beschriebenes Kalibrierungsverfahren bestimmt werden. Der Punkt124 kann die Lage eines von der Positionsverfolgungseinrichtung106 verwendeten Strahlers sein, wie unten beschrieben. - Die Positionsverfolgungseinrichtung
106 kann eine von zahlreichen Erfassungseinrichtungen sein, die dem Fachmann bekannt sind.2A zeigt die Verwendung einer exemplarischen Positionsverfolgungseinrichtung200 , welche einen optischen Positionssensor204 verwendet. Die Verfolgung eines Körpers mittels des optischen Positionssensors204 beinhaltet das Platzieren eines Strahlers206 auf dem Körper102 , wobei der Strahler206 eine strahlende (sichtbare oder infrarote) Lichtquelle ist. Es können auch mehrere Strahler206 in bekannten Konfigurationen an dem Körper102 angebracht werden. Der optische Positionssensor206 verwendet einen Lichtsensor208 , der abgestimmt ist, das von der Lichtquelle abgestrahlte Licht zu erfassen und die sich mit dem Körper102 bewegende strahlende Lichtquelle206 zu verfolgen. Eine Leuchtdiode (LED) ist eine typische strahlende Lichtquelle206 und ein ladungsgekoppeltes Bauelement (CCD) ist ein typischer Lichtsensor208 . Das FlashPoint-System der Stryker Corporation (Kalamazoo, Michigan) ist ein Beispiel für die in2a gezeigte optische Verfolgungseinrichtung. -
2b zeigt die Verwendung einer anderen Art optischer Positionsverfolgungseinrichtung210 , welche eine andere Art eines optischen Positionssensors212 benutzt. Die Verfolgung eines Körpers mit dieser alternativen optischen Positionsverfolgungseinrichtung210 beinhaltet die Befestigung eines reflektierenden Körpers (beispielsweise eine Retroreflektors)214 auf dem Körper102 . Eine strahlende Lichtquelle216 ist bezüglich des reflektierenden Körpers214 ausgerichtet, so dass ein von der strahlenden Lichtquelle216 erzeugter Lichtstrahl218 von dem reflektierenden Körper214 so reflektiert wird, dass ein Lichtsensor220 in dem optischen Positionssensor212 ihn daraufhin erfassen und so die Position des sich mit dem Körper102 bewegenden reflektierenden Körpers214 verfolgen kann. Das Motus-System der Peak Performance Technologies, Inc. (Englewood, Coloardo) ist ein Hersteller von Positionsmesseinrichtungen wie in2b gezeigt. -
2c zeigt die Verwendung einer Positionsverfolgungseinrichtung224 , welche an dem Körper102 befestigte Magnete226 verwendet. Die Änderungen in der Richtung und Amplitude des magnetischen Flusses der Magnete226 , wenn sich die Magnete226 mit dem Körper102 bewegen, werden von dem magnetischen Positionssensor228 erfasst und zur Bestimmung der Position der Magnete226 verwendet. Beispiele für Hersteller dieses Typs einer Verfolgungstechnologie sind Polhemus Incorporated aus Colchester, Vermont und Ascension Technology Corporation of Burlington, Vermont. - Obwohl nur ein einziger Punkt
124 auf der Oberfläche des Körpers102 als verfolgt dargestellt ist, um die Beschreibung zu vereinfachen, ist es offensichtlich, dass mehrere Verfolgungspunkte auf dem selben Körper102 verfolgt werden können, wobei jeder einer Positionsverfolgungseinrichtung zugeordnet ist. Tatsächlich können mehrere Verfolgungspunkte nötig sein, um die vollständige Ausrichtung des Körpers102 zu bestimmen. Mehrere Körper102 können auch gleichzeitig durch ein einziges System verfolgt werden. - Wieder Bezug nehmend auf
1 , identifiziert das Formcharakterisierungssystem die Ausrichtung der Achsen XB, YB, und ZB des Körpers102 , welche als Elemente mit den Nummern114 ,116 bzw.118 bezeichnet sind, bezüglich des globalen Koordinatensystems112 , indem es ein Hüllvolumen des Körpers102 näherungsweise ermittelt und die Achsen des Hüllvolumens bestimmt. Insbesondere kann eine interessierende Achse114 ,116 oder118 des Körpers102 durch eine Analyse des näherungsweise ermittelten Hüllvolumens bestimmt werden. Daraus folgt, dass die verbleibenden Achsen senkrecht auf der bestimmten Achse und aufeinander stehen. Falls erforderlich, kann die Ausrichtung der verbleibenden Achsen durch Analyse der Positionsinformationen die von der Verfolgungseinrichtung geliefert werden, und des näherungsweise ermittelten Hüllvolumens genauer bestimmt werden. Ein Punkt124 von besonderem Interesse ist die Spitze126 des Körpers102 . Die Spitze126 kann koaxial mit der interessierenden Achse (beispielsweise der Körperachse XB114 ) oder an irgendeinem anderen, nicht auf der zu bestimmenden Achse liegenden Punkt lokalisiert sein. - Die Vielzahl von Kameras
108-1 bis108-M , die um den Körper herum angeordnet ist, nimmt Bilder des Körpers aus unterschiedlichen Perspektiven auf. Diese Kameras108-1 bis108-M können entweder Standbildkameras oder Videokameras sein oder eine beliebige Kombination dieser beiden Kameratechnologien. Werden Videokameras verwendet, dann werden einzelne Frames der von der Videokamera erfassten Videodaten als einzelne Bilder verarbeitet. Vorzugsweise nehmen alle Kameras Frames annähernd gleichzeitig auf, so dass die Bilder von verschiedenen Betrachtungspunkten korreliert sind. Die Positionen und Koordinatensysteme122-1 bis122-M der Kameras108-1 bis108-M sind zueinander und zu dem vom Navigationsrechner104 aufgestellten globalen Koordinatensystem112 kalibriert. Ein bevorzugtes Ausführungsbeispiel des Kalibrierungsverfahrens der Kameras wird im Folgenden beschrieben. Bei dem bevorzugten Ausführungsbeispiel sind die Kameras108-1 bis108-M Standard-Videokameras mit Frameaufnahmeeinrichtungen in Desktop-PCs oder Firewire- und USB-basierte Kameras, welche im Stand der Technik wohlbekannt sind. - Feste Hintergründe
110-1 bis110-N sind vorzugsweise um den Körper herum gegenüber den Kameras positioniert. Diese Hintergründe110-1 bis110-N bilden in den Bildern, die von den Kameras108-1 bis108-M aufgenommen werden, eine bekannte Einfassung, die hilft, die Kanten des Körpers102 in dem Bild zu identifizieren. Die Hintergründe110-1 bis110-M können neutral, schwarz, weiß oder in irgendeiner Farbe ausgebildet sein, welche den Kontrast zwischen dem Teil des Bildes, welcher den Hintergrund110-1 bis110-M darstellt, und dem Teil des Bildes, der den Körper102 darstellt, erhöht. Weiterhin können die Hintergründe von hinten beleuchtet sein, um diesen Kontrast weiter zu erhöhen. Es ist möglich, ein Ausführungsbeispiel des Verfahrens der vorliegenden Erfindung ohne feste Hintergründe durchzuführen. Dies ist jedoch wegen der erhöhten Komplexität der Formbestimmung aufgrund der Notwendigkeit, das Hintergrundbild vom Bild des Körpers102 zu subtrahieren, nicht bevorzugt. - Der Navigationsrechner
104 verarbeitet die Bilder, die die Kameras108-1 bis108-M erfasst haben. Der Navigationsrechner104 kann eine Körperdatenbank130 verwenden, welche mit Forminformationen typischer Körper, die der Navigationsrechner104 identifizieren müssen könnte, gefüllt ist. Die Forminformationen eines Körpers in der Körperdatenbank130 bestehen vorzugsweise aus Koordinaten von Knotenpunkten (Vertices) des Körpers, wie sie typischerweise aus einem CAD-System verfügbar sind. Der Navigationsrechner104 entwickelt eine oder mehrere Vergleichsmetriken, indem er das aus der Verarbeitung der Bilder der Kameras108-1 bis108-M näherungsweise ermittelte Hüllvolumen mit den Forminformationen, die in der Körperdatenbank130 gespeichert sind, vergleicht. Stellen sich für die Forminformationen eines der in der Körperdatenbank130 gespeicherten Körper heraus, dass diese stark mit dem näherungsweise ermittelten Hüllvolumen korrelieren, dann kann der Navigationsrechner die Forminformationen für den Körper verwenden, um das näherungsweise ermittelte Hüllvolumen zu verfeinern. Beispielsweise kann der Navigationsrechner eine Ver gleichsmetrik entwickeln, indem er Abstände zwischen jedem Knotenpunkt des näherungsweise ermittelten Hüllvolumens und einem korrespondierenden Knotenpunkt, der als Teil der Forminformationen für einen Körper in der Körperdatenbank130 gespeichert ist, analysiert. Ein Beispiel einer weiteren Vergleichsmetrik, die entwickelt werden könnte, ist das Ergebnis des Analysierens der Eigenschaften der Trägheitsmomentachsen des näherungsweise ermittelten Hüllvolumens mit den Trägheitsmomentachsen eines Körpers in der Körperdatenbank130 . Zusätzliche Vergleichsmetriken sind den Fachleuten bekannt. Ein bevorzugtes Ausführungsbeispiel verwendet eine Vielzahl von Vergleichsmetriken, um den Grad der Korrelation zwischen dem näherungsweise ermittelten Hüllvolumen und einem in der Körperdatenbank130 gespeicherten Körper zu bestimmen. - Es ist nicht notwendig, dass die Kameras
108-1 bis108-M den gesamten Körper aufnehmen. Nur derjenige Teil des Körpers102 , der von Interesse ist, muss von den Kameras108-1 bis108-M aufgenommen werden. Weiterhin sind der Körper102 und die Kameras108-1 bis108-M vorzugsweise bezüglich einander so positioniert, dass das Sichtfeld jeder Kamera näherungsweise die gleichen Teile des Körpers erfasst. -
3 zeigt ein Flussdiagram300 der Schritte, die für eine näherungsweise Ermittlung des Hüllvolumens aus den erfassten Bildern nötig sind. Jedes Bild302-1 bis302-M , welches von einer Kamera108-1 bis108-M aufgenommen wird, wird zunächst in den Blöcken304-1 bis304-M bereinigt. Dies bedeutet, dass das Bild um jede bekannte Unregelmäßigkeit der Linse korrigiert wird, bezüglich der bekannten Brennweite der verwendeten Linse normalisiert wird, an die Auflösung der Kamera angepasst wird, etc. Die Blöcke306-1 bis306-M verarbeiten das bereinigte Bild, welches die Blöcke304-1 bis304-M erzeugt haben, um die Darstellung des Körpers von der Darstellung des Hintergrundes in dem Bild heraus zu lösen. Die Blöcke308-1 bis308-M führen einen Kantenerkennungsvorgang bezüglich des in den Blöcken306-1 bis306-M herausgelösten Körpers durch. Die Blöcke310-1 bis310-M verwenden die von den Blöcken308-1 bis308-M erzeugten Kanteninformationen, um für den Körper eine allgemein Kj-seitige Hüllpyramide anzunähern, wobei 1 <= j <= M. Die auf diese Weise aus jedem der von den Kameras erfassten Bilder301-1 bis301-M errechneten Hüllpyramiden werden in einem Block312 basierend auf der Aufnahmezeit des jeweiligen Bildes und der Lage der Kamera, wie von den Blöcken314-1 bis314-M bereitgestellt, normalisiert. Die Blöcke314-1 bis314-M schneiden weiterhin alle Hüllpyramiden miteinander zu einem Hüllvolumen des Körpers. Ein Block316 kombiniert das näherungsweise ermittelte Hüllvolumen mit der von der Positionsverfolgungseinrichtung gelieferten Lage des Körpers, wie von Block318 bereitgestellt, um die Posi tion und Ausrichtung des Körpers anzunähern. Hat der Navigationsrechner Zugriff auf eine Körperdatenbank130 , dann vergleicht Block316 das Hüllvolumen mit den Forminformationen aller darin enthaltener Körper. Wird in der Körperdatenbank130 ein Körper gefunden, der über Abmessungen und eine Form verfügt, welche innerhalb einer vorherbestimmten Toleranz bezüglich des Hüllvolumens liegen, dann verwendet der Navigationsrechner die Forminformationen für den Körper in der Körperdatenbank, um die Näherung für das Hüllvolumen zu verfeinern. Bei dem bevorzugten Ausführungsbeispiel erfassen die Kameras108 fortwährend (oder so schnell wie die Kameras können) Bilder des Körpers102 , und während der Körper102 gedreht wird, werden Hüllpyramiden von diesen zusätzlichen Bildern mit einem zuvor bestimmten Hüllvolumen geschnitten, um das angenäherte Hüllvolumen und die näherungsweise ermittelte Orientierung des Körpers102 zu verfeinern. -
4 zeigt ein Beispiel einer anfänglichen Näherung eines Hüllvolumens400 des Körpers102 , welche durch Verwendung dreier Kameras108-1 ,108-2 und108-3 erzeugt wurde. Das Hüllvolumen des Körpers102 kann mittels eines beliebigen von einer Vielzahl wohlbekannter und für diese Bestimmung verfügbarer Verfahren ermittelt werden. Abhängig von der Anzahl der Kameras108-1 bis108-M oder der Ansichten einer einzelnen Kamera108-1 , beginnt sich, wie unten beschrieben, die Schnittmenge der kombinierten Hüllvolumina der Form des Körpers102 anzunähern. -
5 zeigt ein weiteres Ausführungsbeispiel des Formcharakterisierungssystems500 , bei dem eine Kamera108 dazu verwendet wird, eine Vielzahl von Bildern des Körpers102 zu erfassen, während sich der Körper102 dreht und durch den Raum bewegt, beispielsweise entlang eines mit Pfeil R502 bezeichneten Pfades. Die Blöcke304 bis318 aus3 können sämtliche Bilder, die die Kamera108 von dem Körper102 erfasst, so verarbeiten, als hätte eine andere Kamera jedes Bild von einem anderen Beobachtungspunkt bezüglich des Körpers102 aufgenommen. -
6 zeigt noch ein weiteres Ausführungsbeispiel des Formcharakterisierungssystems600 , bei dem die Kamera108 gleichzeitig ein Bild des Körpers102 und der Reflektion des Körpers102 in einem Spiegel602 aufnimmt. Bei diesem Ausführungsbeispiel verarbeitet der Navigationsrechner104 das von der Kamera108 erfasste Bild, um das Bild in zwei Bilder aufzuteilen, wobei ein Bild das Bild des Körpers102 enthält und das andere Bild das Bild der Reflektion des Körpers102 in dem Spiegel602 enthält. Im Endeffekt verhält sich der Spiegel602 wie eine zweite, wenngleich virtuelle Kamera. Somit verarbeiten die Blöcke302 bis318 des in3 dargestellten Flussdiagramms300 das Bild der Reflektion des Körpers102 in dem Spiegel602 , als wäre das Bild von einer separaten Kamera erfasst worden. In ähnlicher Weise könnte mehr als ein Spiegel602 verwendet werden. - Ein Ausführungsbeispiel, um die Koordinatensysteme
122-1 bis122-M der Kameras108-1 bis108-M des Formcharakterisierungssystems100 bezüglich einander und bezüglich des Koordinatensystems112 des rechnergestützten Navigationssystems zu kalibrieren, besteht in der Verwendung eines Kalibrierungskörpers mit einer genau bekannten Form.7 zeigt ein Beispiel eines solchen Kalibrierungskörpers700 .7a zeigt eine Vorderansicht des Kalibrierungskörpers700 .7b eine Seitenansicht des Kalibrierungskörpers700 .7c zeigt eine Draufsicht des Kalibrierungskörpers700 . -
8 zeigt ein Flussdiagram800 der zur Kalibrierung der Kameras erforderlichen Schritte. Die Blöcke804-1 bis804-M führen Bereinigung, Herauslösen des Körpers und Kantenerkennen in den von jeder der Kameras gelieferten Bildern802-1 bis802-M durch, wobei jedes Bild802-1 bis802-M ein Bild des Kalibrierungskörpers700 aus einer bekannten Perspektive (zum Beispiel von vorne702 , von der Seite704 und von oben706 ) ist. Die Blöcke806-1 bis806 -M liefern eine Näherung der Position und Ausrichtung jeder Kamera108 und wenden auf den Positions- und Ausrichtungsnäherungen basierende Korrekturen auf die von den Blöcken804-1 bis804-M erzeugten Kanten an. Ein Block808 vergleicht die von den Blöcken806-1 bis806-M korrigierten Kanten mit den bekannten Kanteninformationen von Perspektiven des Kalibrierungskörpers. Befinden sich die korrigierten Kanten innerhalb einer vorgegebenen Toleranz um die bekannten Kanten, dann gelten die Kameras als kalibriert und die von Block806 erzeugten Positions- und Ausrichtungsinformationen können von dem Navigationsrechner104 verwendet werden. Liegen die korrigierten Kanten außerhalb der vorgegebenen Toleranz um die bekannten Kanten, dann wird der Unterschied zwischen den korrigierten Kanten und den bekannten Kanten von einem Block810 berechnet und dem Block806 zur Verbesserung der Näherungen der Position und Ausrichtung jeder Kamera zur Verfügung gestellt. Die Blöcke806 ,808 und810 werden wiederholt, bis jede der Kameras108 kalibriert ist. -
9 zeigt ein weiteres Ausführungsbeispiel des Formcharakterisierungssystems900 . Anstelle der Verwendung von Kameras108-1 bis108-M zur Erfassung von Bildern des Körpers102 vor einem Hintergrund110-1 bis110-N verwendet dieses Ausführungsbeispiel Lichtquellen902-1 bis902-M , die bezüglich der Sensoren904-1 bis904-N positioniert sind. Die Positionen der Lichtquellen902-1 bis902-M und der Sensoren904-1 bis904-N befinden sich in einer vorherbestimmten festen Beziehung zueinander und sind dem Navigationsrechner104 bekannt. Alternativ dazu verfolgt der Navigationsrechner104 die Positionen aller Lichtquellen902-1 bis902-M und aller Sensoren904-1 bis904-N und kann Informationen von den Sensoren so umformen, dass sie äquivalent sind zu Informationen, die von einem System stammen, bei dem die Position der Lichtquellen902-1 bis902-M in einer festen Beziehung zu der Position der Sensoren940-1 bis904-N steht. Zusätzlich verfolgt der Navigationsrechner104 Veränderungen in der Position entweder der Lichtquellen902-1 bis902-M oder der Sensoren904-1 bis904-N . Weiterhin sind die Lichtquellen902-1 bis902-M und die Sensoren904-1 bis904-N bezüglich einander und bezüglich des Körpers102 so positioniert, dass der Körper102 das Licht von jeder der Lichtquellen902-1 bis902-M verdeckt und einen Schatten auf einem der Sensoren904-1 bis904-N verursacht, der kolinear mit der Lichtquelle902-1 bis902-M und dem Körper102 ist. Die Sensoren904-1 bis904-N sind zweidimensionale Erfassungseinrichtungen, die in der Lage sind, die Bereiche, die in dem Schatten906-1 bis906-N des Körpers102 liegen, von denen zu unterscheiden, die dies nicht tun. Jeder der Sensoren904-1 bis904-N liefert Informationen über die in den Schatten906-1 bis906-N liegenden Bereiche an den Navigationsrechner104 . Nur die Schatten906-1 bis906-N desjenigen Teils des Körpers102 , der von Interesse ist, brauchen auf die Sensoren904-1 bis904-N zu fallen. Ein bevorzugter Sensortyp ist eine zweidimensionale Matrix ladungsgekoppelter Bauelemente (CCD). Solch eine CCD-Matrix stellt gewöhnlich ein Bild bereit, welches sich aus Pixeln zusammensetzt, wobei jedes Pixel einem CCD-Element der zweidimensionalen Matrix entspricht. -
10 zeigt ein Flussdiagramm925 der zum näherungsweisen Ermitteln des Hüllvolumens aus den von den Sensoren904-1 bis904-N generierten Bildern verwendeten Schritte. Jedes Bild926-1 bis926-N von jedem der Sensoren904-1 bis904-N wird zuerst von den Blöcken928-1 bis928-N bereinigt. Das bedeutet, dass die Blöcke928-1 bis928-N das Bild um jegliche bekannten Unregelmäßigkeiten der Linse korrigieren, die Schatteninformationen an die Auflösung des Sensors anpassen, etc. Die Blöcke930-1 bis930-N verarbeiten die von den Blöcken928-1 bis928-N erzeugten bereinigten Bilder, um die Teile der Bilder herauszulösen, die den Schlagschatten repräsentieren. Die Blöcke932-1 bis932-N führen einen Kantenerkennungsvorgang bezüglich der von den Blöcken930-1 bis930-N erzeugten Bilder der herausgelösten Schatten durch. Die Blöcke934-1 bis934-N verwenden die von den Blöcken932-1 bis932-N erzeugten Kanteninformationen, um eine allgemein N-seitige Hüllpyramide für den Körper näherungsweise zu ermitteln. Die Hüllpyramiden, die auf diese Weise aus jedem der von den Sensoren erzeugten Bilder926-1 bis926-N berechnet wurden, werden von einem Block936 basierend auf der Zeit der Erfassung dieses Bildes und der Lage der Kamera, wie von den Blöcken938-1 bis938-N bereitgestellt, normalisiert. Der Block936 schneidet dann jede der Hüllpyramiden miteinander zu einem näherungsweisen Hüllvolumen des Körpers. Ein Block940 kombiniert das näherungsweise ermittelte Hüllvolumen mit der von Block942 bereitgestellten Lage des Körpers aus der Positionsverfolgungseinrichtung, um die Position und Ausrichtung des Körpers näherungsweise zu bestimmen. Der Block940 verwendet Forminformationen aus der Körperdatenbank, falls diese verfügbar ist. Wird insbesondere ein Körper in der Körperdatenbank130 gefunden, welcher über Abmessungen und eine Form verfügt, die innerhalb einer vorbestimmten Toleranz bezüglich des Hüllvolumens liegt, dann wird der Navigationsrechner104 die Forminformationen für den Körper in der Körperdatenbank verwenden, um die Näherung des Hüllvolumens zu verfeinern. Bei dem bevorzugten Ausführungsbeispiel erzeugen die Sensoren904-1 bis904-N fortwährend (oder so schnell wie die Sensoren können) Darstellungen der Schatten906-1 bis906-N des Körpers102 , und während der Körper102 gedreht wird, werden Hüllpyramiden von diesen zusätzlichen Darstellungen mit einem zuvor berechneten Hüllvolumen geschnitten, um die Näherung des Hüllvolumens und die Näherung der Ausrichtung des Körpers102 zu verfeinern. -
11 zeigt ein weiteres Ausführungsbeispiel des Formcharakterisierungssystems950 , bei dem ein Sensor904 verwendet wird, um eine Vielzahl von Bildern mit Darstellungen eines Schattens906 des Körpers102 zu erzeugen, während der Körper102 beispielsweise entlang eines Pfades mit der Bezeichnung R502 durch den Raum bewegt wird, während er von einer (1) Lichtquelle902 beleuchtet wird. Die Blöcke928 bis940 in10 können jedes der von dem Sensor904 erzeugten Bilder des Körpers102 so verarbeiten, als wäre jedes Bild von einem anderen Sensor erzeugt worden. - Die schattenaufnehmenden Einrichtungen können mittels eines Körpers von bekannter Form und Größe kalibriert werden. Ein repräsentativer Körper
700 , der zur Kalibrierung verwendet werden kann, ist in7a dargestellt, und die Verwendung dieses Körpers zur Kalibrierung von schattenaufnehmenden Einrichtungen entspricht dem oben beschriebenen Prozess zur Kalibrierung der Kameras, mit dem Unterschied, dass anstatt von Bildern der Kameras108 Bilder der schattenaufnehmenden Einrichtungen906-1 bis906-N verwendet werden. - Die Algorithmen, die zur näherungsweisen Ermittlung der Form des Körpers
102 verwendet werden, können beliebige der wohlbekannten und auf dem Gebiet der Computergraphik verwendeten sein. Solche Algorithmen sind in auf dem Gebiet ver wendeten Publikationen beschrieben wie Computer Graphics. Principles and Practise von James D. Foley, et al (Addison-Wesley, 1990), welches hiermit durch Inbezugnahme einbezogen wird. Ausgehend von der bestimmten Form des Körpers102 kann das System anschließend die Lage der Spitze126 bestimmen. - Werden wenigstens zwei Erfassungseinrichtungen (entweder Kameras
108 oder schattenaufnehmende Einrichtungen904 ) verwendet, dann sind der Strahler124 und das Positionsverfolgungssystem106 nicht erforderlich, weil das Bild des Körpers (oder der Schatten des Körpers) schon einer der mehreren Einrichtungen Informationen über die relative Position des Körpers102 bezüglich der anderen Einrichtungen bereitstellt. Diese Informationen können verwendet werden, um die Position des Körpers102 bezüglich des Koordinatensystems112 des Navigationsrechners104 beispielsweise daraus abzuleiten, dass mehrere homologe Punktepaare in mindestens zwei Kameraansichten des Körpers102 stereographisch bestimmt werden. Dies ist der Fall, da die Position der Erfassungseinrichtungen (entweder108 oder904 ) bezüglich des Koordinatensystems112 des Navigationsrechners104 bekannt ist und während des Betriebes des Formcharakterisierungssystems verfolgt wird und eine lineare Transformation verwendet werden kann, um zwischen den Koordinatensystemen der Erfassungseinrichtung108 oder904 und dem des Navigationsrechners104 abzubilden. - Zusätzlich kann der realistische Eindruck des Körpers
102 , während er auf einem Anzeigemonitor dargestellt wird, weiter verbessert werden, indem Farbgebung und/oder Textur optional mit bekannten Verfahren erschaffen werden. In diesem Fall können eine oder mehrere Lichtquellen128 optional simuliert werden, um die auf einem Computergraphikschirm dargestellte Ansicht des Körpers102 zu schattieren.
Claims (48)
- System zur Bestimmung der Form und Ausrichtung eines Körpers, umfassend: – ein rechnergestütztes Navigationssystem; – eine Erfassungseinrichtung, die in der Lage ist, eine Serie von Darstellungen des Körpers zu erzeugen; – eine Verfolgungseinrichtung, die mit dem Körper in einer festen Beziehung steht, wobei die Verfolgungseinrichtung von dem rechnergestützten Navigationssystem erfasst werden kann, um den Körper relativ zum rechnergestützten Navigationssystem zu lokalisieren; und – wobei das rechnergestützte Navigationssystem eine zentrale Verarbeitungseinheit besitzt, die die Serie von Darstellungen und eine relative Lage des Körpers zum rechnergestützten Navigationssystem verarbeiten kann, um die Form und Ausrichtung des Körpers relativ zur Verfolgungseinrichtung zu bestimmen.
- System gemäß Anspruch 1, wobei die Erfassungseinrichtung mehrere digitale Kameras beinhaltet und jede Darstellung ein von der Kamera erfasstes Bild ist.
- System gemäß Anspruch 2, wobei die Erfassungseinrichtung eine Videokamera ist und die Darstellung ein von der Videokamera erfasster Video-Frame ist.
- System gemäß Anspruch 1, wobei die Erfassungseinrichtung den vom Körper geworfenen Schatten bestimmt und die Darstellung ein Bild des Schattens ist.
- System gemäß Anspruch 2, wobei das System darüber hinaus einen festen Hintergrund beinhaltet.
- System gemäß Anspruch 1, wobei die Verfolgungseinrichtung ein optisches Verfolgungssystem ist.
- System gemäß Anspruch 6, wobei die Verfolgungseinrichtung einen aktiven Strahler beinhaltet, der dem Körper zugeordnet ist.
- System gemäß Anspruch 6, wobei die Verfolgungseinrichtung Leuchtdioden beinhaltet.
- System gemäß Anspruch 1, wobei die Verfolgungseinrichtung eine nichtoptische Verfolgungseinrichtung ist.
- System gemäß Anspruch 9, wobei die Verfolgungseinrichtung eine magnetische Verfolgungseinrichtung ist.
- System gemäß Anspruch 1, wobei die Verfolgungseinrichtung fest am Körper befestigt ist.
- System gemäß Anspruch 1, wobei die Verfolgungseinrichtung in den Körper eingebaut ist.
- System gemäß Anspruch 1, wobei die Erfassungseinrichtung eine einzelne Kamera ist, welche mehrere Bilder erfasst, während der Körper relativ zur Kamera bewegt wird, und jede Darstellungen ein von der Kamera erfasstes Bild ist.
- System gemäß Anspruch 4, wobei die Erfassungseinrichtung eine Matrix von ladungsgekoppelten Bauelementen ist, welche die Bewegung des vom Körper geworfenen Schattens bestimmt, während der Körper relativ zur Erfassungseinrichtung bewegt wird.
- System gemäß Anspruch 1, wobei das rechnergestützte Navigationssystem basierend auf der ermittelten Form und Ausrichtung des Körpers die Position eines charakteristischen Punktes auf dem Körper verfolgt.
- System gemäß Anspruch 1, wobei der Navigationsrechner eine Näherung der Form des Körpers mit einem Modell des Körpers, welches aus einer Vielzahl von Modellen, die in dem Navigationsrechner gespeichert sind, ausgewählt ist, vergleicht.
- System zur Bestimmung der Form und Ausrichtung eines Körpers, umfassend: – ein rechnergestütztes Navigationssystem; – eine Erfassungseinrichtung, die in der Lage ist, eine Serie von Darstellungen des Körpers basierend auf einer relativen Bewegung zwischen dem Körper und der Erfassungseinrichtung zu erzeugen; – einen Strahler, der mit dem Körper in einer festen Beziehung steht, wobei der Strahler in der Lage ist, vom rechnergestützten Navigationssystem erfasst zu werden, um den Körper relativ zum rechnergestützten Navigationssystem zu lokalisieren; und – wobei das rechnergestützte Navigationssystem eine zentrale Verarbeitungseinheit besitzt, welche die Serie von Bildern und eine relative Lage des Körpers zum rechnergestützten Navigationssystem verarbeiten kann, um die Form und Ausrichtung des Körpers relativ zum Strahler zu bestimmen.
- System gemäß Anspruch 17, wobei die Erfassungseinrichtung mehrere digitale Videokameras beinhaltet.
- System gemäß Anspruch 18, wobei das System darüber hinaus einen festen Hintergrund beinhaltet.
- System gemäß Anspruch 17, wobei die Verfolgungseinrichtung ein optisches Verfolgungssystem ist.
- System gemäß Anspruch 20, wobei die Verfolgungseinrichtung einen aktiven Strahler beinhaltet, der dem Körper zugeordnet ist.
- System gemäß Anspruch 20, wobei die Verfolgungseinrichtung Leuchtdioden beinhaltet.
- System gemäß Anspruch 17, wobei die Verfolgungseinrichtung eine nichtoptische Verfolgungseinrichtung ist.
- System gemäß Anspruch 23, wobei die Verfolgungseinrichtung eine magnetische Verfolgungseinrichtung ist.
- System gemäß Anspruch 17, wobei die Verfolgungseinrichtung fest am Körper befestigt ist.
- System gemäß Anspruch 17, wobei die Verfolgungseinrichtung in den Körper eingebaut ist.
- System gemäß Anspruch 17, wobei die Erfassungseinrichtung eine einzelne Kamera ist und jede Darstellung ein von der Kamera erfasstes Bild des Körpers ist.
- System gemäß Anspruch 17, wobei die Erfassungseinrichtung einen von dem Körper geworfenen Schatten bestimmt.
- System gemäß Anspruch 1, wobei das rechnergestützte Navigationssystem basierend auf der ermittelten Form und Ausrichtung des Körpers die Position eines charakteristischen Punktes auf dem Körper verfolgt.
- System gemäß Anspruch 17, wobei der Navigationsrechner eine Näherung der Form des Körpers mit einem Modell des Körpers, welches aus einer Vielzahl von Modellen, die in dem Navigationsrechner gespeichert sind, ausgewählt ist, vergleicht.
- Verfahren zur Bestimmung der Form eines Körpers mittels eines rechnergestützten Navigationssystems, wobei das Verfahren folgende Schritte umfasst: – Erzeugen einer Serie von Darstellungen des Körpers; – Bestimmen eines zusammengesetzten Hüllvolumens des Körpers aus der Serie von Darstellungen; – Bestimmen der Form des Körpers aus dem zusammengesetzten Hüllvolumen; – Bestimmen einer Position und einer Ausrichtung des Körpers mittels einer dem Körper zugeordneten Verfolgungseinrichtung, die mit dem rechnergestützten Navigationssystem kommuniziert.
- Verfahren von Anspruch 31, wobei das Verfahren das Kalibrieren des Körpers bezüglich des rechnergestützten Navigationssystems beinhaltet, so dass das rechnergestützte Navigationssystem sowohl die Position als auch die Ausrichtung des Körpers verfolgen kann.
- Verfahren von Anspruch 31, wobei der Erzeugungsschritt mittels einer Videokamera durchgeführt wird und jede Darstellung ein Video-Frame von einer Videokamera ist.
- Verfahren von Anspruch 31, wobei der Erzeugungsschritt durch Bestimmen des Schattens, welchen der Körper wirft, durchgeführt wird und jede Darstellung ein Bild des Schattens ist.
- Verfahren von Anspruch 31, wobei die Verfolgungseinrichtung eine optische Verfolgungseinrichtung ist.
- Verfahren von Anspruch 31, wobei die Verfolgungseinrichtung einen dem Körper zugeordneten aktiven Strahler beinhaltet.
- Verfahren von Anspruch 35, wobei die Verfolgungseinrichtung Leuchtdioden beinhaltet.
- Verfahren von Anspruch 31, wobei die Verfolgungseinrichtung eine nichtoptische Verfolgungseinrichtung ist.
- Verfahren von Anspruch 38, wobei die Verfolgungseinrichtung eine magnetische Verfolgungseinrichtung ist.
- Verfahren von Anspruch 31, wobei die Verfolgungseinrichtung fest am Körper befestigt ist.
- Verfahren von Anspruch 31, wobei die Verfolgungseinrichtung in den Körper eingebaut ist.
- Verfahren von Anspruch 31, wobei der Erzeugungsschritt mittels einer einzelnen Kamera, die mehrere Bilder erfasst, während der Körper relativ zur Kamera bewegt wird, durchgeführt wird.
- System von Anspruch 31, wobei das rechnergestützte Navigationssystem basierend auf der ermittelten Form und Ausrichtung des Körpers die Position eines charakteristischen Punktes auf dem Körper verfolgt.
- System von Anspruch 31, wobei der Bestimmungsschritt ein Vergleichen einer Näherung der Form des Körpers mit einem Modell des Körpers, welches aus einer Vielzahl von Modellen, welche in dem Navigationsrechner gespeichert sind, ausgewählt ist, beinhaltet.
- Verfahren zur Bestimmung der Form und Ausrichtung eines Körpers mittels eines rechnergestützten Navigationssystems, wobei das Verfahren folgende Schritte umfasst: – Erzeugen einer Serie von Darstellungen des Körpers aus wenigstens zwei Perspektiven; – Bestimmen eines zusammengesetzten Hüllvolumens des Körpers aus der Serie von Darstellungen; – Bestimmen der Form des Körpers aus dem zusammengesetzten Hüllvolumen; und – Bestimmen der Position und Ausrichtung des Körpers aus der Form des Körpers und der Serie von Darstellungen des Körpers.
- Verfahren von Anspruch 39, wobei der Erzeugungsschritt mittels wenigstens zweier Videokameras durchgeführt wird und jede Darstellung ein Video-Frame von jeder Videokamera ist.
- Verfahren von Anspruch 39, wobei der Erzeugungsschritt durch Bestimmen wenigstens zweier Schatten, die von dem Körper geworfen werden, durchgeführt wird und jede Darstellung ein Bild des Schattens ist.
- System von Anspruch 39, wobei der Erzeugungsschritt ein Vergleichen einer Näherung der Form des Körpers mit einem Modell des Körpers, welches aus einer Mehrzahl von Modellen, welche in dem Navigationsrechner gespeichert sind, ausgewählt ist, beinhaltet.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/050,920 | 2005-02-04 | ||
US11/050,920 US7623250B2 (en) | 2005-02-04 | 2005-02-04 | Enhanced shape characterization device and method |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102006005036A1 true DE102006005036A1 (de) | 2006-09-07 |
DE102006005036B4 DE102006005036B4 (de) | 2023-05-25 |
Family
ID=36848288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102006005036.3A Active DE102006005036B4 (de) | 2005-02-04 | 2006-02-03 | Vorrichtung und Verfahren zur verbesserten Formcharakterisierung |
Country Status (3)
Country | Link |
---|---|
US (1) | US7623250B2 (de) |
JP (1) | JP2006258798A (de) |
DE (1) | DE102006005036B4 (de) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8482743B2 (en) * | 2004-11-01 | 2013-07-09 | Cognitens Ltd. | Method and system for optical edge measurement |
JP4327754B2 (ja) * | 2005-03-16 | 2009-09-09 | 富士フイルム株式会社 | 画像一覧生成装置および方法並びにプログラム |
AU2006295455A1 (en) * | 2005-09-22 | 2007-04-05 | 3M Innovative Properties Company | Artifact mitigation in three-dimensional imaging |
US9439622B2 (en) | 2012-05-22 | 2016-09-13 | Covidien Lp | Surgical navigation system |
US8750568B2 (en) | 2012-05-22 | 2014-06-10 | Covidien Lp | System and method for conformal ablation planning |
US9439627B2 (en) | 2012-05-22 | 2016-09-13 | Covidien Lp | Planning system and navigation system for an ablation procedure |
US9439623B2 (en) | 2012-05-22 | 2016-09-13 | Covidien Lp | Surgical planning system and navigation system |
US9498182B2 (en) | 2012-05-22 | 2016-11-22 | Covidien Lp | Systems and methods for planning and navigation |
US9161799B2 (en) | 2013-01-28 | 2015-10-20 | Warsaw Orthopedic, Inc. | Surgical implant system and method |
US9830424B2 (en) | 2013-09-18 | 2017-11-28 | Hill-Rom Services, Inc. | Bed/room/patient association systems and methods |
EP3108266B1 (de) | 2014-01-13 | 2020-03-18 | Brainlab AG | Bestimmung und kompensation von verfolgungsungenauigkeiten |
US9950194B2 (en) | 2014-09-09 | 2018-04-24 | Mevion Medical Systems, Inc. | Patient positioning system |
GB2559090B (en) | 2015-11-03 | 2020-10-07 | Synaptive Medical Barbados Inc | Dual zoom and dual field-of-view microscope |
DE102016205469A1 (de) * | 2016-04-01 | 2017-10-05 | Wobben Properties Gmbh | Messsystem zur Vermessung einer Oberfläche |
EP4186458A1 (de) | 2016-05-23 | 2023-05-31 | MAKO Surgical Corp. | System zur verfolgung eines physischen objekts |
DE102019004235B4 (de) | 2018-07-16 | 2024-01-18 | Mako Surgical Corp. | System und verfahren zur bildbasierten registrierung und kalibrierung |
CN112566581B (zh) | 2018-08-10 | 2024-03-19 | 柯惠有限合伙公司 | 用于消融可视化的系统 |
US11911325B2 (en) | 2019-02-26 | 2024-02-27 | Hill-Rom Services, Inc. | Bed interface for manual location |
JP7297882B2 (ja) * | 2019-05-16 | 2023-06-26 | マクセル株式会社 | 画像処理装置および画像処理方法 |
Family Cites Families (110)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB1489334A (en) | 1973-10-19 | 1977-10-19 | Nat Res Dev | Surgical splints and materials therefor |
DE2936259A1 (de) | 1979-09-07 | 1981-03-19 | Siemens AG, 1000 Berlin und 8000 München | Vorrichtung zum punktieren von koerperinternen organen, gefaessen o.dgl. |
DE2939044A1 (de) | 1979-09-27 | 1981-04-09 | Ibm Deutschland Gmbh, 7000 Stuttgart | Einrichtung fuer elektronenstrahllithographie |
DE2940005A1 (de) | 1979-10-03 | 1981-04-16 | Philips Patentverwaltung Gmbh, 2000 Hamburg | Verfahren und vorrichtung zur schichtweisen darstellung eines dreidimensionalen objektes |
DE2941395A1 (de) | 1979-10-12 | 1981-04-23 | Philips Patentverwaltung Gmbh, 2000 Hamburg | Vorrichtung zur erzeugung von schichtbildern aus vielfachperspektivbildern mit unterschiedlichem ueberlagerungsgrad |
JPS5786368A (en) * | 1980-11-19 | 1982-05-29 | Hitachi Medical Corp | Body contour display device for radiotherapy plan |
US4567896A (en) | 1984-01-20 | 1986-02-04 | Elscint, Inc. | Method and apparatus for calibrating a biopsy attachment for ultrasonic imaging apparatus |
DE3500605A1 (de) | 1985-01-10 | 1986-07-10 | Markus Dr. 5300 Bonn Hansen | Vorrichtung zur messung der positionen und bewegungen des unterkiefers relativ zum oberkiefer |
US4722056A (en) | 1986-02-18 | 1988-01-26 | Trustees Of Dartmouth College | Reference display systems for superimposing a tomagraphic image onto the focal plane of an operating microscope |
US4757379A (en) | 1986-04-14 | 1988-07-12 | Contour Dynamics | Apparatus and method for acquisition of 3D images |
US4873651A (en) | 1987-04-21 | 1989-10-10 | Case Western Reserve University | Method and apparatus for reconstructing three-dimensional surfaces from two-dimensional images |
DE3717871C3 (de) | 1987-05-27 | 1995-05-04 | Georg Prof Dr Schloendorff | Verfahren und Vorrichtung zum reproduzierbaren optischen Darstellen eines chirururgischen Eingriffes |
US4836778A (en) | 1987-05-26 | 1989-06-06 | Vexcel Corporation | Mandibular motion monitoring system |
US5207681A (en) | 1987-10-26 | 1993-05-04 | Neurodynamics, Inc. | Drill guide apparatus for perpendicular perforation of the cranium |
US4908656A (en) | 1988-01-21 | 1990-03-13 | Nikon Corporation | Method of dimension measurement for a pattern formed by exposure apparatus, and method for setting exposure conditions and for inspecting exposure precision |
US5251127A (en) | 1988-02-01 | 1993-10-05 | Faro Medical Technologies Inc. | Computer-aided surgery apparatus |
EP0326768A3 (de) | 1988-02-01 | 1991-01-23 | Faro Medical Technologies Inc. | Computerunterstütze chirurgische Vorrichtung |
US5050608A (en) | 1988-07-12 | 1991-09-24 | Medirand, Inc. | System for indicating a position to be operated in a patient's body |
JP2702183B2 (ja) | 1988-11-04 | 1998-01-21 | 富士通株式会社 | 半導体製造装置 |
US5422491A (en) | 1988-11-04 | 1995-06-06 | Fujitsu Limited | Mask and charged particle beam exposure method using the mask |
US5197476A (en) | 1989-03-16 | 1993-03-30 | Christopher Nowacki | Locating target in human body |
JP2931983B2 (ja) | 1989-06-30 | 1999-08-09 | ジーイー横河メディカルシステム株式会社 | 放射線治療システム |
ES2085885T3 (es) | 1989-11-08 | 1996-06-16 | George S Allen | Brazo mecanico para sistema interactivo de cirugia dirigido por imagenes. |
US5222499A (en) | 1989-11-15 | 1993-06-29 | Allen George S | Method and apparatus for imaging the anatomy |
US5172331A (en) | 1989-12-18 | 1992-12-15 | Fujitsu Limited | Apparatus and method for effecting exposure of sample to charged particle beam |
US4972836A (en) | 1989-12-18 | 1990-11-27 | General Electric Company | Motion detector for high-resolution magnetic resonance imaging |
US5086401A (en) | 1990-05-11 | 1992-02-04 | International Business Machines Corporation | Image-directed robotic system for precise robotic surgery including redundant consistency checking |
US5198877A (en) | 1990-10-15 | 1993-03-30 | Pixsys, Inc. | Method and apparatus for three-dimensional non-contact shape sensing |
ATE405223T1 (de) | 1990-10-19 | 2008-09-15 | Univ St Louis | System zur lokalisierung einer chirurgischen sonde relativ zum kopf |
JP3112025B2 (ja) | 1990-10-26 | 2000-11-27 | 株式会社日立製作所 | 生体計測装置 |
US6006126A (en) * | 1991-01-28 | 1999-12-21 | Cosman; Eric R. | System and method for stereotactic registration of image scan data |
US6405072B1 (en) * | 1991-01-28 | 2002-06-11 | Sherwood Services Ag | Apparatus and method for determining a location of an anatomical target with reference to a medical apparatus |
US5662111A (en) | 1991-01-28 | 1997-09-02 | Cosman; Eric R. | Process of stereotactic optical navigation |
US6167295A (en) | 1991-01-28 | 2000-12-26 | Radionics, Inc. | Optical and computer graphic stereotactic localizer |
US5155435A (en) | 1991-08-08 | 1992-10-13 | The Regents Of The University Of California | Method and apparatus for performing interventional medical procedures using MR imaging of interventional device superimposed with ghost patient image |
EP0535552B1 (de) | 1991-10-04 | 1997-01-02 | Carl Zeiss | Stirnreif für eine Mess-, Beleuchtungs- oder Beobachtungseinheit |
US5276337A (en) | 1991-10-31 | 1994-01-04 | International Business Machines Corporation | Accuracy of alignment and O/L measurement systems by means of tunable source and handling of signal |
US5230623A (en) | 1991-12-10 | 1993-07-27 | Radionics, Inc. | Operating pointer with interactive computergraphics |
US5389101A (en) | 1992-04-21 | 1995-02-14 | University Of Utah | Apparatus and method for photogrammetric surgical localization |
EP0574686A2 (de) | 1992-05-13 | 1993-12-22 | The Spectranetics Corporation | Lineares Abtastverfahren und Vorrichtung zur Energieeinkopplung in ein optische Faserbündel |
US5365996A (en) | 1992-06-10 | 1994-11-22 | Amei Technologies Inc. | Method and apparatus for making customized fixation devices |
FR2694881B1 (fr) | 1992-07-31 | 1996-09-06 | Univ Joseph Fourier | Procede de determination de la position d'un organe. |
US5732703A (en) | 1992-11-30 | 1998-03-31 | The Cleveland Clinic Foundation | Stereotaxy wand and tool guide |
US5309913A (en) | 1992-11-30 | 1994-05-10 | The Cleveland Clinic Foundation | Frameless stereotaxy system |
US5517990A (en) | 1992-11-30 | 1996-05-21 | The Cleveland Clinic Foundation | Stereotaxy wand and tool guide |
FR2699271B1 (fr) | 1992-12-15 | 1995-03-17 | Univ Joseph Fourier | Procédé de détermination du point d'ancrage fémoral d'un ligament croisé de genou. |
DE69432089T2 (de) | 1993-03-01 | 2004-02-12 | Kabushiki Kaisha Toshiba, Kawasaki | System zur Verarbeitung von medizinischen Daten zur Unterstützung der Diagnose |
US5787886A (en) | 1993-03-19 | 1998-08-04 | Compass International Incorporated | Magnetic field digitizer for stereotatic surgery |
ZA942812B (en) | 1993-04-22 | 1995-11-22 | Pixsys Inc | System for locating the relative positions of objects in three dimensional space |
EP0997109B1 (de) | 1993-04-26 | 2003-06-18 | ST. Louis University | Anzeige der Lage einer chirurgischen Sonde |
US5394875A (en) | 1993-10-21 | 1995-03-07 | Lewis; Judith T. | Automatic ultrasonic localization of targets implanted in a portion of the anatomy |
US5876325A (en) | 1993-11-02 | 1999-03-02 | Olympus Optical Co., Ltd. | Surgical manipulation system |
US5549616A (en) | 1993-11-02 | 1996-08-27 | Loma Linda University Medical Center | Vacuum-assisted stereotactic fixation system with patient-activated switch |
US5748696A (en) | 1993-11-26 | 1998-05-05 | Kabushiki Kaisha Toshiba | Radiation computed tomography apparatus |
US5512946A (en) | 1994-01-31 | 1996-04-30 | Hitachi Denshi Kabushiki Kaisha | Digital video signal processing device and TV camera device arranged to use it |
DE4415944C2 (de) * | 1994-05-05 | 1998-07-09 | Karl Stefan Riener | Elektronische Zielscheibe und Verfahren zu dessen Auswertung |
DE4416229A1 (de) | 1994-05-07 | 1996-01-11 | Zeiss Carl Fa | Verfahren zum Betrieb eines Operationsmikroskopes |
DE4417944A1 (de) | 1994-05-21 | 1995-11-23 | Zeiss Carl Fa | Verfahren zum Korrelieren verschiedener Koordinatensysteme in der rechnergestützten, stereotaktischen Chirurgie |
EP0951874A3 (de) | 1994-09-15 | 2000-06-14 | Visualization Technology, Inc. | Positions- und Bilderfassung mittels einer an einem Patientenkopf angebrachten Referenzeinheit zur Anwendung im medizinischen Gebiet |
DE69530355D1 (de) | 1994-11-28 | 2003-05-22 | Ohio State University Columbus | Vorrichtung zur medizinischen Intervention |
JP2611188B2 (ja) | 1994-11-30 | 1997-05-21 | 工業技術院長 | 生体計測用基準点設定方法および装置 |
US5682890A (en) | 1995-01-26 | 1997-11-04 | Picker International, Inc. | Magnetic resonance stereotactic surgery with exoskeleton tissue stabilization |
JP3539645B2 (ja) | 1995-02-16 | 2004-07-07 | 株式会社日立製作所 | 遠隔手術支援装置 |
US5591207A (en) | 1995-03-30 | 1997-01-07 | Linvatec Corporation | Driving system for inserting threaded suture anchors |
US5617857A (en) | 1995-06-06 | 1997-04-08 | Image Guided Technologies, Inc. | Imaging system having interactive medical instruments and methods |
US5772594A (en) | 1995-10-17 | 1998-06-30 | Barrick; Earl F. | Fluoroscopic image guided orthopaedic surgery system with intraoperative registration |
WO1998009253A1 (fr) | 1996-08-29 | 1998-03-05 | Sanyo Electric Co., Ltd. | Procede permettant de fournir des informations sur une texture, procede d'extraction d'objet, procede de production de modeles tridimensionnels et appareillage associe a ceux-ci |
US6175415B1 (en) | 1997-02-19 | 2001-01-16 | United Technologies Corporation | Optical profile sensor |
JP3008875B2 (ja) | 1997-02-25 | 2000-02-14 | 日本電気株式会社 | 被写体抽出装置 |
DE29704393U1 (de) | 1997-03-11 | 1997-07-17 | Aesculap Ag, 78532 Tuttlingen | Vorrichtung zur präoperativen Bestimmung der Positionsdaten von Endoprothesenteilen |
US5921992A (en) | 1997-04-11 | 1999-07-13 | Radionics, Inc. | Method and system for frameless tool calibration |
US6512844B2 (en) | 1997-05-30 | 2003-01-28 | California Institute Of Technology | 3D rendering |
US5878103A (en) | 1997-06-30 | 1999-03-02 | Siemens Corporate Research, Inc. | Adaptive detector masking for speed-up of cone beam reconstruction |
EP0929267B1 (de) | 1997-07-03 | 2008-09-10 | Koninklijke Philips Electronics N.V. | Bildgesteuertes chirurgisches system |
IL121267A0 (en) | 1997-07-09 | 1998-01-04 | Yeda Res & Dev | Method and device for determining the profile of an object |
US6081336A (en) | 1997-09-26 | 2000-06-27 | Picker International, Inc. | Microscope calibrator |
US6021343A (en) | 1997-11-20 | 2000-02-01 | Surgical Navigation Technologies | Image guided awl/tap/screwdriver |
US6317139B1 (en) | 1998-03-25 | 2001-11-13 | Lance Williams | Method and apparatus for rendering 3-D surfaces from 2-D filtered silhouettes |
US6301498B1 (en) | 1998-04-17 | 2001-10-09 | Cornell Research Foundation, Inc. | Method of determining carotid artery stenosis using X-ray imagery |
US6563499B1 (en) | 1998-07-20 | 2003-05-13 | Geometrix, Inc. | Method and apparatus for generating a 3D region from a surrounding imagery |
US6226003B1 (en) | 1998-08-11 | 2001-05-01 | Silicon Graphics, Inc. | Method for rendering silhouette and true edges of 3-D line drawings with occlusion |
DE19842798C1 (de) | 1998-09-18 | 2000-05-04 | Howmedica Leibinger Gmbh & Co | Kalibriervorrichtung |
US6973202B2 (en) | 1998-10-23 | 2005-12-06 | Varian Medical Systems Technologies, Inc. | Single-camera tracking of an object |
IL126809A (en) | 1998-10-29 | 2001-08-26 | Sarin Technologies Ltd | Apparatus and method of examining the shape of gemstones |
US6285902B1 (en) | 1999-02-10 | 2001-09-04 | Surgical Insights, Inc. | Computer assisted targeting device for use in orthopaedic surgery |
US6590669B1 (en) * | 1999-04-30 | 2003-07-08 | Christoph Wagner | Method for optically detecting the shape of objects |
JP2001061861A (ja) * | 1999-06-28 | 2001-03-13 | Siemens Ag | 画像撮影手段を備えたシステムおよび医用ワークステーション |
AUPQ212499A0 (en) | 1999-08-10 | 1999-09-02 | Ajax Cooke Pty Ltd | Item recognition method and apparatus |
EP1135748A1 (de) | 1999-09-30 | 2001-09-26 | Koninklijke Philips Electronics N.V. | Verfahren und anordnung der bildverarbeitung zur verfolgung eines bewegten objektes in einer bildsequenz |
US6288785B1 (en) * | 1999-10-28 | 2001-09-11 | Northern Digital, Inc. | System for determining spatial position and/or orientation of one or more objects |
US6535219B1 (en) | 2000-03-30 | 2003-03-18 | Intel Corporation | Method and apparatus to display objects in a computer system |
JP3433204B2 (ja) | 2000-04-27 | 2003-08-04 | 株式会社東北テクノアーチ | 3次元モデル構成装置 |
JP2002031507A (ja) * | 2000-07-14 | 2002-01-31 | Tokyo Denki Univ | 三次元画像計測装置 |
JP2002098521A (ja) * | 2000-09-26 | 2002-04-05 | Minolta Co Ltd | 3次元形状データ生成装置 |
CA2438005A1 (en) | 2001-02-07 | 2002-08-15 | Synthes (U.S.A.) | Device and method for intraoperative navigation |
EP1238684B1 (de) | 2001-03-05 | 2004-03-17 | BrainLAB AG | Verfahren zur Erstellung bzw. Aktualisierung eines Bestrahlungsplans |
US6455835B1 (en) | 2001-04-04 | 2002-09-24 | International Business Machines Corporation | System, method, and program product for acquiring accurate object silhouettes for shape recovery |
US20040175034A1 (en) | 2001-06-20 | 2004-09-09 | Rafael Wiemker | Method for segmentation of digital images |
JP4584575B2 (ja) | 2001-07-06 | 2010-11-24 | クゥアルコム・インコーポレイテッド | 3d画像に表示される3dサーフェイスとインタラクトする画像処理方法 |
JP2003065736A (ja) | 2001-08-24 | 2003-03-05 | Sanyo Electric Co Ltd | 3次元モデリング装置 |
US7349922B2 (en) * | 2001-11-14 | 2008-03-25 | Yeda Research And Development Co. Ltd. | Method and apparatus for data clustering including segmentation and boundary detection |
EP1340470B1 (de) | 2002-03-01 | 2004-09-15 | BrainLAB AG | Operationslampe mit Kamerasystem zur 3D-Referenzierung |
ES2225680T3 (es) | 2002-04-16 | 2005-03-16 | Brainlab Ag | Marcador para un instrumento y procedimiento de localizacion de un marcador. |
DE60225792T2 (de) | 2002-07-25 | 2009-04-16 | Stryker Leibinger Gmbh & Co. Kg | Korrektur von geometrischen Verzerrungen und Intensitätsverzerrungen in MR-Daten |
US6658080B1 (en) | 2002-08-05 | 2003-12-02 | Voxar Limited | Displaying image data using automatic presets |
JP3941631B2 (ja) * | 2002-08-16 | 2007-07-04 | 富士ゼロックス株式会社 | 三次元撮像装置および方法 |
WO2004021759A1 (en) * | 2002-08-29 | 2004-03-11 | Cyberoptics Corporation | Multiple source alignment sensor with improved optics |
DE10254942B3 (de) * | 2002-11-25 | 2004-08-12 | Siemens Ag | Verfahren zur automatischen Ermittlung der Koordinaten von Abbildern von Marken in einem Volumendatensatz und medizinische Vorrichtung |
US7218763B2 (en) | 2003-02-27 | 2007-05-15 | Eastman Kodak Company | Method for automated window-level settings for magnetic resonance images |
US20060036148A1 (en) * | 2004-07-23 | 2006-02-16 | Grimm James E | Navigated surgical sizing guide |
-
2005
- 2005-02-04 US US11/050,920 patent/US7623250B2/en active Active
-
2006
- 2006-02-03 DE DE102006005036.3A patent/DE102006005036B4/de active Active
- 2006-02-06 JP JP2006028557A patent/JP2006258798A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
US20060241404A1 (en) | 2006-10-26 |
US7623250B2 (en) | 2009-11-24 |
DE102006005036B4 (de) | 2023-05-25 |
JP2006258798A (ja) | 2006-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102006005036B4 (de) | Vorrichtung und Verfahren zur verbesserten Formcharakterisierung | |
EP3330922B1 (de) | Verfahren und vorrichtung zum darstellen eines objektes | |
DE102015101710B4 (de) | Verfahren zum Kalibrieren eines beweglichen Greiforgans unter Verwendung einer entfernten Digitalkamera | |
DE69819363T2 (de) | System zur bestimmung der räumlichen position und orientierung eines körpers | |
DE102012108567B4 (de) | Verfahren zum Erlangen von Tiefeninformationen unter Verwendung eines Lichtmusters | |
EP2245986B1 (de) | Pyramidenförmige Röntgenmarkervorrichtung | |
EP3005292B1 (de) | 3d-aufnahmevorrichtung, verfahren zur erstellung eines 3d-bildes und verfahren zur einrichtung einer 3d-aufnahmevorrichtung | |
EP2886043A1 (de) | Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten | |
DE102006055758B4 (de) | Verfahren zur Kalibrierung von Kameras und Projektoren | |
CN109215063A (zh) | 一种事件触发相机与三维激光雷达的配准方法 | |
DE60133026T2 (de) | Genaues ausrichten von bildern in digitalen abbildungssystemen durch anpassen von punkten in den bildern | |
EP1420264A1 (de) | Verfahren und Vorrichtung zur Kalibrierung eines Messsystems | |
DE102018129143A1 (de) | Variabler messobjektabhängiger Kameraaufbau und Kalibrierung davon | |
CH693619A5 (de) | Bilddarstellende Einrichtung und Verfahren zum Bilddarstellen. | |
DE102012102915A1 (de) | Verfahren und Vorrichtung zur optischen Bestimmung einer Position und/oder Orientierung eines Objekts im Raum | |
EP2728374A1 (de) | Erfindung betreffend die Hand-Auge-Kalibrierung von Kameras, insbesondere Tiefenbildkameras | |
CN109938843B (zh) | 光学跟踪系统及光学跟踪方法 | |
DE212012000054U1 (de) | Geräte, Aufbau, Schaltungen und Systeme zum Beurteilen, Einschätzen und/oder Bestimmen relativer Positionen, Ausrichtungen, Orientierungen und Rotationswinkel eines Teils eines Knochens und zwischen zwei oder mehreren Teilen eines oder mehrerer Knochen | |
DE102018119343A1 (de) | Verfahren zur Kalibrierung von Objekten in einem Referenzkoordinatensystem und Verfahren zum Tracking von Objekten | |
DE102014012693B4 (de) | System und Verfahren sowie Computerprogramm zur Positions-und Lagebestimmung von Objekten | |
DE102014106718B4 (de) | System, welches eine Blickfelddarstellung in einer gegenständlichen Lage in einem veränderbaren Raumwinkelbereich darbietet | |
EP1813911A1 (de) | Positionsbestimmungssystem | |
EP1657678B1 (de) | Videobildunterstützte Patientenregistrierung | |
DE10225077B4 (de) | Objektverfolgeanordnung für medizinische Operationen | |
DE102014110570A1 (de) | Bilderzeugungsapparat und -verfahren mit Kombination von funktionaler Bildgebung und Ultraschallbildgebung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed |
Effective date: 20130131 |
|
R016 | Response to examination communication | ||
R081 | Change of applicant/patentee |
Owner name: STRYKER EUROPEAN OPERATIONS HOLDINGS LLC, KALA, US Free format text: FORMER OWNER: STRYKER EUROPEAN HOLDINGS VI, LLC (N.D. GES. D. STAATES DELAWARE), KALAMAZOO, MICH., US Owner name: STRYKER EUROPEAN OPERATIONS HOLDINGS LLC, KALA, US Free format text: FORMER OWNER: STRYKER LEIBINGER GMBH & CO. KG, 79111 FREIBURG, DE Owner name: STRYKER EUROPEAN HOLDINGS I, LLC (N.D. GES. D., US Free format text: FORMER OWNER: STRYKER LEIBINGER GMBH & CO. KG, 79111 FREIBURG, DE Owner name: STRYKER EUROPEAN HOLDINGS I, LLC (N.D. GES. D., US Free format text: FORMER OWNER: STRYKER EUROPEAN HOLDINGS VI, LLC (N.D. GES. D. STAATES DELAWARE), KALAMAZOO, MICH., US |
|
R082 | Change of representative |
Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE |
|
R081 | Change of applicant/patentee |
Owner name: STRYKER EUROPEAN OPERATIONS HOLDINGS LLC, KALA, US Free format text: FORMER OWNER: STRYKER EUROPEAN HOLDINGS I, LLC (N.D. GES. D. STAATES DELAWARE), KALAMAZOO, MICH., US |
|
R082 | Change of representative |
Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |