DE102006055893A1 - Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung - Google Patents

Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung Download PDF

Info

Publication number
DE102006055893A1
DE102006055893A1 DE102006055893A DE102006055893A DE102006055893A1 DE 102006055893 A1 DE102006055893 A1 DE 102006055893A1 DE 102006055893 A DE102006055893 A DE 102006055893A DE 102006055893 A DE102006055893 A DE 102006055893A DE 102006055893 A1 DE102006055893 A1 DE 102006055893A1
Authority
DE
Germany
Prior art keywords
dimensional
edge
points
model
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102006055893A
Other languages
English (en)
Inventor
Marion Langer
Juri Platonov
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Metaio GmbH
Original Assignee
Metaio GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to DE102006005044A priority Critical patent/DE102006005044B4/de
Application filed by Metaio GmbH filed Critical Metaio GmbH
Priority to DE102006055893A priority patent/DE102006055893A1/de
Priority to US11/668,495 priority patent/US7889193B2/en
Priority to JP2007023037A priority patent/JP4531069B2/ja
Publication of DE102006055893A1 publication Critical patent/DE102006055893A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Erfindungsgemäß wird ein Datenmodell, das bestimmt ist, in einem Verfahren zur optischen Objektverfolgung mit einem Abbild eines realen Objekts überlagert werden, mit folgenden Schritten bestimmt: Es wird ein dreidimensionales CAD-Modell (10) zur Nachbildung des realen Objektes bereitgestellt, nachfolgend werden unterschiedliche synthetische zweidimensionale Ansichten (31-34) des CAD-Modells (10) generiert. Jede generierte Ansicht (31-34) wird einer Kantenextraktion zur Bestimmung wenigstens einer extrahierten Kante (38, 39) in der jeweiligen Ansicht unterzogen, wobei die aus den jeweiligen Ansichten (31-34) extrahierten Kanten (38, 39) zu einem dreidimensionalen Konturmodell (85, 91) umgewandelt werden, das dem zu bestimmenden Datenmodell entspricht. Hierzu werden zusammengehörende Kontursegmente von dreidimensionalen Punkten ermittelt, wobei hierzu ein Algorithmus verwendet wird, anhandreidimensionalen Punkte ermittelt wird. Die Erfindung ermöglicht eine schnelle und effiziente Generierung eines Konturmodells als Datenmodell, das bestimmt ist, mit einem Abbild eines realen Objekts überlagert zu werden.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und ein System zur Bestimmung eines Datenmodells einer virtuellen Information, das bestimmt ist, in einem Verfahren zur Objektverfolgung mit einem Abbild eines realen Objekts überlagert zu werden. Weiterhin betrifft die vorliegende Erfindung ein Verfahren zur Objektverfolgung, insbesondere in einem Augmented Reality System, unter Verwendung eines derart bestimmten Datenmodells. Des weiteren betrifft die Erfindung ein Computerprogrammprodukt, das Softwarecodeabschnitte umfasst zur Durchführung des erfindungsgemäßen Verfahrens.
  • Augmented Reality Systeme erlauben die Überlagerung von Computer-generierten, virtuellen Informationen mit Seheindrücken der realen Umgebung. Hierzu werden die Seheindrücke der realen Welt beispielsweise mittels einer auf dem Kopf des Anwenders getragenen halbdurchlässigen Datenbrille mit virtuellen Informationen vermischt. Die Einblendung der virtuellen Informationen bzw. Objekte kann dabei kontextabhängig, d.h. angepasst und abgeleitet von der jeweiligen betrachteten Umgebung ausgeführt werden. Als virtuelle Information kann grundsätzlich jede Art von Daten wie Texte, Abbildungen etc. verwendet werden. Die reale Umgebung wird beispielsweise mit einer auf dem Kopf des Anwenders getragenen Kamera erfasst.
  • Bei einer Kopfbewegung des Anwenders eines Augmented Reality Systems müssen sämtliche virtuellen Objekte dem sich ändernden Sichtfeld nachgeführt werden. Die reale Umgebung kann eine komplexe Vorrichtung und das erfasste Objekt kann ein markantes Element der Vorrichtung sein. Während eines folgenden sogenannten Trackingvorgangs, der den eigentlichen Arbeitsvorgang der Objektverfolgung repräsentiert, während ein Anwender des Systems kontextabhängige Information an einer gewünschten Position in Bezug zur realen Umgebung in einer verwendeten Anzeigeeinrichtung eingeblendet erhält, dient das während einer Initialisierung erfasste reale Objekt als Referenz, um die Position zu berechnen, an der die virtuelle Information in einem von der Kamera aufgenommenen Bild angezeigt oder eingeblendet werden soll. Da der Anwender seine Position und seine Orientierung ändern kann, muss das reale Objekt kontinuierlich nachverfolgt werden (Tracking), um die virtuelle Information auch bei einer geänderten Position und/oder einer geänderten Orientierung des Anwenders an der korrekten Position in der Anzeigeeinrichtung anzuzeigen. Damit wird erreicht, dass die Information unabhängig von der Position und/oder der Orientierung des Anwenders in Bezug zur Realität in der Anzeigeeinrichtung kontextrichtig angezeigt wird. Ein Augmented Reality System ist hierbei ein Beispiel für die Anwendung von solchen sogenannten markerlosen Trackingsystemen.
  • Eines der zentralen Probleme auf dem Gebiet der Augmented Reality (Erweiterte Realität) ist die Bestimmung der Kopfposition und der Kopforientierung des Anwenders (Pose) mittels einer starr mit dem Kopf verbundenen Videokamera. Dieses Problem ist verwandt mit und kann umgewandelt werden in das Problem der Objektverfolgung, bei dem es, wie oben beschrieben, um die Bestimmung der Pose eines Objekts bezüglich der Videokamera geht, wobei nur der Videostrom bzw. Bilderfluss der Videokamera als Informationsquelle verwendet wird.
  • Zur Lösung dieses Problems hat sich ein Verfahren in der Praxis als äußerst vielversprechend erwiesen, wobei dieses Verfahren als sogenannte konturbasierte Objektverfolgung bekannt ist. Bei diesem Verfahren wird ein sogenanntes Konturmodell des zu verfolgenden realen Objekts mit seiner Abbildung in einem Videobild verglichen und solange angepasst, bis eine optimale Übereinstimmung gefunden wurde (Optimierung). Bisher gibt es jedoch kaum Untersuchungen darüber, wie solche Konturmodelle effizient gewonnen werden können. Bei den bisher bekannten Verfahren zur konturbasierten Objektverfolgung werden solche Konturmodelle manuell anhand der jeweiligen realen Objekte erstellt. Eine solche manuelle Erstellung eines Datenmodells einer virtuellen Information, das bestimmt ist, mit einem Abbild eines realen Objekts überlagert zu werden, ist jedoch vergleichsweise aufwendig und zeitintensiv.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren und ein System zur Bestimmung eines Datenmodells der eingangs genannten Art anzugeben, die jeweils eine schnelle und effiziente Generierung eines Konturmodells als Datenmodell ermöglichen, das bestimmt ist, mit einem Abbild eines realen Objekts überlagert zu werden. Weiterhin ist es Aufgabe der vorliegenden Erfindung, ein Verfahren zur Objektverfolgung unter Verwendung eines Datenmodells anzugeben, das mit einem Abbild eines realen Objekts auf einer Bildebene überlagert wird.
  • Diese Aufgabe wird gelöst durch ein Verfahren gemäß den Merkmalen des Patentanspruchs 1 sowie durch ein System gemäß den Merkmalen des Patentanspruchs 23. Weiterhin betrifft die Erfindung ein Verfahren zur Objektverfolgung unter Verwendung eines derart bestimmten Datenmodells gemäß den Merkmalen des Patentanspruchs 21. Die Erfindung betrifft weiterhin ein Computerprogrammprodukt gemäß den Merkmalen des Patentanspruchs 24.
  • Erfindungsgemäß wird das Datenmodell, das bestimmt ist, mit einem Abbild eines realen Objekts überlagert werden, mit folgenden Schritten bestimmt: Es wird ein dreidimensionales CAD-Modell zur Nachbildung des realen Objektes bereitgestellt, nachfolgend werden unterschiedliche synthetische zweidimensionale Ansichten des CAD-Modells generiert. Jede generierte Ansicht wird einer Kantenextraktion zur Bestimmung wenigstens einer extrahierten Kante in der jeweiligen Ansicht unterzogen, wobei die aus den jeweiligen Ansichten extrahierten Kanten zu einem dreidimensionalen Konturmodell umgewandelt werden, das dem zu bestimmenden Datenmodell entspricht.
  • Weiterhin werden nach der Kantenextraktion jeweilige zweidimensionale Kantenpunkte, beispielsweise in Form von Kantenpixel, einer extrahierten Kante bestimmt. Bei der Umwandlung der extrahierten Kanten wird mit Hilfe des CAD-Modells eine dreidimensionale Position der jeweiligen Kantenpunkte bestimmt, wobei eine Menge an dreidimensionalen Punkten erhalten wird, aus welchen das dreidimensionale Konturmodell bestimmt wird. Insbesondere wird dabei jeder Kantenpunkt als ein zweidimensionaler Punkt in der Bildebene aufgefasst und seine dreidimensionale Position im Koordinatensystem des CAD-Modells ermittelt. Die Menge an dreidimensionalen Punkten wird in zusammengehörende Kontursegmente aufgeteilt, wobei hierzu ein Algorithmus verwendet wird, anhand dessen ein euklidischer minimaler Spannbaum der dreidimensionalen Punkte ermittelt wird.
  • Die Erfindung bietet dabei den Vorteil, dass sich dreidimensionale Konturmodelle insbesondere zur Verwendung für markerlose Objektverfolgung, basierend auf dreidimensionalen CAD-Modellen, vollautomatisch extrahieren lassen. Somit kann ein semi- oder vollautomatisches Verfahren für die Erstellung von Konturmodellen bereitgestellt werden, was diese Technik vor allem für den industriellen Einsatz interessant macht.
  • Die zentrale Idee der vorliegenden Erfindung besteht dabei darin, anhand eines dreidimensionalen CAD-Modells zur Nachbildung des betreffenden realen Objekts zu bestimmen, welche Kanten des zu verfolgenden Objekts für das spätere optische konturbasierte Tracking relevant sind, um sie anschließend in ein dreidimensionales Konturmodell umzuwandeln. Bei der Konzeptionierung der vorliegenden Erfindung wurden dabei diejenigen Kanten als relevant erkannt, die in einer möglichst großen Anzahl von unterschiedlichen Ansichten mittels eines Kantenfilters aus der jeweiligen Ansicht extrahiert werden können. Für die Ermittlung der relevanten visuellen Kanten des zu verfolgenden realen Objekts werden unterschiedliche Ansichten des zu verfolgenden Objekts synthetisch simuliert. Dafür wird das dreidimensionale CAD-Modell verwendet. Hierbei ist die synthetische Herstellung unterschiedlicher Ansichten als ein wesentliches Element der Erfindung anzusehen, da die Notwendigkeit, Videoaufnahmen des realen Objekts zu erstellen und zu verwenden, durch diese Maßnahme wegfällt. Außerdem besteht die volle Kontrolle über die virtuelle Kamera, mit der die unterschiedlichen Ansichten generiert werden.
  • Gemäß der vorliegenden Erfindung liegt das technische Konzept somit insbesondere auf dem technischen Gebiet der Augmented Reality Systeme, wobei insbesondere der industrielle Einsatz eines solchen Systems, wie oben beschrieben, ermöglicht wird, da ein semi- oder vollautomatisches Verfahren für die Erstellung von Konturmodellen zur Überlagerung mit einem Abbild eines realen Objekts bereitgestellt werden kann. Außerdem wird gegenüber einer manuellen Generierung eines solchen Datenmodells eine höhere Genauigkeit auf Grundlage des CAD-Modells erzielt, was im Ergebnis zu einem verbesserten und genaueren Trackingverfahren bei Einsatz des Augmented Reality Systems führen wird. Die zentrale Idee der Erfindung besteht darin, anhand des CAD-Modells zu bestimmen, welche Kanten des zu verfolgenden Objekts für das spätere optische konturbasierte Tracking relevant sind, um sie anschließend in ein dreidimensionales Konturmodel umzuwandeln. Dieser Kerngedanke wurde aufgrund der Kenntnis der optisch-technischen Zusammenhänge bei der Durchführung eines optischen konturbasierten Trackings erbracht, wobei unter Zugrundelegung der entsprechenden technischen Kenntnisse bewertet wurde, welche optisch-technische Bedeutung die einzelnen Merkmale haben und wie diese zur Lösung des oben genannten technischen Problems beitragen können. Insgesamt ist es mittels der Erfindung ermöglicht, die konturbasierte optische Objektverfolgung für den industriellen Einsatz und somit für die alltägliche Praxis interessant zu machen.
  • Gemäß dem Konzept der vorliegenden Erfindung wird dabei nicht direkt das CAD-Modell für das optische konturbasierte Tracking verwendet, sondern es wird über den Zwischenschritt der Generierung von unterschiedlichen synthetischen zweidimensionalen Ansichten des CAD-Modells bestimmt, welche Kanten des zu verfolgenden realen Objekts für das spätere optische konturbasierte Tracking relevant sind. Die aus den jeweiligen Ansichten extrahierten Kanten werden dabei zu einem dreidimensionalen Konturmodell umgewandelt, welches als Datenmodell für das optische konturbasierte Tracking verwendet werden kann.
  • Gemäß einer Ausführungsform werden die ermittelten dreidimensionalen Positionen der Kantenpunkte in einer Datenstruktur abgespeichert, die Abfragen hinsichtlich der räumlichen Nachbarschaft von dreidimensionalen Punkten erlaubt, wobei die Datenstruktur insbesondere als k-d-Baum ausgeführt ist.
  • Gemäß einer Weiterbildung wird in dem Fall, in dem nach der Ermittlung der dreidimensionalen Position eines Kantenpunktes festgestellt wird, dass an dieser dreidimensionalen Position bereits ein dreidimensionaler Punkt vorhanden ist, für diesen dreidimensionalen Punkt ein Zähler inkrementiert. In dieser Weise wird fortgefahren, bis beispielsweise die gewünschte Anzahl synthetischer Ansichten generiert und verarbeitet wurde. Als Ergebnis wird eine dreidimensionale Punktwolke erhalten, wobei jedem dreidimensionalen Punkt ein Wert zugeordnet ist, der angibt, wie oft der dreidimensionale Punkt als zu einer visuellen Kante gehörend eingestuft wurde. Dieser Wert kann auch als Wahrscheinlichkeit interpretiert werden, mit der der jeweilige dreidimensionale Punkt zu einer relevanten visuellen Kante gehört.
  • Vorzugsweise werden Kantenpunkte, die semantisch zu einer gleichen dreidimensionalen Position im Raum gehören, als ein dreidimensionaler Punkt abgespeichert, wobei jeder Kantenpunkt, der auf diese dreidimensionale Position abgebildet wird, zum Inkrementieren eines entsprechenden Zählers führt, womit der Wert der zugeordneten Wahrscheinlichkeit somit erhöht wird.
  • Um insbesondere die semantische Zugehörigkeit zur gleichen dreidimensionalen Position zu erkennen, wird für jeden Kantenpunkt nach der Ermittlung seiner dreidimensionalen Position eine Abfrage gestartet, ob es in unmittelbarer Nähe bereits wenigstens einen abgespeicherten dreidimensionalen Punkt gibt. Die unmittelbare Nähe kann dabei mittels eines Schwellenwertes definiert werden. Wenn es in unmittelbarer Nähe wenigstens einen abgespeicherten dreidimensionalen Punkt gibt, wird kein neuer dreidimensionaler Punkt abgespeichert, sondern der Zähler des bereits abgespeicherten dreidimensionalen Punkts wird inkrementiert.
  • Liegt eine so bestimmte Wahrscheinlichkeitsverteilung bezüglich der visuellen Relevanz vor, kann unter Heranziehung eines Schwellenwertes ein dreidimensionaler Punkt verworfen werfen, dessen zugeordneter Wahrscheinlichkeitswert unter dem Schwellenwert liegt, wobei übriggebliebene dreidimensionale Punkte visuell relevante Konturen des realen Objekts repräsentieren. Insbesondere wird die Menge an dreidimensionalen Punkten auf Bereiche reduziert, die mit hoher Wahrscheinlichkeit für ein späteres Trackingverfahren im Augmented Reality System relevante Konturen des realen Objekts repräsentieren. Hierbei werden dreidimensionale Punkte, deren zugeordnete Wahrscheinlichkeit, insbesondere deren zugeordneter Zähler, einen bestimmten Schwellenwert unterschreitet, verworfen.
  • In einer Weiterbildung der Erfindung wird anschließend die Menge an dreidimensionalen Punkten in zusammengehörende Kontursegmente aufgeteilt. Insbesondere wird wenigstens ein Teil der dreidimensionalen Punkte in den Kontursegmenten durch eine geeignete Konturrepräsentation ersetzt, die unter Verwendung eines Optimierungsverfahrens beispielsweise mit Linien, B-Splines, Bezier-Splines oder NURBS approximiert wird. Beispielsweise kann ein Kontursegment mit einer Sequenz von Liniensegmenten angenähert werden, bis eine vorgegebene Genauigkeit erreicht ist. Zusätzlich oder alternativ wird bei geschwungenen Kontursegmenten beispielsweise ein Optimierungsverfahren mit B-Splines verwendet.
  • Nach Bestimmung des dreidimensionalen Konturmodells gemäß dem erfindungsgemäßen Verfahren kann ein Verfahren zur optischen Objektverfolgung unter Verwendung eines solchen Konturmodells durchgeführt werden. Hierbei wird das Konturmodell als Datenmodell einer virtuellen Information mit einem Abbild eines realen Objekts auf einer Bildebene überlagert. Hierzu wird mit einer Kamera ein zweidimensionales Bild aufgenommen, welches wenigstens das reale Objekt beinhaltet. Weiterhin wird ein Optimierungsverfahren durchgeführt, welches das Datenmodell auf die Bildebene projiziert, um eine Projektion des Datenmodells mit dem Abbild des realen Objekts auf der Bildebene zu überlagern.
  • Während des Trackingvorgangs wird insbesondere ein Vergleich der Projektion des Datenmodells mit dem Abbild des realen Objekts durchgeführt, wobei Parameter der Kamerapose aus dem Vergleichsergebnis bestimmt werden. Die so gewonnene Information dient als Referenz, um die Position zu berechnen, an der die virtuelle Information in einem von der Kamera aufgenommenen Bild angezeigt oder eingeblendet werden soll. Dabei wird das reale Objekt kontinuierlich nachverfolgt, wenn der Anwender bzw. die Kamera die Position und/oder Orientierung ändert. Mit der Bestimmung der Kameraparameter zur Ermittlung der Position und Orientierung der Kamera relativ zum realen Objekt werden die umschreibenden Parameterwerte des datentechnischen Modells festgelegt, so dass das innere Computermodell mit der physikalischen Welt übereinstimmt.
  • Die vorliegende Erfindung betrifft außerdem ein entsprechendes System zur Bestimmung eines Datenmodells, das gemäß den Prinzipien der vorliegenden Erfindung eingerichtet ist. Ein solches System umfasst insbesondere eine Einrichtung zum Bereitstellen des dreidimensionalen CAD-Modells und eine Einrichtung zur Generierung von unterschiedlichen synthetischen zweidimensionalen Ansichten des CAD-Modells. Diese Einrichtung ist ebenfalls dazu ausgebildet, jede generierte Ansicht einer Kantenextraktion zur Bestimmung wenigstens einer extrahierten Kante in der jeweiligen Ansicht zu unterziehen. Weiterhin ist eine Einrichtung zur Umwandlung der aus den jeweiligen Ansichten extrahierten Kanten zu einem dreidimensionalen Konturmodell vorgesehen. Derartige Einrichtungen können insbesondere in Form eines Computersystems realisiert sein, das derart eingerichtet ist, dass die erfindungsgemäßen Verfahrensschritte in der angegebenen Weise ausgeführt werden können.
  • Das erfindungsgemäße Verfahren ist beispielsweise auf einem Computerprogrammprodukt, insbesondere einem geeigneten Speichermedium, implementiert, das in den internen Speicher eines digitalen Computers geladen werden kann. Ein solches Computerprogrammprodukt umfasst Softwarecodeabschnitte, mit denen die einzelnen Verfahrensschritte gemäß der vorliegenden Erfindung, wie oben beschrieben, ausgeführt werden, wenn das Produkt auf dem Computer läuft.
  • Die vorliegende Erfindung ist auf vielfältigen Anwendungsgebieten anwendbar, welche ein Trackingsystem bzw. Trackingverfahren verwenden. Diesbezügliche Anwendungen sind insbesondere die Augmented Reality Technologie in den Bereichen Service und Wartung, Anwendungen in der Produktion sowie allgemeine Anwendungen im mobilen Umfeld. Insbesondere ist die Erfindung auch auf dem Gebiet der industriellen Fertigung verwendbar, bei dem Industriemaschinen wie Industrieroboter in Bezug auf die aufgenommene reale Umgebung automatisch gesteuert bzw. geregelt werden.
  • Weitere vorteilhafte Aus- und Weiterbildungen der Erfindung sind in den Unteransprüchenangegeben.
  • Die Erfindung wird im Folgenden anhand der in der Zeichnung dargestellten Figuren, die vorteilhafte Ausführungsformen der Erfindung betreffen, näher erläutert.
  • 1 zeigt eine Ansicht von visuellen Kanten, die zu einem aufgenommenen Objekt gehören und die mittels eines Kantenfilters extrahiert wurden,
  • 2 zeigt ein dreidimensionales CAD-Modell zur Nachbildung eines realen Objekts in Form eines Motorraums eines Fahrzeugs,
  • 3 zeigt ein Flussdiagramm zu einer Ausführungsform eines erfindungsgemäßen Verfahrens,
  • 4 zeigt eine schematische Visualisierung betreffend die Generierung von unterschiedlichen synthetischen zweidimensionalen Ansichten des CAD-Modells,
  • 5 zeigt beispielhafte, aus einer synthetischen Ansicht extrahierte zweidimensionale Kanten,
  • 6 zeigt eine schematische Visualisierung eines Verfahrensschritts, wonach für jeden zweidimensionalen Kantenpixel eine zugehörige dreidimensionale Position ermittelt wird,
  • 7 zeigt ein Beispiel einer möglichen Aufteilung einer einfachen dreidimensionalen Punktwolke in einzelne Kontursegmente,
  • 8 zeigt ein Beispiel einer möglichen Approximierung eines dreidimensionalen Kontursegments mit Linien,
  • 9 zeigt ein Beispiel einer möglichen Approximierung eines dreidimensionalen Kontursegments mit B-Splines,
  • 10 bis 13 veranschaulichen das Identifizieren von Kontursegmenten, die nahe beieinander liegenden Kanten zugeordnet werden, mittels eines bzw mehrerer euklidischer minimaler Spannbäume.
  • Gemäß der vorliegenden Erfindung wird anhand eines dreidimensionalen CAD-Modells bestimmt, welche Kanten eines zu verfolgenden realen Objekts in einem späteren optischen konturbasierten Trackingverfahren relevant sind, um sie anschließend in ein dreidimensionales Konturmodell umzuwandeln. Als relevant sind dabei diejenigen Kanten anzusehen, die in einer möglichst großen Anzahl von Ansichten mittels eines Kantenfilters, wie beispielsweise Sobel oder Canny, aus dem Bild extrahiert werden können. Hierbei zeigt die 1 eine Ansicht von visuellen Kanten, die zu einem von einer Kamera aufgenommenen realen Objekt gehören und die mittels eines solchen Kantenfilters extrahiert wurden. Insbesondere wurden die Kanten mittels eines Canny-Kantenfilters extrahiert. Die extrahierten Kanten sind dabei als weiße Linien dargestellt, welche einen Übergang zwischen hell-dunkel bzw. dunkel-hell beim realen Objekt kennzeichnen. In der in 1 dargestellten Ansicht 20 sind beispielhafte visuelle Kanten mit Bezugszeichen 21 bis 23 gekennzeichnet.
  • Für die Ermittlung von relevanten visuellen Kanten zur Erstellung eines dreidimensionalen Konturmodells werden erfindungsgemäß unterschiedliche Ansichten des zu verfolgenden realen Objekts synthetisch simuliert. Dafür wird ein dreidimensionales CAD-Modell verwendet, wie beispielsweise in 2 anhand einer konkreten Ausführungsform dargestellt. Hierbei zeigt 2 ein beispielhaftes dreidimensionales CAD-Modell 10 zur Nachbildung eines Motorraums eines Fahrzeugs. Mit der synthetischen Herstellung unterschiedlicher Ansichten gemäß der Erfindung entfällt die Notwendigkeit, Videoaufnahmen des realen Objekts zu verwenden, um ein dreidimensionales Konturmodell für das spätere optische Trackingverfahren manuell zu erstellen. Für die Generierung der synthetischen Ansichten muss das CAD-Modell das reale Objekt so genau wie möglich nachbilden. Die Verwendung von texturierten CAD-Modellen ist vorteilhaft, um daraus eine hinreichende Menge von Konturen zu gewinnen, jedoch ist dies bei komplexen Geometrien nicht zwingend erforder lich. Eine vergleichsweise komplexe Geometrie ist beispielsweise mit dem CAD-Modell gemäß 2 vorgegeben.
  • In 3 ist ein Flussdiagramm zu einer Ausführungsform eines erfindungsgemäßen Verfahrens dargestellt. Dieses wird dabei im Kontext mit den nachfolgenden 4 bis 9 näher erläutert.
  • 4 zeigt zunächst eine schematische Visualisierung betreffend die Generierung von unterschiedlichen synthetischen zweidimensionalen Ansichten des CAD-Modells. Im Schritt 101 gemäß 3 wird zunächst eine Kamerapose einer virtuellen Kamera, beispielsweise der Kamera 41 gemäß 4, gewählt. In der Pose 1 erzeugt die virtuelle Kamera 41 eine 2D-Ansicht 31 des CAD-Modells 10. In der Pose 2 erzeugt die virtuelle Kamera 42 eine 2D-Ansicht 32 des CAD-Modells 10. Entsprechend wird in den Posen 3 und 4 von den virtuellen Kameras 43 und 44 eine jeweilige 2D-Ansicht 33 bzw. 34 des CAD-Modells 10 erstellt. Die Positionierung der jeweiligen virtuellen Kamera kann entweder gleichmäßig in einem vom Benutzer definierten Bereich oder entsprechend einer a priori-Wahrscheinlichkeitsverteilung erfolgen. Die Berücksichtigung einer solchen Wahrscheinlichkeitsverteilung wird im weiteren Verlauf noch näher erläutert.
  • Jede so synthetisch generierte Ansicht 31 bis 34 wird einer Kantenextraktion unerzogen. Hierzu kann beispielsweise der bekannte Sobel- oder Canny-Kantenfilter verwendet werden. Es ist empfehlenswert, denselben Kantenextraktor zu benutzen, der unter Umständen später beim Tracking zum Einsatz kommen wird. Die 5 zeigt die aus der synthetischen Ansicht des CAD-Modells der 2 mittels eines Canny-Kantendetektors extrahierten Kanten. Man erkennt, dass die extrahierten Kanten weiß auf schwarzem Hintergrund erscheinen.
  • Für die Ermittlung der visuell relevanten Kanten eines Objekts wird das gegebenenfalls texturierte CAD-Modell mehrfach aus verschiedenen Ansichten "gerendert", wobei beispielsweise eine Anzahl von mehr als 1.000 Ansichten generiert wird. Der Fachbegriff "Rendern" bezeichnet hierbei den Prozeß zur Erzeugung eines Abbilds eines virtuellen dreidimensionalen Datenmodells. Die An zahl der verschiedenen Ansichten wird hierbei in dem Schritt 106 mittels einer Abfrage festgelegt. D.h., die Schritte 101 bis 105 werden für jede neu zu generierende Ansicht jeweils nacheinander durchlaufen.
  • Die im Schritt 102 entstandenen 2D-Ansichten sollten dem realen Objekt so ähnlich wie möglich sein. Da die Lichtverhältnisse und insbesondere die Lichtrichtung in der Szene einen wichtigen Einfluß auf die visuellen Kanten haben, ist es besonders vorteilhaft, unterschiedliche Lichtsituationen zu simulieren. Mithin ist es vorteilhaft, photorealistisches "Rendering" einzusetzen.
  • Im Schritt 103 werden die zweidimensionalen Kanten (2D-Kanten) aus den fotorealistisch "gerenderten" Ansichten des CAD-Modells mittels eines Verfahrens zur Kantenextraktion (z.B. ein Standardverfahren nach Sobel oder Canny) extrahiert und in Form von Binärbildern für die Weiterverarbeitung zur Verfügung gestellt. Dabei erscheinen die extrahierten Kanten weiß im Bild, während alle anderen Pixel schwarz sind. Dies ist beispielhaft in 5 anhand der Ansicht 30 gezeigt, in der beispielhafte visuelle extrahierte Kanten mit 38 und 39 bezeichnet sind. Hierbei weist beispielsweise die Kante 38 eine Vielzahl von weiß erscheinenden Kantenpixel 37 auf.
  • Nach der erfolgten Kantenextraktion wird jeder Kantenpixel, der weiß im Bild erscheint, als ein zweidimensionaler Punkt (2D-Punkt) aufgefasst und seine dreidimensionale Position (3D-Position) im Koordinatensystem des CAD-Modells (in 6 mit 11 bezeichnet) ermittelt. Für die Ermittlung der relevanten Objektkonturen muss für jeden 2D-Kantenpixel seine 3D-Position berechnet werden. Dazu zeigt 6 eine schematische Visualisierung eines Verfahrensschritts, wonach für jeden 2D-Kantenpixel seine zugehörige SD-Position ermittelt wird. Eine virtuelle Kamera ist hierbei mit 40 bezeichnet, die aus dem CAD-Modell 10 eine zweidimensionale Ansicht 30, wie in 5 dargestellt, generiert.
  • In diesem Ausführungsbeispiel wird desweiteren ein Farbcodierungsmodell 50 eingesetzt. Dazu "rendert" man für jede fotorealistische Ansicht des CAD-Modells 10 (beispielsweise für die Ansichten 31 bis 34 gemäß 4) eine Falschfarbenansicht, wobei jedem "Face" des CAD-Modells eine eindeutige Farbe zugeordnet wird. Die "Faces" sind beispielsweise Dreiecke eines polygonalen Modells, das die Oberfläche eines Objekts durch dreidimensionale Punkte im Raum und Verbindungen zwischen diesen Punkten beschreibt. Für jeden Kantenpixel schlägt man an derselben 2D-Position im Falschfarbenbild den Farbwert nach und benutzt ihn als Index für den effizienten Zugriff auf das entsprechende "Face" (Dreieck) des CAD-Modells. Dieses Dreieck spannt im 3D-Raum eine Ebene auf. Die gesuchte 3D-Position 70 eines 2D-Kantenpixels ist der Schnittpunkt der Ebene mit dem Strahl (beispielsweise dem Strahl 61 oder 62), der das Kamerazentrum der Kamera 40 mit dem betreffenden 2D-Kantenpixel verbindet. Mit Farbcodierung der "Faces" des CAD-Modells muss nicht die Kolision mit anderen "Faces" des CAD-Modells getestet werden, sondern nur der Durchstoßpunkt an der Stelle, an welcher die Farbe des abgebildeten CAD-Modells mit dem "Face"-Farbcode des CAD-Modells übereinstimmt.
  • Die so ermittelten 3D-Positionen der Kantenpixel werden in einer Datenstruktur abgespeichert, die effiziente Abfragen hinsichtlich der räumlichen Nachbarschaft von 3D-Punkten erlaubt, beispielsweise mittels eines k-d-Baums. Die anhand von 6 beschriebene Rückprojektion der 2D-Kanten in den dreidimensionalen Raum wird gemäß 3 im Schritt 104 durchgeführt.
  • Eine zweidimensionale Kante kann in mehreren Ansichten (beispielsweise den Ansichten 31 bis 34 gemäß 4) sichtbar sein, denn gerade dann ist sie eine relevante visuelle Kante. Dies bedeutet, dass mehreren 2D-Kantenpixel, die aus unterschiedlichen Ansichten stammen, dieselbe 3D-Position zugewiesen werden kann. Kantenpixel, die semantisch zu derselben 3D-Position im Raum gehören, werden als ein 3D-Punkt abgespeichert, wobei jeder Kantenpixel, der auf diese 3D-Position abgebildet wird, zum Inkrementieren eines entsprechenden Zählers führt (Schritt 105 gemäß 3). Mit anderen Worten, wird nach der Ermittlung der 3D-Position eines Kantenpixels festgestellt, dass an dieser 3D-Position bereits ein 3D-Punkt vorhanden ist, inkrementiert man für diesen 3D-Punkt einen Zähler.
  • Aufgrund numerischer Ungenauigkeiten werden die 3D-Positionen vermutlich nicht exakt gleich sein, sondern geringfügig voneinander abweichen. Um die semantische Zugehörigkeit zum gleichen 3D-Punkt zu erkennen, muss für jeden 2D-Kantenpixel nach der Ermittlung seiner 3D-Position eine Abfrage gestartet werden, ob es in unmittelbarer Nähe bereits abgespeicherte 3D-Punkte gibt. Ist dies der Fall, so wird kein neuer 3D-Punkt abgespeichert, sondern der Zähler des bereits bestehenden 3D-Punktes inkrementiert. "Unmittelbare Nähe" wird dabei mittels eines Schwellenwerts definiert. Eine Datenstruktur, die eine effiziente Umsetzung solcher Abfragen erlaubt, ist der bereits erwähnte k-d-Baum.
  • In dieser Weise fährt man nun mit den Schritten 101 bis 104 fort, bis die gewünschte Anzahl synthetischer Ansichten generiert und verarbeitet wurde. Das Ergebnis dieser Prozedur ist eine 3D-Punktewolke, wobei jedem 3D-Punkt ein Wert zugeordnet ist, der angibt, wie oft der 3D-Punkt als zu einer visuellen Kante gehörend eingestuft wurde. Dieser Wert kann auch als Wahrscheinlichkeit interpretiert werden, mit der der jeweilige 3D-Punkt zu einer relevanten visuellen Kante gehört. Somit entsteht auf der Oberfläche des CAD-Modells eine Wahrscheinlichkeitsverteilung bezüglich der visuellen Relevanz. Mit einem Schwellenwert können dann alle 3D-Punkte verworfen werden, deren Wahrscheinlichkeit, zu einer relevanten visuellen Kante zu gehören, zu niedrig ist. Die übrig gebliebenen 3D-Punkte repräsentieren somit die visuell relevanten Konturen des zu verfolgenden realen Objekts.
  • Insbesondere wird, nachdem alle synthetischen Ansichten erstellt und für alle 2D-Kantenpixel entsprechende 3D-Positionen ermittelt wurden, die so entstandene 3D-Punktewolke auf Bereiche reduziert, die mit hoher Wahrscheinlichkeit die für das Tracking relevanten Konturen repräsentieren. Diese Aufgabe kann mittels eines einfachen Schwellenwertverfahrens gelöst werden, so dass alle 3D-Punkte, deren Zähler (Wahrscheinlichkeiten) einen gewissen Schwellenwert unterschreitet, verworfen werden (Schritt 107 der 3).
  • Nachdem eine 3D-Punktewolke erzeugt wurde, die die relevanten 3D-Konturen durch Punkte repräsentiert, wird diese Punktewolke in einzelne Kontursegmente aufgeteilt. In 7 ist ein Beispiel einer möglichen Aufteilung einer einfachen 3D-Punktewolke mit den 3D-Punkten 70 in einzelne Kontursegmente 71 bis 75 gezeigt. Solche Kontursegmente können anschließend unter Verwendung eines Optimierungsverfahrens (z.B. Levenberg-Marquardt) mit Linien, B-Splines oder NURBS approximiert werden, um so eine kompakte Dar stellung der Konturen zu ermöglichen. Mit anderen Worten, ist die 3D-Punktewolke in einzelne Kontursegmente aufgeteilt, werden diese durch eine geeignete Konturrepräsentation ersetzt. Anhand von 8 und 9 sind zwei mögliche Konturrepräsentationen beschrieben, wobei 8 ein Beispiel einer möglichen Approximierung eines 3D-Kontursegments mit Linien und 9 ein Beispiel einer möglichen Approximierung eines 3D-Kontursegments mit B-Splines zeigt. In diesem Zusammenhang sind auch andere Repräsentationen vorstellbar, wie beispielsweise Bezier-Splines oder NURBS etc.
  • Wie anhand von 8 dargestellt, kann ein Kontursegment aus mehreren 3D-Punkten 70 mit einer Sequenz von Liniensegmenten 81 bis 85 angenähert werden, bis die gewünschte Genauigkeit erreicht ist. Ein so bestimmtes Kontursegment kann einen Teil des Konturmodells repräsentieren. Wie anhand von 9 ersichtlich, erlauben B-Splines eine kompakte Annäherung einer großen Datenmenge. Deswegen sind sie sehr gut geeignet, ein Kontursegment zu beschreiben. Konkret ermöglichen B-Splines, wie anhand von 9 mit Bezugszeichen 91 verdeutlicht, besonders bei geschwungenen Kontursegmenten eine präzise Annäherung der Punktewolke bei einer kompakten Repräsentation durch eine Menge von Kontrollpunkten 92. Das Identifizieren von Kontursegmenten und Approximieren von Kontursegmenten durch Linien, B-Splines, etc. wird gemäß 3 in den Schritten 108 und 109 durchgeführt. Ein so bestimmtes Kontursegment, wie etwa der B-Spline 91, kann einen Teil des Konturmodells repräsentieren.
  • Im folgenden wird eine vorteilhafte Ausführungsform für das Identifizieren von Kontursegmenten beschrieben, die gemäß 3 in dem Schritt 108 implemetiert werden kann.
  • Wie beschrieben, entsteht durch das Filtern der Punktewolke eine gefilterte Punktewolke (FPW), die nur noch die 3D-Kantenpunkte enthält, die über dem gewählten relativen Schwellenwert liegen (relativer Schwellenwert; ist abhängig von der maximalen Trefferquote). Diese FPW besteht aus verschiedenen Bereichen (Teilpunktewolken):
    • – Bereiche, in denen die Punkte eine große Verteilung aufweisen, die keine Zuordnung zu einer Kante erlauben;
    • – Bereiche, in denen die Punkte mehreren Kanten zuzuordnen sind, die sehr nah beieinander liegen;
    • – Bereiche, in denen die Punkte einer Kante gut zuzuordnen sind (Idealsituation).
  • Weitere Eigenschaften dieser Ausgangssituation sind:
    • – Die Punkte, die eine Kante bilden können, liegen nicht sortiert in einer Linie nacheinander, sondern liegen verteilt um die ideale Kante, weisen also gegenüber der idealen Kante ein Rauschen auf.
    • – Das Rauschen der Kanten kann unterschiedlich stark sein, d.h. der orthogonale Abstand der Punkte zu ihrer idealen Kante kann variieren. Würde zur Erstellung der Kante eine Mittelung der Punkte durchgeführt werden, müsste ein Radius gewählt werden, der groß genug ist, um alle für die Kante relevanten Punkte zu enthalten und der gleichzeitig so klein wie möglich ist, damit keine Punkte von einer nahe liegenden zweiten Kante mit einbezogen werden. Diese Radius müsste sich anpassen.
  • Hierbei stellt sich die Aufgabe, dass Punkte der gesamten bestehenden Punktewolke zu ermitteln sind, die jeweils zu einer Kante beitragen und in einem nächsten Schritt zu einer Kante approximiert werden können.
  • Aus dieser Ausgangssituation ergeben sich insbesondere zwei Probleme, die oben bereits erwähnt wurden:
    • – Nahe beieinander liegende Kanten, so dass die Punkte der Punktewolke an entsprechenden Bereichen sehr nahe beieinander liegen und den unterschiedlichen Kanten zugeordnet werden müssen. Dies veranschaulicht 10, die eine gefilterte Punktewolke 200 von beispielhaften nahe beieinander liegenden Kanten darstellt.
    • – Varianz der Stärke des Rauschens, d.h. der orthogonale Abstand von Punkten zu ihrer idealen Kante kann variieren.
  • Als Lösungsansatz wird bevorzugt ein Algorithmus verwendet, der den sogenannten euklidischen minimalen Spannbaum (EMST) verwendet.
  • Um den EMST der Punktewolke zu bestimmen, wird zunächst ein Graph G aufgebaut, der alle Punkte miteinander verbindet, die jeweils eine Distanz zueinander haben, die kleiner oder gleich dem maximal akzeptierten Rauschen r_max einer Kante ist. Der EMST des Graphen G ist ein Baum (besitzt also keine Zyklen), der alle Punkte des Graphen so miteinander verbindet, dass die Summe ihrer Kantenlänge minimal ist.
  • Ein bevorzugt verwendeter Algorithmus zur Bestimmung des EMST ist der Algorithmus von Kruskal. Der Kruskalsche Algorithmus besitzt die Eigenschaft, bei einem nicht vollständig verbundenen Graphen G einen minimalen Spannwald zu generieren. Diese Eigenschaft ist wichtig, da der Graph, der aus der FPW mit r_max generiert wird, mit großer Wahrscheinlichkeit nicht vollständig verbunden ist. Eine Alternative zum Kruskalschen Algorithmus ist der Algorithmus nach Prim, der bei einem nicht vollständig verbundenen Graphen G einen Spannbaum einer der verbundenen Graphen generiert.
  • Der Kruskalsche Algorithmus geht insbesondere mit folgenden Schritten vor:
    • – Generierung eines Waldes F (Menge von Bäumen), in dem jeder Punkt zunächst einen separaten Baum bildet;
    • – Generierung der Menge S. die alle Kanten des Graphen G enthält;
    • – Solange S nicht leer ist: • Entferne die Kante von S, die das geringste Gewicht besitzt (also beispielsweise die kürzeste Kante); • Wenn diese Kante zwei Bäume miteinander verbindet, füge die beiden Bäume und die Kante zu einem Baum zusammen; • Ansonsten verwerfe die Kante.
  • Der so zusammengefügte Baum ist der gesuchte EMST, wie beispielsweise der EMST 201 gemäß 11, der mehrere der zuvor bestimmten Punkte der gefilterten Punktewolke von nahe beieinander liegenden Kanten entsprechend verbindet. Der EMST 201 repräsentiert hier einen EMST von zwei nahe beieinander liegenden Kanten 211 und 212, die in diesem Beispiel mit Kanten 213 und 214 verbunden sind. Durch den EMST ist die Zusammengehörigkeit der Punkte festgelegt.
  • An wenigstens einer Stelle werden sich nah beieinander liegende Kanten, bzw. EMSTs verbinden, wie mit Stelle bzw. Verbindung 220 in 12 beispielhaft gezeigt, welche die Kanten 211 und 212 verbindet. Diese Verbindungen gilt es zu ermitteln und zu löschen. Sie stellen eine falsche Verbindung dar. Damit erhält man mehrere separate EMSTs für eine jeweilige Kante, die entsprechend getrennt sind. Dies ist anhand von 13 dargestellt mit den separaten EMSTs 202 und 203 für die Kanten 211 bzw. 212.
  • Anschließend können die separaten EMSTs gemittelt werden, beispielsweise durch eine Schwerpunkts-Bestimmung innerhalb von jeweiligen Teilbäumen. Die so gefundenen Punkte, wie beispielsweise die Schwerpunkte 205 nach 13, können zu Kontursegmenten approximiert werden, wie oben beschrieben (Schritt 109 nach 3).
  • Wie oben bezüglich 4 bereits erwähnt, kann die Positionierung der virtuellen Kamera entweder gleichmäßig oder entsprechend einer a priori Wahrscheinlichkeitsverteilung erfolgen. Eine solche Wahrscheinlichkeitsverteilung kann beispielsweise berücksichtigen, welche Ansichten des dargestellten Motorraums aus Sicht eines Mechanikers, der Arbeiten in dem Motorraum durchführt, am wahrscheinlichsten sind. Auf diese Weise kann eine Wahrscheinlichkeitsverteilung im Bezug auf die Realität generiert werden. Eine solche Wahrscheinlichkeitsverteilung nimmt beispielsweise Einfluss auf die Kantengewichtung, so dass etwa visuelle Kanten aus wahrscheinlicheren Positionen höher gewichtet werden als visuelle Kanten, die in einer Ansicht sichtbar sind, die in Bezug auf die Realität eine geringere Auftrittswahrscheinlichkeit aufweist.
  • Die Vorteile der vorliegenden Erfindung liegen vor allem darin, dass eine vollautomatische Erstellung von Konturmodellen ermöglicht wird, was den Weg für den industriellen Einsatz von konturbasierten Objektverfolgungsverfahren ebnet. Die Erfindung schließt dabei die Lücke zwischen umfangreichen Datenbanken von CAD-Modellen, die oftmals in der Großindustrie vorhanden sind, und den konturbasierten Algorithmen zur markerlosen Objektverfolgung.

Claims (24)

  1. Verfahren zur Bestimmung eines Datenmodells einer virtuellen Information, das bestimmt ist, in einem Verfahren zur Objektverfolgung mit einem Abbild eines realen Objekts überlagert zu werden, mit folgenden Schritten: – Bereitstellen eines dreidimensionalen CAD-Modells (10) zur Nachbildung des realen Objekts, – Generierung von unterschiedlichen synthetischen zweidimensionalen Ansichten (3134) des CAD-Modells (10), – jede generierte Ansicht (3134) wird einer Kantenextraktion zur Bestimmung wenigstens einer extrahierten Kante (38, 39) in der jeweiligen Ansicht unterzogen, – Umwandlung der aus den jeweiligen Ansichten (3134) extrahierten Kanten (38, 39) zu einem dreidimensionalen Konturmodell (85, 91), das dem Datenmodell entspricht, – nach der Kantenextraktion werden jeweilige zweidimensionale Kantenpunkte (37) einer extrahierten Kante (38, 39) bestimmt, – bei der Umwandlung der extrahierten Kanten (38, 39) wird mit Hilfe des CAD-Modells (10) eine dreidimensionale Position der jeweiligen Kantenpunkte (37) bestimmt, wobei eine Menge an dreidimensionalen Punkten (70) erhalten wird, aus welchen das dreidimensionale Konturmodell (85, 91) bestimmt wird, – die Menge an dreidimensionalen Punkten (70) wird in zusammengehörende Kontursegmente (7175) aufgeteilt, wobei hierzu ein Algorithmus verwendet wird, anhand dessen ein euklidischer minimaler Spannbaum der dreidimensionalen Punkte ermittelt wird.
  2. Verfahren nach Anspruch 1, bei dem jeder Kantenpunkt (37) als ein zweidimensionaler Punkt in der Bildebene aufgefasst wird und seine dreidimensionale Position (70) im Koordinatensystem (11) des CAD-Modells (10) ermittelt wird.
  3. Verfahren nach Anspruch 1 oder 2, bei dem die ermittelten dreidimensionalen Positionen (70) der Kantenpunkte in einer Datenstruktur abgespeichert werden, die Abfragen hinsichtlich der räumlichen Nachbarschaft von dreidimensionalen Punkten erlaubt, wobei die Datenstruktur insbesondere als k-d-Baum ausgeführt ist.
  4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem in dem Fall, in dem nach der Ermittlung der dreidimensionalen Position (70) eines Kantenpunktes festgestellt wird, dass an dieser dreidimensionalen Position bereits ein dreidimensionaler Punkt (70) vorhanden ist, für diesen dreidimensionalen Punkt ein Zähler inkrementiert wird.
  5. Verfahren nach einem der Ansprüche 1 bis 4, bei dem Kantenpunkte (37), die semantisch zu einer gleichen dreidimensionalen Position im Raum gehören, als ein dreidimensionaler Punkt (70) abgespeichert werden, wobei jeder Kantenpunkt, der auf diese dreidimensionale Position abgebildet wird, zum Inkrementieren eines entsprechenden Zählers führt.
  6. Verfahren nach Anspruch 5, bei dem – um die semantische Zugehörigkeit zur gleichen dreidimensionalen Position zu erkennen, für jeden Kantenpunkt (37) nach der Ermittlung seiner dreidimensionalen Position (70) eine Abfrage gestartet wird, ob es in unmittelbarer Nähe bereits wenigstens einen abgespeicherten dreidimensionalen Punkt (70) gibt, und – wenn dies der Fall ist, kein neuer dreidimensionaler Punkt abgespeichert wird, sondern der Zähler des bereits abgespeicherten dreidimensionalen Punktes (70) inkrementiert wird, – wobei die unmittelbare Nähe dabei mittels eines Schwellenwertes definiert wird.
  7. Verfahren nach einem der Ansprüche 1 bis 6, bei dem jedem dreidimensionalen Punkt (70) ein Wert zugeordnet ist, der angibt, wie oft der jeweilige dreidimensionale Punkt als zu einer visuellen Kante (38, 39) gehörend eingestuft wurde.
  8. Verfahren nach Anspruch 7, bei dem – unter Heranziehung eines Schwellenwertes ein dreidimensionaler Punkt (70) verworfen wird, dessen zugeordneter Wert unter dem Schwellenwert liegt, – wobei übrig gebliebene dreidimensionale Punkte (70) visuell relevante Konturen des realen Objektes repräsentieren.
  9. Verfahren nach einem der Ansprüche 1 bis 8, bei dem – die Menge an dreidimensionalen Punkten (70) auf Bereiche reduziert wird, die mit hoher Wahrscheinlichkeit für ein späteres Trackingverfahren im Augmented Reality System relevante Konturen des realen Objekts repräsentieren, – wobei ein Schwellenwertverfahren herangezogen wird, wonach dreidimensionale Punkte (70), deren zugeordnete Wahrscheinlichkeit, insbesondere deren zugeordneter Zähler, einen bestimmten Schwellenwert unterschreitet, verworfen werden.
  10. Verfahren nach einem der Ansprüche 1 bis 9, bei dem zur Bestimmung des euklidischen minimalen Spannbaums (201) einer Punktewolke (200) zunächst ein Graph G aufgebaut wird, der alle Punkte der Punktewolke miteinander verbindet, die jeweils eine Distanz zueinander haben, die kleiner oder gleich einem maximal akzeptierten Rauschen r max einer Kante ist.
  11. Verfahren nach Anspruch 10, wobei als euklidischer minimaler Spannbaum des Graphen G ein Baum (201) bestimmt wird, der alle Punkte des Graphen G so miteinander verbindet, dass die Summe ihrer Kantenlänge minimal ist.
  12. Verfahren nach einem der Ansprüche 1 bis 11, bei dem als Algorithmus zur Bestimmung des Spannbaums der Algorithmus von Kruskal oder der Algorithmus nach Prim verwendet wird.
  13. Verfahren nach einem der Ansprüche 1 bis 12, bei dem wenigstens eine Verbindung (220) des ermittelten Spannbaums (201) bestimmt und gelöscht wird derart, dass mehrere separate Spannbäume (202, 203) entstehen, die nahe beieinander liegenden separaten Kanten (211, 212) zugeordnet werden.
  14. Verfahren nach einem der Ansprüche 1 bis 13, bei dem wenigstens ein Teil des Spannbaums bzw. der Spannbäume gemittelt wird, insbesondere mittels einer Schwerpunkts-Bestimmung.
  15. Verfahren nach einem der Ansprüche 1 bis 14, bei dem wenigstens ein Teil der dreidimensionalen Punkte (70) in den Kontursegmenten durch eine geeignete Konturrepräsentation (8185; 91) ersetzt wird, die insbesondere unter Verwendung eines Optimierungsverfahrens mit Linien, B-Splines, Bezier-Splines oder NURBS approximiert wird.
  16. Verfahren nach Anspruch 15, bei dem ein Kontursegment mit einer Sequenz von Liniensegmenten (8185) angenähert wird, bis eine vorgegebene Genauigkeit erreicht ist.
  17. Verfahren nach Anspruch 15 oder 16, bei dem bei geschwungenen Kontursegmenten ein Optimierungsverfahren mit B-Splines (91) verwendet wird.
  18. Verfahren nach einem der Ansprüche 1 bis 17, bei dem bei der Generierung der unterschiedlichen synthetischen zweidimensionalen Ansichten (3134) des CAD-Modells (10) unterschiedliche Lichtsituationen simuliert werden.
  19. Verfahren nach einem der Ansprüche 1 bis 18, bei dem die zweidimensionalen Kanten (38, 39) mittels eines Verfahrens zur Kantenextraktion, insbesondere Sobel oder Canny, extrahiert werden und in Form eines Binärbildes (30) für die Weiterverarbeitung zur Verfügung gestellt werden.
  20. Verfahren nach einem der Ansprüche 1 bis 19, bei dem – für jede zweidimensionale Ansicht (3134) des CAD-Modells (10) eine Falschfarbenansicht (50) mit einzelnen Faces generiert wird, wobei jedem Face eine eindeutige Farbe zugeordnet wird, – für jeden Kantenpunkt an derselben zweidimensionalen Position im Falschfarbenbild der Farbwert nachgeschlagen wird, – der so bestimmte Farbwert als Index benutzt wird für den Zugriff auf das entsprechende Face des CAD-Modells (10), wobei jedes Face des CAD-Modells im dreidimensionalen Raum eine Ebene aufspannt, – eine zu bestimmende dreidimensionale Position (70) eines zweidimensionalen Kantenpunktes der Schnittpunkt der Ebene des entsprechenden Faces des CAD-Modells (10) mit einem Strahl (61, 62) ist, der das Kamerazentrum einer virtuellen Kamera (40) mit dem betreffenden zweidimensionalen Kantenpunkt verbindet.
  21. Verfahren zur Objektverfolgung unter Verwendung eines Datenmodells einer virtuellen Information, das mit einem Abbild eines realen Objekts auf einer Bildebene überlagert wird, mit folgenden Schritten: – Bereitstellen des Datenmodells gemäß den Merkmalen nach einem der Ansprüche 1 bis 20, – Aufnahme eines zweidimensionalen Bildes mit einer Kamera, welches wenigstens das reale Objekt beinhaltet, – Durchführen eines Optimierungsverfahrens, welches das Datenmodell auf die Bildebene projiziert, um eine Projektion des Datenmodells mit dem Abbild des realen Objekts auf der Bildebene zu überlagern.
  22. Verfahren nach Anspruch 21, mit folgenden Schritten: – Vergleich der Projektion des Datenmodells mit dem Abbild des realen Objekts, – Bestimmung von Parametern einer Pose der Kamera aus dem Vergleichsergebnis.
  23. System zur Bestimmung eines Datenmodells einer virtuellen Information, das bestimmt ist, mittels eines Augmented Reality Systems mit einem Abbild eines realen Objekts überlagert zu werden, umfassend: – eine Einrichtung zum Bereitstellen eines dreidimensionalen CAD-Modells (10) zur Nachbildung des realen Objekts, – eine Einrichtung zur Generierung von unterschiedlichen synthetischen zweidimensionalen Ansichten (3134) des CAD-Modells (10), die ferner derart ausgebildet ist, jede generierte Ansicht (3134) einer Kantenextraktion zur Bestimmung wenigstens einer extrahierten Kante (38, 39) in der jeweiligen Ansicht zu unterziehen, – eine Einrichtung zur Umwandlung der aus den jeweiligen Ansichten (3134) extrahierten Kanten (38, 39) zu einem dreidimensionalen Konturmodell (85, 91), das dem Datenmodell entspricht, die folgende Schritte ausführt: – nach der Kantenextraktion werden jeweilige zweidimensionale Kantenpunkte (37) einer extrahierten Kante (38, 39) bestimmt, – bei der Umwandlung der extrahierten Kanten (38, 39) wird mit Hilfe des CAD-Modells (10) eine dreidimensionale Position der jeweiligen Kantenpunkte (37) bestimmt, wobei eine Menge an dreidimensionalen Punkten (70) erhalten wird, aus welchen das dreidimensionale Konturmodell (85, 91) bestimmt wird, – die Menge an dreidimensionalen Punkten (70) wird in zusammengehörende Kontursegmente (7175) aufgeteilt, wobei hierzu ein Algorithmus implementiert ist, anhand dessen ein euklidischer minimaler Spannbaum der dreidimensionalen Punkte ermittelt wird.
  24. Computerprogrammprodukt, das in den internen Speicher eines digitalen Computers geladen werden kann und Softwarecodeabschnitte umfasst, mit denen die Schritte gemäß einem der Ansprüche 1 bis 20 ausgeführt werden, wenn das Produkt auf dem Computer läuft.
DE102006055893A 2006-02-03 2006-11-27 Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung Withdrawn DE102006055893A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102006005044A DE102006005044B4 (de) 2006-02-03 2006-02-03 Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung
DE102006055893A DE102006055893A1 (de) 2006-02-03 2006-11-27 Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung
US11/668,495 US7889193B2 (en) 2006-02-03 2007-01-30 Method of and system for determining a data model designed for being superposed with an image of a real object in an object tracking process
JP2007023037A JP4531069B2 (ja) 2006-02-03 2007-02-01 現実の対象物の画像と重ね合わされるように設計されたデータモデルを決定するための方法及びシステム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102006005044A DE102006005044B4 (de) 2006-02-03 2006-02-03 Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung
DE102006055893A DE102006055893A1 (de) 2006-02-03 2006-11-27 Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung

Publications (1)

Publication Number Publication Date
DE102006055893A1 true DE102006055893A1 (de) 2008-05-29

Family

ID=38333585

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102006005044A Active DE102006005044B4 (de) 2006-02-03 2006-02-03 Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung
DE102006055893A Withdrawn DE102006055893A1 (de) 2006-02-03 2006-11-27 Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE102006005044A Active DE102006005044B4 (de) 2006-02-03 2006-02-03 Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung

Country Status (3)

Country Link
US (1) US7889193B2 (de)
JP (1) JP4531069B2 (de)
DE (2) DE102006005044B4 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009049849A1 (de) * 2009-10-19 2011-04-21 Metaio Gmbh Verfahren zur Bestimmung der Pose einer Kamera und zur Erkennung eines Objekts einer realen Umgebung
DE102012014995A1 (de) * 2012-07-28 2014-01-30 Volkswagen Aktiengesellschaft Verfahren zum Betrieb eines Augmented-Reality-Systems
DE102012113009A1 (de) * 2012-12-21 2014-06-26 Jenoptik Robot Gmbh Verfahren zum automatischen Klassifizieren von sich bewegenden Fahrzeugen
DE102015215613A1 (de) 2015-08-17 2017-03-09 Volkswagen Aktiengesellschaft Verfahren zum Betrieb eines Augmented-Reality-Systems
US10739142B2 (en) 2016-09-02 2020-08-11 Apple Inc. System for determining position both indoor and outdoor

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8218873B2 (en) 2000-11-06 2012-07-10 Nant Holdings Ip, Llc Object information derived from object images
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US9310892B2 (en) 2000-11-06 2016-04-12 Nant Holdings Ip, Llc Object information derived from object images
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
US7899243B2 (en) 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
US8094090B2 (en) * 2007-10-19 2012-01-10 Southwest Research Institute Real-time self-visualization system
EP2176835B9 (de) * 2008-01-23 2017-04-26 Topcon GPS, LLC Approximation von geordneten mengen von punkte durch geometrische punkte mittels überlappenden vielfachen
JP4557041B2 (ja) * 2008-04-18 2010-10-06 株式会社デンソー 車両用画像処理装置
US8346017B2 (en) * 2008-04-30 2013-01-01 Microsoft Corporation Intermediate point between images to insert/overlay ads
FR2933218B1 (fr) * 2008-06-30 2011-02-11 Total Immersion Procede et dispositif permettant de detecter en temps reel des interactions entre un utilisateur et une scene de realite augmentee
JP5094663B2 (ja) * 2008-09-24 2012-12-12 キヤノン株式会社 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法
JP5253066B2 (ja) * 2008-09-24 2013-07-31 キヤノン株式会社 位置姿勢計測装置及び方法
JP5271932B2 (ja) * 2010-02-08 2013-08-21 日本電信電話株式会社 コンクリート画像抽出方法
JP5709906B2 (ja) 2010-02-24 2015-04-30 アイピープレックス ホールディングス コーポレーション 視覚障害者支援用拡張現実パノラマ
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US9208571B2 (en) * 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
CN103020342B (zh) * 2012-12-04 2015-07-15 南京大学 一种从地面LiDAR数据中提取建筑物轮廓和角点的方法
CN103453851B (zh) * 2013-09-18 2017-01-04 沈阳飞机工业(集团)有限公司 一种模胎上零件外形轮廓线的检测方法
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US9530250B2 (en) * 2013-12-10 2016-12-27 Dassault Systemes Augmented reality updating of 3D CAD models
CN103903280B (zh) * 2014-03-28 2017-01-11 哈尔滨工程大学 一种改进水平集目标提取的子块权重Mean-Shift跟踪方法
US20150324646A1 (en) * 2014-05-08 2015-11-12 Brown University Navigation methods and apparatus for the visually impaired
DE102014217718B4 (de) 2014-09-04 2021-12-02 Volkswagen Aktiengesellschaft Verfahren zum Betrieb eines Augmented-Reality-Systems
US9746913B2 (en) 2014-10-31 2017-08-29 The United States Of America As Represented By The Secretary Of The Navy Secured mobile maintenance and operator system including wearable augmented reality interface, voice command interface, and visual recognition systems and related methods
US10142596B2 (en) 2015-02-27 2018-11-27 The United States Of America, As Represented By The Secretary Of The Navy Method and apparatus of secured interactive remote maintenance assist
JP2016173703A (ja) * 2015-03-17 2016-09-29 株式会社ミツトヨ タッチディスプレイを用いた入力操作を支援する方法
CN106144797B (zh) 2015-04-03 2020-11-27 奥的斯电梯公司 用于乘客运输的通行列表产生
CN106144795B (zh) 2015-04-03 2020-01-31 奥的斯电梯公司 通过识别用户操作用于乘客运输控制和安全的系统和方法
CN106144862B (zh) 2015-04-03 2020-04-10 奥的斯电梯公司 用于乘客运输门控制的基于深度传感器的乘客感测
CN106144801B (zh) 2015-04-03 2021-05-18 奥的斯电梯公司 用于特殊乘客运输工具负载状况的基于深度传感器的感测
CN106144861B (zh) 2015-04-03 2020-07-24 奥的斯电梯公司 用于乘客运输控制的基于深度传感器的乘客感测
JP6661980B2 (ja) * 2015-11-06 2020-03-11 富士通株式会社 重畳表示方法、重畳表示装置、及び重畳表示プログラム
JP2017182274A (ja) 2016-03-29 2017-10-05 セイコーエプソン株式会社 情報処理装置およびコンピュータープログラム
JP2017187882A (ja) 2016-04-04 2017-10-12 セイコーエプソン株式会社 画像処理に用いられるコンピュータープログラム
WO2018023736A1 (en) * 2016-08-05 2018-02-08 SZ DJI Technology Co., Ltd. System and method for positioning a movable object
US20180357819A1 (en) * 2017-06-13 2018-12-13 Fotonation Limited Method for generating a set of annotated images
US10621751B2 (en) 2017-06-16 2020-04-14 Seiko Epson Corporation Information processing device and computer program
JP7078056B2 (ja) * 2017-11-30 2022-05-31 株式会社ニコン 検出装置、処理装置、装着物、検出方法、及び検出プログラム
US10552665B2 (en) 2017-12-12 2020-02-04 Seiko Epson Corporation Methods and systems for training an object detection algorithm using synthetic images
US10970425B2 (en) 2017-12-26 2021-04-06 Seiko Epson Corporation Object detection and tracking
US10410089B2 (en) 2018-01-19 2019-09-10 Seiko Epson Corporation Training assistance using synthetic images
US10311833B1 (en) 2018-03-27 2019-06-04 Seiko Epson Corporation Head-mounted display device and method of operating a display apparatus tracking an object
US10769437B2 (en) 2018-04-10 2020-09-08 Seiko Epson Corporation Adaptive sampling of training views
US10878285B2 (en) 2018-04-12 2020-12-29 Seiko Epson Corporation Methods and systems for shape based training for an object detection algorithm
US10634918B2 (en) 2018-09-06 2020-04-28 Seiko Epson Corporation Internal edge verification
DE102018218475B4 (de) 2018-10-29 2022-03-10 Carl Zeiss Optotechnik GmbH Trackingsystem und optisches Messsystem zur Bestimmung mindestens einer räumlichen Position und Orientierung mindestens eines Messobjekts
JP7180283B2 (ja) 2018-10-30 2022-11-30 富士通株式会社 画像処理装置及び画像処理方法
US10810430B2 (en) 2018-12-27 2020-10-20 At&T Intellectual Property I, L.P. Augmented reality with markerless, context-aware object tracking
CN110555260B (zh) * 2019-08-29 2023-10-24 中国南方电网有限责任公司 电缆工作井模型数据处理方法、装置和计算机设备
US11196842B2 (en) 2019-09-26 2021-12-07 At&T Intellectual Property I, L.P. Collaborative and edge-enhanced augmented reality systems
CN112053449A (zh) * 2020-09-09 2020-12-08 脸萌有限公司 基于增强现实的显示方法、设备及存储介质
US11893698B2 (en) * 2020-11-04 2024-02-06 Samsung Electronics Co., Ltd. Electronic device, AR device and method for controlling data transfer interval thereof
CN112818451A (zh) * 2021-02-02 2021-05-18 盈嘉互联(北京)科技有限公司 一种基于vgg的bim模型最佳视觉角度构建方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2116600C (en) 1993-04-10 1996-11-05 David Jack Ittner Methods and apparatus for inferring orientation of lines of text
JP3538263B2 (ja) 1995-08-09 2004-06-14 株式会社日立製作所 画像生成方法
US6304263B1 (en) * 1996-06-05 2001-10-16 Hyper3D Corp. Three-dimensional display system: apparatus and method
US6816629B2 (en) * 2001-09-07 2004-11-09 Realty Mapping Llc Method and system for 3-D content creation
JP4115117B2 (ja) 2001-10-31 2008-07-09 キヤノン株式会社 情報処理装置および方法
US7034820B2 (en) * 2001-12-03 2006-04-25 Canon Kabushiki Kaisha Method, apparatus and program for processing a three-dimensional image
JP3735086B2 (ja) * 2002-06-20 2006-01-11 ウエストユニティス株式会社 作業誘導システム
JP3732158B2 (ja) * 2002-06-24 2006-01-05 富士通株式会社 3次元形状モデルの表示方法及び装置
JP2004280428A (ja) 2003-03-14 2004-10-07 Fuji Heavy Ind Ltd 立体物の表示装置
JP4266737B2 (ja) 2003-07-31 2009-05-20 キヤノン株式会社 画像処理方法および装置
WO2005081191A1 (en) * 2004-02-18 2005-09-01 Bloodworth, Keith Adaptive 3d image modelling system and appartus and method therefor
JP4343744B2 (ja) 2004-03-22 2009-10-14 キヤノン株式会社 画像処理方法、画像処理装置
JP4463597B2 (ja) * 2004-03-24 2010-05-19 富士通株式会社 3次元描画モデル生成方法及びそのプログラム
WO2006083297A2 (en) * 2004-06-10 2006-08-10 Sarnoff Corporation Method and apparatus for aligning video to three-dimensional point clouds
US8396329B2 (en) * 2004-12-23 2013-03-12 General Electric Company System and method for object measurement

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009049849A1 (de) * 2009-10-19 2011-04-21 Metaio Gmbh Verfahren zur Bestimmung der Pose einer Kamera und zur Erkennung eines Objekts einer realen Umgebung
US10062169B2 (en) 2009-10-19 2018-08-28 Apple Inc. Method of providing a descriptor for at least one feature of an image and method of matching features
US10229511B2 (en) 2009-10-19 2019-03-12 Apple Inc. Method for determining the pose of a camera and for recognizing an object of a real environment
US10580162B2 (en) 2009-10-19 2020-03-03 Apple Inc. Method for determining the pose of a camera and for recognizing an object of a real environment
US10650546B2 (en) 2009-10-19 2020-05-12 Apple Inc. Method of providing a descriptor for at least one feature of an image and method of matching features
DE102009049849B4 (de) * 2009-10-19 2020-09-24 Apple Inc. Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
DE102012014995A1 (de) * 2012-07-28 2014-01-30 Volkswagen Aktiengesellschaft Verfahren zum Betrieb eines Augmented-Reality-Systems
DE102012113009A1 (de) * 2012-12-21 2014-06-26 Jenoptik Robot Gmbh Verfahren zum automatischen Klassifizieren von sich bewegenden Fahrzeugen
DE102015215613A1 (de) 2015-08-17 2017-03-09 Volkswagen Aktiengesellschaft Verfahren zum Betrieb eines Augmented-Reality-Systems
US10739142B2 (en) 2016-09-02 2020-08-11 Apple Inc. System for determining position both indoor and outdoor
US11859982B2 (en) 2016-09-02 2024-01-02 Apple Inc. System for determining position both indoor and outdoor

Also Published As

Publication number Publication date
US20070182739A1 (en) 2007-08-09
JP2007207251A (ja) 2007-08-16
US7889193B2 (en) 2011-02-15
DE102006005044A1 (de) 2007-08-16
JP4531069B2 (ja) 2010-08-25
DE102006005044B4 (de) 2011-01-27

Similar Documents

Publication Publication Date Title
DE102006005044B4 (de) Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung
DE69107267T2 (de) Verfahren und vorrichtung zur modifizierung einer zone sukzessiver bilder.
DE69932619T2 (de) Verfahren und system zum aufnehmen und repräsentieren von dreidimensionaler geometrie, farbe und schatten von animierten objekten
DE69807479T2 (de) Erzeugung eines Bildes eines dreidimensionalen Objekts
DE102007045835B4 (de) Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
DE102007045834B4 (de) Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
DE69902262T2 (de) Animationssystem und verfahren zum definieren und anwenden von regelbasierten gruppen von objekten
DE69231923T2 (de) System mit Annäherungsmittel zur Erkennung von graphischen Elementen in einer Zeichnung
DE112019001310T5 (de) Systeme und verfahren zum reduzieren der menge an datenspeicher beim maschinellen lernen
DE3608438A1 (de) Verfahren zum berechnen von freien gekruemmten flaechen mittels computergestuetztem design cad und computergestuetzter herstellung cam und numerischer steuerung nc
DE102005034597A1 (de) Verfahren und Anordnung zur Erzeugung einer Tiefenkarte
EP2528042A1 (de) Verfahren und Vorrichtung zum Re-Meshing von 3D-Polygonmodellen
WO2017153354A1 (de) Verfahren und vorrichtung zum bewerten von blickabbildungen
DE112020005732T5 (de) Erzeugen von trainingsdaten zur objekterkennung
DE102006044595B4 (de) Bildverarbeitungsvorrichtung zur Segmentierung anhand von Konturpunkten
DE102005039703A1 (de) Verfahren zum Aufbau einer Merkmalsdatenbank
EP4121897B1 (de) Verfahren und systeme zum bereitstellen von synthetischen gelabelten trainingsdatensätzen und ihre anwendungen
DE102021133868A1 (de) Mikroskopiesystem und Verfahren zum Modifizieren von Mikroskopbildern im Merkmalsraum eines generativen Netzes
DE102012020778B4 (de) Verfahren zum Labeln einer Sequenz von in zeitlicher Abfolge aufgenommenen Bildern mit integrierter Qualitätsprüfung
EP3174010A2 (de) Verfahren zur erstellung einer 3d-repräsentation und korrespondierende bildaufnahmevorrichtung
WO2020229352A1 (de) Verfahren zum bereitstellen einer objektverfolgungsfunktion
WO2019072451A1 (de) Verfahren zum verarbeiten von bildern
DE102019102423A1 (de) Verfahren zur Live-Annotation von Sensordaten
DE10136649B4 (de) Verfahren und Vorrichtung zur Objekterkennung von sich bewegenden Kraftfahrzeugen
EP2113120B1 (de) Vorrichtung und verfahren zum adaptieren eines maskenbildes

Legal Events

Date Code Title Description
AF Is addition to no.

Ref document number: 102006005044

Country of ref document: DE

Kind code of ref document: P

R005 Application deemed withdrawn due to failure to request examination

Effective date: 20131128