DE102013113490A1 - Verfahren und System zum Schätzen einer Lage einer Kamera - Google Patents

Verfahren und System zum Schätzen einer Lage einer Kamera Download PDF

Info

Publication number
DE102013113490A1
DE102013113490A1 DE102013113490.4A DE102013113490A DE102013113490A1 DE 102013113490 A1 DE102013113490 A1 DE 102013113490A1 DE 102013113490 A DE102013113490 A DE 102013113490A DE 102013113490 A1 DE102013113490 A1 DE 102013113490A1
Authority
DE
Germany
Prior art keywords
camera
marker
image
point
estimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102013113490.4A
Other languages
English (en)
Inventor
Kosuke Hara
Koji Kamiya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Publication of DE102013113490A1 publication Critical patent/DE102013113490A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

Bei einem Verfahren zum Schätzen einer Kameralage basierend auf einer zuletzt erfassten Position einer Markierung und einer passenden Kameralage, die während der aktuellen Rahmenbilderzeugung geliefert werden, wird die Position der Markierung in dem aktuellen Rahmen genähert vorhergesagt. Durch eine Extraktion von Punkten, die nahe der Position einer vorhergesagten Markierung sind, (eine Markierung benachbarende Punkte) wird eine Gruppe von Punkten erhalten. Eine Lage der Kamera (10, 10') (Drehmatrix und Translationsmatrix), die eine Schätzungsfunktion optimiert, wird zum erneut Schätzen der Kameralage verwendet, wobei die Schätzungsfunktion als ihre Bedingung einen Abstand zwischen der Markierung benachbarter Punkte, die die Punktgruppen in sich aufweisen und einer Schätzungsebene (20), auf der die Markierung positioniert ist, benötigt. Die Punktgruppen weisen viele Punkte, die aus der Nachbarschaft der Markierung extrahiert werden, auf, sodass die vorläufig geschätzte genäherte Kameralage selbst in einer Umgebung mit einer Okklusion (30) mit einer höheren Genauigkeit korrigiert und geschätzt werden kann.

Description

  • HINTERGRUND DER ERFINDUNG
  • [Technisches Gebiet der Erfindung]
  • Die vorliegende Erfindung bezieht sich auf ein Verfahren und ein System zu Schätzen einer Lage einer Kamera.
  • [Verwandte Technik]
  • In den letzten Jahren sind mobile Vorrichtungen mit einer hohen Rechenleistung, wie zum Beispiel intelligente Telefone (englisch: Smartphones), schnell populär geworden. Die meisten dieser Informationsendgeräte weisen als eine Bilderzeugungsvorrichtung eine Kamera auf. Die Informationsendgeräte liefern Kommunikationscharakteristiken, die einfach Audioinformationen und Textinformationen verwenden. Die Informationsendgeräte weisen zusätzlich ferner Kommunikationscharakteristiken, die Bildinformationen verwenden, auf. In Begleitung mit der wachsenden Popularität von solchen mobilen Vorrichtungen machen sich Benutzer zunehmend mit einer Technologie, auf die als erweiterte Realität (AR; AR = augmented reality) Bezug genommen ist, und einer Technologie zum Wiederherstellen einer dreidimensionalen Form eines Gegenstands aus eingefangenen Bildern vertraut. Bei der AR-Technologie wird beispielsweise, wenn ein Bild eines Zielobjekts durch die Kamera in dem Informationsendgerät eingefangen wird, eine Bemerkung, die sich auf das Zielobjekt bezieht, dem Bild überlagert und angezeigt. Die folgende Nicht-Patent-Bezugnahme 1 berichtet beispielsweise über ein Verfahren für eine dreidimensionale Messung unter Verwendung einer Rot-, Grün-, Blau- und Tiefen-(RGB-D-; RGB-D = red, green, blue and depth)Kamera.
  • Bei Technologien, wie zum Beispiel jene, die im Vorhergehenden beschrieben sind, wird eine Kalibrierung eines Koordinatensystems einer Umgebung, die in einem zweidimensionalen Bild eingefangen wird, und eines Koordinatensystems einer tatsächlichen Umgebung durchgeführt. Um die Kalibrierung durchzuführen, müssen die Position und die Lage des Benutzers (der Kamera) bekannt sein.
  • Auf dem Gebiet der AR-Technologie wird daher ein folgendes Verfahren vorgeschlagen. Bei dem Verfahren wird eine Markierung, deren Position, Form und Farbe bereits bekannt sind, im Voraus in der tatsächlichen Umgebung angeordnet. Ein Bild der Markierung wird durch die Kamera eingefangen. Die Lage der Kamera wird dann durch das Bild geschätzt, indem dasselbe analysiert wird. In der Vergangenheit wurde oftmals eine rechtwinklige Markierung als eine solche Markierung (beispielsweise Bezug nehmend auf die folgende Nicht-Patent-Bezugnahme 2) verwendet.
    [Nicht-Patent-Bezugnahme 1] Lieberknecht S., Huber A., Ilic S., Benhimane S., "RGB-D Camera-based Parallel Tracking and Meshing," The 10th IEEE and ACM International Symposium on Mixed and Augmented Reality, Okt. 26.–29. (2011)
    [Nicht-Patent-Bezugnahme 2] Kato, et al., "An Augmented Reality System and its Calibration based on Marker Tracking," Journal of the Virtual Reality Society of Japan, Band 4, Nr. 4, S. 607–616 (1999))
  • Um unter Verwendung der Markierung die Lage der RGB-D-Kamera zu berechnen, wird durch die RGB-D-Kamera zuerst der rechtwinklige Bereich der Markierung erkannt. Die Kameralage wird dann unter Verwendung der Koordinaten der Spitzen bzw. Ecken des Rechtecks geschätzt.
  • Der dreidimensionale Raum hat jedoch zusätzlich zu den zweidimensionalen Beziehungen, die nach oben/nach unten und links/recht sind, eine Vor-/Rück-Beziehung. Es tritt daher ein Zustand auf, bei dem ein Objekt, das vorne anwesend ist, einen Gegenstand, der sich dahinter befindet, verdeckt. Auf diesen Zustand ist als eine Okklusion bzw. Verdeckung Bezug genommen. In einer Umgebung, die zahlreiche Kabel und Komponenten hat, verursachen diese Kabel und Komponenten, dass eine Okklusion in zahlreichen Perspektiven auftritt. Wenn ein Abschnitt der Markierung als ein Resultat einer Okklusion verdeckt ist, wird eine Erfassung des rechtwinkligen Bereichs schwierig. Eine genaue Schätzung der Kameralage wird schwierig.
  • KURZFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung wurde im Lichte der im Vorhergehenden beschriebenen Probleme erreicht. Eine Aufgabe der vorliegenden Erfindung besteht darin, ein Verfahren zum Ermöglichen einer Schätzung einer Kameralage mit einer hohen Genauigkeit selbst in einer Umgebung, in der eine Okklusion auftritt, und ein System zum Durchführen des Verfahrens zu schaffen.
  • Um die im Vorhergehenden beschriebenen Probleme zu lösen, ist ein Verfahren zum Schätzen eine Kameralage der vorliegenden Erfindung ein Verfahren zum Schätzen einer Lage einer Kamera mit einer hohen Genauigkeit. Die Kamera ist fähig, ein Intensitätsbild und ein Tiefenbild zu gewinnen. Das Verfahren weist einen Schritt eines Sammelns von Informationen über Bilder, die durch die Kamera in einer Umgebung, in der eine planare Markierung angeordnet ist, eingefangen werden, einen Schritt eines Berechnens einer Position der planaren Markierung aus Bildern, in denen die planare Markierung ohne eine Okklusion eingefangen wird, einen Schritt eines Extrahierens von lokalisierten Charakteristikpunkten zum Berechnen einer Kameralage für jeden Rahmen aus dem Intensitätsbild und dem Tiefenbild jedes Rahmens, die durch eine Bilderzeugung gewonnen werden, einen Schritt eines Durchführens einer Zuordnung zwischen den extrahierten Charakteristikpunkten eins zu eins zwischen Rahmen basierend auf einem Abstand zwischen Beschreibern bzw. Deskriptoren, einen Schritt eines Schätzens einer genäherten Kameralage während einer Bilderzeugung eines spezifizierten Rahmens, in dem eine Markierung, die durch eine Okklusion verdeckt ist, eingefangen wird, basierend auf der Zuordnung zwischen den Charakteristikpunkten, einen Schritt eines Vorhersagens einer genäherten Position der Markierung in Bezug auf den spezifizierten Rahmen basierend auf der Position der Markierung und der genäherten Kameralage, einen Schritt eines Wandelns eines dreidimensionalen Punktes, den das Tiefenbild des spezifizierten Rahmens in sich aufweist, in ein Weltkoordinatensystem unter Verwendung der genäherten Kameralage und eines Extrahierens einer Punktgruppe innerhalb eines vorbestimmten Abstands von der vorhergesagten genäherten Position der Markierung und einen Schritt eines erneuten Schätzens der Kameralage während einer Bilderzeugung des spezifizierten Rahmens durch Bestimmen einer Kameralage, die eine Bewertungsfunktion optimiert, die einen Abstand zwischen einer Markierung benachbarter Punkte, die in den Punktgruppen enthalten sind, und einer Schätzungsebene, auf der die Markierung positioniert ist, definiert, auf.
  • Ein System zur Schätzung einer Kameralage der vorliegenden Erfindung ist zusätzlich ein System zum Schätzen einer Kameralage mit einer hohen Genauigkeit durch Durchführen des Verfahrens der vorliegenden Erfindung. Das System weist eine Kamera, die Bilder einer tatsächlichen Umgebung, in der eine planare Markierung angeordnet ist, einfängt, und einen Computer, der eine Verarbeitung der Bilder, die durch die Kamera eingefangen werden, durchführt, auf. Die Kamera ist fähig, ein Intensitätsbild und ein Tiefenbild zu gewinnen. Der Computer weist einen berechnenden Abschnitt, der Schritte, die das Verfahren der vorliegenden Erfindung aufweist, durchführt, auf.
  • [WIRKUNGEN DER ERFINDUNG]
  • Bei dem Verfahren zum Schätzen einer Kameralage der vorliegenden Erfindung wird zuerst basierend auf einer Position der Markierung, die vorausgehend erfasst wurde, und einer genäherten Kameralage während einer Bilderzeugung des aktuellen Rahmens eine genäherte Position der Markierung in Bezug auf den aktuellen Rahmen vorhergesagt. Eine Punktgruppe wird durch Punkte (eine Markierung benachbarter Punkte), die nahe der vorhergesagten Markierungsposition anwesend sind, die extrahiert werden, bestimmt.
  • Dann wird eine Kameralage (Drehmatrix und Translationsmatrix), die eine Bewertungsfunktion, von der eine Bedingung der Abstand zwischen einem eine Markierung benachbartem Punkt, den die Punktgruppe in sich aufweist, und einer Schätzungsebene, auf der die Markierung positioniert ist, ist, optimiert, bestimmt. Als ein Resultat wird die Kameralage erneut geschätzt.
  • Die Punktgruppe weist eine bedeutsam große Zahl von Punkten, die von nahe der Markierung extrahiert wurden, auf. Eine Schätzung der Kameralage kann daher mit einer bedeutsam hohen Genauigkeit durchgeführt werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Es zeigen:
  • 1 ein Konzeptdiagramm zum Erleichtern eines Verständnisses eines Verfahrens zum Schätzen einer Kameralage der vorliegenden Erfindung;
  • 2 ein Flussdiagramm zum Beschreiben der Schritte bei einem Beispiel des Verfahrens zum Schätzen einer Kameralage der vorliegenden Erfindung;
  • 3 ein Diagramm zum Erläutern von Zahlen von vier Spitzen einer rechtwinkligen Markierung und einer Größe 20 der rechtwinkligen Markierung; und
  • 4 ein Diagramm zum Erläutern eines Bereichs, der verwendet wird, um zu beurteilen, ob ein Punkt fm k nahe der Markierung ist oder nicht, wobei der Punkt fm k ein dreidimensionaler Punkt hm k eines Tiefenbilds eines Bilds k, das in ein allgemeines Koordinatensystem (Weltkoordinatensystem) gewandelt wird, ist.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSBEISPIELE
  • Ein Verfahren und ein System zum Schätzen einer Lage einer Kamera der vorlegenden Erfindung sind unter Bezugnahme auf die Zeichnungen beschrieben.
  • Wie im Vorhergehenden beschrieben ist, hat zusätzlich zu den zweidimensionalen Beziehungen, die nach oben/nach unten und links/rechts sind, der dreidimensionale Raum eine Vor-/Rück-Beziehung. Ein Zustand tritt daher auf, bei dem ein Objekt, das vorne anwesend ist, einen Gegenstand, der im Hintergrund ist, verdeckt. Wenn ein Abschnitt einer Markierung als ein Resultat einer Okklusion verdeckt ist, wird eine Erfassung eines rechtwinkligen Bereichs schwierig. Eine genaue Schätzung der Kameralage wird schwierig.
  • Basierend auf einer Position der Markierung, die vorausgehend erfasst wurde, und einer genäherten Kameralage während einer Bilderzeugung eines aktuellen Rahmens wird daher zuerst eine genäherte Position der Markierung in Bezug auf den aktuellen Rahmen vorhergesagt. Eine Punktgruppe ist durch Punkte (eine Markierung benachbarter Punkte), die nahe der vorhergesagten Markierungsposition anwesend sind, die extrahiert werden, bestimmt.
  • Die Punkte, die die Punktgruppe in sich aufweist, können als ein Teil der Markierung betrachtet werden. In einem Fall, in dem die Markierung eine Ebene ist, sollten jedoch diese Punkte auf der gleichen Ebene wie die Punktgruppe der Markierung, die vorausgehend erfasst wurde, sein. Ein Abstand von einem eine Markierung benachbartem Punkt, den die Punktgruppe in sich aufweist, zu der Ebene, auf der die Markierung positioniert ist, kann als ein Schätzungsfehler zwischen der genäherten Kameralage und der wahren Kameralage betrachtet werden.
  • Basierend auf dieser Kenntnis ist bei der vorliegenden Erfindung eine Bewertungsfunktion (Kostenfunktion) definiert. Eine Bedingung der Bewertungsfunktion ist der Abstand von dem eine Markierung benachbartem Punkt, den die Punktgruppe in sich aufweist, zu der Markierungsebene. Die Kameralage wird durch die Lage der Kamera (Drehmatrix und Translationsmatrix), die die Bewertungsfunktion, die bestimmt wird, optimiert, erneut geschätzt. Die Punktgruppe weist eine sehr große Zahl von Punkten, die nahe der Markierung extrahiert werden, auf. Die Kameralage kann daher mit einer sehr hohen Genauigkeit geschätzt werden.
  • 1 ist ein Diagramm eines Konzeptsystems zum Erleichtern eines Verständnisses des Verfahrens zum Schätzen einer Lage einer Kamera gemäß einer Ausführungsform der vorliegenden Erfindung. Die Kamera ist beispielsweise an einem Arm eines Industrieroboters befestigt.
  • In 1 stellen Bezugsziffern 10 und 10' jeweils eine Kamera dar. Die Lagen der Kameras 10 und 10' unterscheiden sich. Eine Bezugsziffer 20 stellt eine Ebene, auf der die Markierung positioniert ist (Schätzungsebene), dar. Eine Bezugsziffer 30 stellt eine Okklusion dar. Eine Bezugsziffer 40 stellt einen Beurteilungsbereich (der im Folgenden beschrieben ist) zum Extrahieren von Punkten nahe der Markierung dar. Dreieckige Symbole in 1 geben eine Punktgruppe eines Markierungsbereichs in einem vorausgehenden eingefangenen Bild an. Kreisförmige Symbole geben eine Punktgruppe (eine Punktgruppe, die nahe dem vorausgehenden Markierungsbereich ausgewählt wurde) eines Markierungsbereichs in einem Bild, das neu eingefangen wurde, an. Bei der vorliegenden Erfindung wird ein Abstand zwischen der Punktgruppe und der Markierungsebene (Schätzungsebene) als ein „Fehler” in der Kameralage betrachtet.
  • 2 ist ein Flussdiagramm zum Erläutern der Schritte bei einem Beispiel des Verfahrens zum Schätzen einer Lage einer Kamera der vorliegenden Erfindung. Die Schritte werden durch beispielsweise einen Computer (eine zentrale Verarbeitungseinheit [CPU; CPU = central processing unit]) durchgeführt.
  • Details einer Verarbeitung, die bei jedem Schritt durchgeführt wird, sind im Folgenden beschrieben.
  • [Eingangsbildsatz] (Schritt S101)
  • In einer Umgebung, in der die planare Markierung angeordnet ist, wird zuerst eine Mehrzahl von Bildern (N Bildern) aus unterschiedlichen Kameralagen eingefangen. Die Bilder werden dann in den Computer eingegeben. Die Markierung ist lediglich erforderlich, um fähig zu sein, zu ermöglichen, dass die Kameralage aus einem Bild genau bestimmt wird. In der folgenden Beschreibung wird angenommen, dass die Markierung eine rechtwinklige Markierung ist, die oftmals bei einer AR verwendet wird.
  • Die Kamera, die verwendet wird, um hierin Bilder einzufangen, ist hier eine Kamera, die fähig ist, ein Intensitätsbild und ein Tiefenbild zu gewinnen. Hier ist die Kamera eine RGB-D-Kamera, die fähig ist, RGB-Intensitätsinformationen für jedes Pixel und Abstandsinformationen über den Abstand zu einem Gegenstand zu gewinnen. Als ein Resultat einer Bilderzeugung durch die RGB-D-Kamera werden mit anderen Worten die RGB-Intensitätsinformationen für jedes Pixel und die Abstandsinformationen über den Abstand zu dem Gegenstand aus der Mehrzahl von Bildern, die von der angeordneten Markierung eingefangen werden, gewonnen. Eine Sammlung dieser Bilder ist im Folgenden Φ.
  • [Formel 1]
    • Φ = {1, ....,N}
  • Die RGB-D-Kamera ist beispielsweise eine KINECT (die durch Microsoft hergestellt wird) (eingetragene Marke) oder XTION Pro LIVE (die durch ASUS hergestellt wird) (eingetragene Marke). Eine RGB-Kamera und eine Tiefenkamera sind an diesen Kameras fixiert. Wenn eine Kalibrierung der relativen positionellen Lagen der RGB-Kamera und der Tiefenkamera durchgeführt wird, können der RGB-Intensitätswert für jedes Pixel und die Informationen über den Abstand zu dem Gegenstand gewonnen werden.
  • [Berechnen von lokalen Charakteristiken] (Schritt S102)
  • Lokale Charakteristiken zum Bestimmen einer genäherten Kameralage werden aus den Bilden, die die Bildsammlung Φ in sich aufweist, berechnet. Ein Algorithmus zum Berechnen von solchen lokalen Charakteristiken ist beispielsweise eine maßstabsinvariante Charakteristiktransformierte (SIFT; SIFT = scale-invariant features transform) oder sind beschleunigte robuste Charakteristiken (SURF; SURF = speeded up robust features). Wenn man beispielsweise das Bild k herannimmt, werden eine dreidimensionale Position Mk und ein Deskriptor Dk, wie es im Folgenden beschrieben ist, für eine Zahl Ik von Charakteristikpunkten erhalten. Die RGB-Intensitätsinformationen und die Abstandsinformationen über den Abstand zu dem Gegenstand werden mit anderen Worten aus der im Vorhergehenden beschriebenen Mehrzahl von Bildern extrahiert.
  • [Formel 2]
    • Mk = {m k / i|i = 1, ..., Ik), m k / i = [m k / x,i, m k / y,i, m k / z,i]T
  • [Formel 3]
    • Dk = {d k / i|i = 1, ..., Ik}
  • [Durchführen einer Zuordnung zwischen Bildern] (Schritt S103)
  • Als Nächstes wird zwischen Charakteristikpunkten, die ein einzelnes Bild unter der Mehrzahl von Bildern in sich aufweist, und Charakteristikpunkten, die ein anderes Bild in sich aufweist, eine Zuordnung durchgeführt. Die Zuordnung wird zwischen extrahierten Charakteristikpunkten eins zu eins zwischen Bildern basierend auf einem Abstand in einem Charakteristikgrößenraum durchgeführt. In einem Fall, in dem ein Charakteristikpunkt i, den das Bild k in sich aufweist, und ein Charakteristikpunkt j, den ein Bild h in sich aufweist, den gleichen Punkt in einer Umgebung angeben, wird der Abstand D (di k*, dj k) zwischen Deskriptoren der lokalen Charakteristiken, der bei dem Schritt S102 berechnet wird, klein. Als ein Resultat eines Schwellenvergleichs des Abstands D zwischen Deskriptoren können daher Charakteristikpunkte in unterschiedlichen Bildern einander zugeordnet werden. Eine Zuordnung der Charakteristikpunkte in der Bildsammlung Φ wird platziert, wie in Ψ im Folgenden. Eine Zuordnung wird jedoch nicht zwischen den gleichen Charakteristikpunkten und in dem gleichen Bild durchgeführt.
  • [Formel 4]
    • Ψ = {(i, j, k, h)|D(dj k, dj k*) < Schwelle, i ∊ Dk, j ∊ Dh, k ≠ h, k ∊ Φ, h ∊ Φ}
  • [Berechnen einer genäherten Kameralage] (Schritt S104)
  • Hier wird eine genäherte Kameralage, wenn das Bild k eingefangen wird, bei (Rc k, tc k) platziert. Rc k ist eine Drehmatrix. tc k ist eine Translationsmatrix.
  • Eine Kostenfunktion EI ist wie folgt definiert. Die genäherte Kameralage (Rc k, tc k) wird bestimmt, um die Kostenfunktion EI zu minimieren. [Formel 5]
    Figure DE102013113490A1_0002
    ist hier wie folgt definiert. [Formel 6]
    Figure DE102013113490A1_0003
  • [Formel 7]
    • v k / i = RC km k / i + tC k
  • Das im Vorhergehenden beschriebene εij hk ist eine Differenz zwischen Koordinaten von zugeordneten Charakteristikpunkten. Die genäherte Kameralage (Rc k, tc k), an der das Bild k eingefangen wurde, wird aus der Kostenfunktion EI, die aus der Differenz zwischen den Koordinaten der zugeordneten Charakteristikpunkte erhalten wird, geschätzt.
  • Eine Berechnung für eine Minimierung der Kostenfunktion EI wird durch ein nicht lineares Optimierungsverfahren durchgeführt. Das Levenberg-Marquardt-Verfahren kann beispielsweise verwendet werden. Während dieser Berechnung wird eine robuste Schätzung zum Verhindern von fehlerhaften entsprechenden Punkten eingeführt. Die robuste Schätzung ist beispielsweise ein M-Schätzer (robuste Schätzung) oder eine Zufallsstichprobenübereinstimmung (RANSAC; RANSAC = random sample consensus). Da jedoch diese Verfahren allgemein verwendet werden, sind Beschreibungen derselben hierin weggelassen.
  • Die Genauigkeit der genäherten Kameralage (Rc k, tc k), die durch die im Vorhergehenden beschriebenen Prozeduren erhalten wird, hängt von der Zahl von zugeordneten Charakteristikpunkten pro Bild ab. Eine Genauigkeit wird schwach, wenn die Zahl der zugeordnet Charakteristikpunkte klein ist. Im Allgemeinen ist die Zahl der zugeordneten Charakteristikpunkte mehrere Zehner pro Bild. Eine Schätzung der Kameralage mit einer hohen Genauigkeit ist daher oftmals schwierig.
  • Die Kameralage, bei der das Bild k eingefangen wurde, wird daher durch die folgenden Prozeduren erneut geschätzt. Punkte nahe der Markierung, die in dem Bild k erfasst werden, werden basierend auf der genäherten Kameralage als eine Punktgruppe extrahiert. Die Bewertungsfunktion, von der eine Bedingung der Abstand von dem eine Markierung benachbartem Punkt, den die Punktgruppe in sich aufweist, zu der Ebene, auf der die Markierung positioniert ist, ist, wird optimiert.
  • [Berechnen einer repräsentierenden Lage einer Markierung] (Schritt S105)
  • Die Markierung wird in einer Mehrzahl von Bildern eingefangen. Eine repräsentative Position (repräsentative Lage) der Markierung wird daher durch eine Berechnung bestimmt. Eine Sammlung Ξ, die eine Zahl R von Markierungen in der Umgebung platziert, wird wie folgt platziert. Eine Identifizierung (ID) von 1 bis R wird für jede Markierung eingestellt. Die ID ermöglicht eine Identifikation durch eine Textur.
  • [Formel 8]
    • Ξ = {1, ...., R}
  • Wenn man die Markierung r als ein Beispiel nimmt, wird eine repräsentative Position der Markierung r bestimmt. Die Lage der Markierung, die in dem Bild eingefangen wird, und die Markierungs-ID können durch ein bekanntes Verfahren bestimmt werden.
  • Spitzenkoordinaten (Kamerakoordinatensystem) der rechtwinkligen Markierung, wenn die Markierung r in dem Bild k erfasst wird, werden beispielsweise platziert wie in Qk,r im Folgenden.
  • [Formel 9]
    • Qk,r = {qλ k,r|λ = 1, ..., 4} qλ k,r = [qx,λ k,r, qy,λ k,r, qz,λ k,r]T
  • Wie in 3 gezeigt ist, drücken 1 bis 4 des tiefgestellten Index λ im Vorhergehenden die Zahl der vier Spitzen der rechtwinkligen Markierung aus.
  • Wenn die Rechteckgröße eines Markierungsmodells, das die wahre Form der Markierung ausdrückt, 2θ (mm) ist, können die Koordinaten der Spitzen durch die folgenden Ausdrücke ausgedrückt werden.
  • [Formel 10]
    • q 1 = [–θ, 0, θ]T q 2 = [–θ, 0, –θ]T q 3 = [θ, 0, –θ]T q 4 = [θ, 0, θ]T
  • Um eine repräsentative Position Wr der Markierung zu berechnen, werden Koordinaten (Rm r, tm r), die die Kostenfunktion EI im Folgenden minimieren, bestimmt. [Formel 11]
    Figure DE102013113490A1_0004
  • Eine Berechnung zur Minimierung der Kostenfunktion EM r kann durch ein nicht lineares Optimierungsverfahren oder ein lineares Optimierungsverfahren durchgeführt werden. Das Levenberg-Marquardt-Verfahren kann beispielsweise verwendet werden.
  • Wenn die Koordinaten (Rm r, tm r) bestimmt werden, kann die repräsentative Position Wr der Markierung wie folgt berechnet werden.
  • [Formel 12]
    • Wr = {RM r q λ + tM r|λ = 1, ..., 4}
  • [Extrahieren der Punktgruppe nahe der Markierung] (Schritt S106)
  • Alle dreidimensionalen Punkte Yk des Tiefenbilds des Bilds k werden wie im Folgenden beschrieben platziert. Alle dreidimensionalen Punkte hm k, die das Tiefenbild des Bilds k in sich aufweist, werden mit anderen Worten bestimmt.
  • [Formel 13]
    • h k / m = [h k / x,m, h k / y,m, h k / z,m,]T m ∊ Yk
  • Als Nächstes wird eine Sammlung der Punktgruppen von Koordinatenpunkten nahe der Markierung bestimmt und durch eine folgende Prozedur eingestellt. [Formel 14]
    Figure DE102013113490A1_0005
  • Ein Punkt fm k wird durch den folgenden Ausdruck bestimmt. Der Punkt fm k ist der dreidimensionale Punkt hm k des Tiefenbilds des Bilds k, das unter Verwendung der genäherten Kameralage, die, wie im Vorhergehenden beschrieben ist, bestimmt wird, in ein zwischen Rahmen gemeinsam verwendetes Koordinatensystem (Weltkoordinatensystem) gewandelt wird.
  • [Formel 15]
    • f k / m = RC kh k / m + tC k
  • Eine Funktion b(fm k, Wr), die verwendet wird, um die Sammlung von Punktgruppen zu bestimmen, kehrt zu „wahr” zurück, wenn fm k nahe der Markierung ist. Die Funktion b(fm k, Wr) kehrt zu „falsch” zurück, wenn fm k nicht nahe der Markierung ist.
  • 4 ist ein Diagramm zum Erläutern eines Beispiels eines Beurteilungsbereichs zum Beurteilen, ob fm k nahe der Markierung ist oder nicht.
  • Bei dem Beispiel, das in 3 gezeigt ist, ist ein rechtwinkliger Parallelepipedbereich, der das Rechteck Wr der Markierung r ist, das in der Normalenrichtung der Markierungsebene um α (mm) und in der Richtung entgegengesetzt zu der Normalen um β (mm) erweitert ist, der Beurteilungsbereich. Der dreidimensionale Punkt hm k innerhalb des rechtwinkligen Parallelepipedbereichs wird als „wahr” bestimmt und als ein Punkt, der die Markierungsbereichspunktgruppe konfiguriert, extrahiert. Der dreidimensionale Punkt hm k außerhalb des rechtwinkligen Parallelepipedbereichs wird als „falsch” bestimmt und nicht als die Punktgruppe extrahiert.
  • [Durchführen einer hochgenauen Berechnung einer Kameralage] (Schritt S107)
  • Die Kostenfunktion der Markierungsbereichspunktgruppe wird zu der im Vorhergehenden beschriebenen Kostenfunktion EI addiert, und eine neue Kostenfunktion EF wird definiert. [Formel 16]
    Figure DE102013113490A1_0006
    [Formel 17]
    Figure DE102013113490A1_0007
  • [Formel 18]
    • v k / i = Rkm k / i + tk
  • [Formel 19]
    • δ k,r / m = –nr T(Rkh k / m + tk – dr
  • Die Symbole nr T und dr in den Funktionsausdrücken im Vorhergehenden geben Parameter einer Ebene, zu der die Markierungsbereichspunktgruppe gehört, an.
  • Eine Kameralage (Rk, tk) und Ebenenparameter, die die Kostenfunktion EF minimieren, werden bestimmt.
  • Die Summe einer zweiten Kostenfunktion, die aus den Punkten, die als die Markierungsbereichspunktgruppe extrahiert werden, erhalten wird, und einer ersten Kostenfunktion EI, die im Vorhergehenden beschrieben ist, wird neu als die Kostenfunktion EF definiert. Die Kameralage davon, wenn das Bild k eingefangen wird, wird aus der Kostenfunktion EF geschätzt.
  • Eine Berechnung für eine Minimierung der Kostenfunktion EF kann durch das nicht lineare Optimierungsverfahren durchgeführt werden. Das Levenberg-Marquardt-Verfahren kann beispielsweise verwendet werden. Während dieser Berechnung wird eine robuste Schätzung zum Verhindern von fehlerhaften entsprechenden Punkten eingeführt. Die robuste Schätzung ist beispielsweise ein M-Schätzer (robuste Schätzung) oder eine Zufallsstichprobenübereinstimmung (RANSAC). Da jedoch diese Verfahren allgemein verwendet werden, sind Beschreibungen derselben hierin weggelassen.
  • Eine Kostenfunktion (zweites Element) hinsichtlich der Markierungsbereichspunktgruppe wird zu der ersten Kostenfunktion EF addiert. Die Kostenfunktion des zweiten Elements weist Informationen von mehreren Zehnern von Tausenden von dreidimensionalen Punkten, die die Markierungsbereichspunktgruppe in sich aufweist, auf.
  • Als ein Resultat hat die Kameralage (Rk, tk), die durch eine Berechnung für eine Minimierung der Kostenfunktion EF erhalten wird, eine bedeutsam höhere Genauigkeit als die Kameralage (Rc k, tc k), die durch die Berechnung für eine Minimierung der Kostenfunktion EI erhalten wird.
  • Ein Koeffizient η eines zweiten Elements der Kostenfunktion EF ist ein positiver Wert. Das Gleichgewicht zwischen den lokalen Charakteristiken und der Markierungsbereichspunktgruppe wird angepasst. Wenn der Markierungsbereich derart angeordnet ist, um in der Umgebung lokalisiert zu sein, kann eine Schätzungsgenauigkeit der Kameralage verringert werden, wenn die Wirkung des Markierungsbereichs zu stark ist. Um die Wirkung der lokalen Charakteristiken und die Wirkung der Punktgruppe des Markierungsbereichs anzugleichen, ist der Koeffizient η durch eine folgenden Ausdruck definiert.
  • [Formel 20]
    • η = 3|Ψ|/|Ω|
  • Wie im Vorhergehenden beschrieben ist, wird bei dem Verfahren zum Schätzen einer Kameralage der vorliegenden Erfindung zuerst basierend auf der Position der Markierung, die vorausgehend erfasst wurde, und der genäherten Kameralage während einer Bilderzeugung des aktuellen Rahmens die genäherte Position der Markierung in Bezug auf den aktuellen Rahmen vorhergesagt. Punkte (eine Markierung benachbarter Punkte) nahe der vorhergesagten Markierungsposition werden als eine Punktgruppe bestimmt. Es wird eine Kameralage (Drehmatrix und Translationsmatrix) bestimmt, die die Bewertungsfunktion optimiert, wobei die Bewertungsfunktion den Abstand zwischen dem eine Markierung benachbartem Punkt, der in der Punktgruppe enthalten ist, und der Schätzungsebene, auf der die Markierung positioniert ist, festlegt. Durch diese Bestimmung kann die Kameralage erneut geschätzt werden.
  • Als ein Resultat der im Vorhergehenden beschriebenen Optimierung der Bewertungsfunktion wird die Kameralage, die im Voraus geschätzt wurde, korrigiert. Eine Schätzung der Kameralage kann selbst in einer Umgebung, in der eine Okklusion auftritt, mit einer hohen Genauigkeit durchgeführt werden.
  • Eine derartige Schätzung der Kameralage kann unter Verwendung eines Systems, das eine Kamera und einen Computer aufweist, mit einer hohen Geschwindigkeit durchgeführt werden. Die Kamera fängt Bilder einer tatsächlichen Umgebung, in der eine planare Markierung angeordnet ist, ein. Der Computer führt eine Verarbeitung der Bilder, die durch die Kamera eingefangen wurden, durch. Die im Vorhergehenden beschriebenen Schritte können durch eine Berechnung durch den Computer verarbeitet werden.
  • [GEWERBLICHE ANWENDBARKEIT]
  • Die vorliegende Erfindung kann ein Verfahren zum Ermöglichen einer Schätzung einer Kameralage mit einer hohen Genauigkeit selbst in einer Umgebung, in der eine Okklusion auftritt, und ein System zum Durchführen des Verfahrens liefern.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • Lieberknecht S., Huber A., Ilic S., Benhimane S., ”RGB-D Camera-based Parallel Tracking and Meshing,” The 10th IEEE and ACM International Symposium on Mixed and Augmented Reality, Okt. 26.–29. (2011) [0004]
    • Kato, et al., ”An Augmented Reality System and its Calibration based on Marker Tracking,” Journal of the Virtual Reality Society of Japan, Band 4, Nr. 4, S. 607–616 (1999)) [0004]

Claims (6)

  1. Verfahren zum Schätzen einer Lage einer Kamera (10, 10') mit einer Genauigkeit, wobei die Kamera (10, 10') fähig ist, ein Intensitätsbild und ein Tiefenbild zu gewinnen, mit folgenden Schritten: Sammeln (101) von Informationen über Bilder, die durch die Kamera (10, 10') in einer Umgebung (20), in der eine planare Markierung angeordnet ist, eingefangen werden; Bestimmen einer Position der planaren Markierung aus Bildern, in denen die planare Markierung ohne eine Okklusion (30) eingefangen wird; Extrahieren (102) von lokalisierten Charakteristikpunkten zum Berechnen der Lage der Kamera (10, 10') für jeden Rahmen aus dem Intensitätsbild und dem Tiefenbild jedes Rahmens, die durch eine Bilderzeugung gewonnen werden; Durchführen (103) einer Zuordnung zwischen den extrahierten Charakteristikpunkten eins zu eins zwischen Rahmen basierend auf einem Abstand zwischen Deskriptoren; Schätzen (S104) einer genäherten Lage der Kamera (10, 10') während einer Bilderzeugung eines spezifizierten Rahmens, in dem eine Markierung, die durch eine Okklusion (30) verdeckt ist, eingefangen wird, basierend auf der Zuordnung zwischen den Charakteristikpunkten; Vorhersagen einer genäherten Position der Markierung in Bezug auf den spezifizierten Rahmen basierend auf der Position der Markierung und der genäherten Kameralage; Extrahieren (106) von Punktgruppen innerhalb eines vorbestimmten Abstands von der vorhergesagten genäherten Position der Markierung durch Wandeln eines dreidimensionalen Punkts, den das Tiefenbild des spezifizierten Rahmens in sich aufweist, in ein Weltkoordinatensystem unter Verwendung der genäherten Lage der Kamera (10, 10'); und erneut Schätzen (107) der Lage der Kamera (10, 10') während einer Bilderzeugung des spezifizierten Rahmens durch Bestimmen einer Kameralage, die eine Bewertungsfunktion optimiert, die einen Abstand zwischen einem eine Markierung benachbarenden Punkt, der in den Punktgruppen enthalten ist, und einer Schätzungsebene (20), auf der die Markierung positioniert ist, festlegt.
  2. Verfahren zum Schätzen einer Lage einer Kamera (10, 10') nach Anspruch 1, bei dem der Schritt eines Extrahierens (102) der lokalisierten Charakteristikpunkte zum Berechnen der Lage der Kamera (10, 10') ein Schritt eines Extrahierens aus jeweiligen Bildern k, die eine Bildsammlung in sich aufweist, von Ik Stücken der Charakteristikpunkte ist, die basierend auf einer dreidimensionalen Position Mk und einem Deskriptor Dk erhalten werden, die basierend auf folgenden Formeln berechnet werden: Mk = {m k / i|i = 1, ..., Ik), m k / i = [m k / x,i, m k / y,i, m k / z,i]T Dk = {d k / i|i = 1, ..., Ik}; der Schritt eines Durchführens (S103) der Zuordnung zwischen den extrahierten Strukturpunkten eins zu eins zwischen den Rahmen ein Schritt eines Durchführens der Zuordnung zwischen dem Strukturpunkt I, den das Bild k in sich aufweist, das die Bildsammlung Φ in sich aufweist, und dem Charakteristikpunkt j, den das Bild h in sich aufweist, ist und gemäß folgender Formel Ψ = {(i, j, k, h)|D(dj k, dj h) < Schwelle, i ∊ Dk, j ∊ Dh, k ≠ h, k ∊ Φ, h ∊ Φ} in Fällen berechnet wird, in denen ein Abstand zwischen den Deskriptoren kleiner als eine Schwelle ist; und der Schritt eines Schätzens (104) der genäherten Lage der Kamera (10, 10') ein Schritt eines Schätzens einer Lage der Kamera (Rck, tck) ist, der eine Schätzungsfunktion EI minimiert, die durch folgende Formeln
    Figure DE102013113490A1_0008
    definiert ist.
  3. Verfahren zum Schätzen einer Lage einer Kamera (10, 10') nach Anspruch 2, bei dem der Schritt eine Vorhersagens der genäherten Position der Markierung ein Berechnen (105) einer repräsentierenden Position Wr der Markierung aus Koordinaten (RM r, tM r) ist, die eine Schätzungsfunktion EM r minimiert, die durch folgende Formeln definiert ist:
    Figure DE102013113490A1_0009
    wobei eine Sammlung Ξ von R Stücken von Markierungen, die in einer Bilderzeugungsumgebung anwesend sind, definiert ist als Ξ = {1, ...., R}, Koordinaten Qk,r von vier Spitzen einer rechtwinkligen Markierung r, die in dem Bild k erfasst wird, definiert sind als Qk,r = {qλ k,r|λ = 1, ..., 4} qλ k,r = [qx,λ k,r, qy,λ k,r, qz,λ k,r]T, und die Koordinaten der Spitzen der Markierung als durch folgende Formeln definiert angenommen werden: q 1 = [–θ, 0, θ]T q 2 = [–θ, 0, –θ]T q 3 = [θ, 0, –θ]T q 4 = [θ, 0, θ]T, wobei eine rechtwinklige Größe eines Markierungsmodells, das eine wahre Form der Markierung zeigt, als 20 ausgedrückt ist.
  4. Verfahren zum Schätzen einer Lage einer Kamera (10, 10') nach Anspruch 3, bei dem der Schritt eines Extrahierens (106) der Punktgruppe innerhalb des vorbestimmten Abstands von der vorhergesagten genäherten Position der Markierung folgende Schritte aufweist: Bestimmen von allen dreidimensionalen Punkten hm k, die das Tiefenbild Yk des Bilds k in sich aufweist, basierend auf folgender Formel: h k / m = [h k / x,m, h k / y,m, h k / z,m,]T m ∊ Yk, Bestimmen eines Punktes fm k unter Verwendung der genäherten Lage der Kamera (10, 10') basierend auf folgender Formel: f k / m = RC kh k / m + tC k, wobei der Punkt fm k einen Punkt zeigt, der durch Wandeln des dreidimensionalen Punkts hm k des Tiefenbilds des Bilds k auf einen dreidimensionalen Punkt in einem Weltkoordinatensystem erhalten wird, und Bestimmen einer Sammlung gemäß folgender Formel:
    Figure DE102013113490A1_0010
    durch Extrahieren des Punkts fm k, der nahe der Markierung ist, als ein Punkt, der zu den Punktgruppen gehört.
  5. Verfahren zum Schätzen einer Lage einer Kamera (10, 10') nach Anspruch 4, bei dem der Schritt eines erneut Schätzens (107) der Lage der Kamera während einer Bilderzeugung des spezifizierten Rahmens folgende Schritte aufweist: Definieren einer Schätzungsfunktion EF basierend auf folgenden Formeln:
    Figure DE102013113490A1_0011
    (wobei (nr T, dr) ein Parameter ist, der eine Ebene angibt, zu der die Punktgruppen nahe der Markierung gehören), und Schätzen der Lage der Kamera (Rk, tk), die die Schätzungsfunktion EF minimiert.
  6. System zum Schätzen einer Lage einer Kamera (10, 10') mit einer Genauigkeit durch Durchführen eines Verfahrens nach einem der Ansprüche 1 bis 5, mit folgenden Merkmalen: einer Kamera (10, 10'), die Bilder einer tatsächlichen Umgebung, in der eine planare Markierung angeordnet ist, einfängt; und einem Computer, der eine Verarbeitung der Bilder, die durch die Kamera (10, 10') eingefangen werden, durchführt, wobei die Kamera (10, 10') fähig ist, ein Intensitätsbild und ein Tiefenbild zu erhalten, und der Computer eine berechnende Einheit, die Prozeduren, die durch die Schritte in jedem Anspruch definiert sind, durchführt, aufweist.
DE102013113490.4A 2012-12-05 2013-12-04 Verfahren und System zum Schätzen einer Lage einer Kamera Ceased DE102013113490A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012266465A JP2014112055A (ja) 2012-12-05 2012-12-05 カメラ姿勢の推定方法およびカメラ姿勢の推定システム
JP2012-266465 2012-12-05

Publications (1)

Publication Number Publication Date
DE102013113490A1 true DE102013113490A1 (de) 2014-06-05

Family

ID=50726173

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013113490.4A Ceased DE102013113490A1 (de) 2012-12-05 2013-12-04 Verfahren und System zum Schätzen einer Lage einer Kamera

Country Status (3)

Country Link
US (1) US9165365B2 (de)
JP (1) JP2014112055A (de)
DE (1) DE102013113490A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3377853A4 (de) * 2015-11-20 2019-07-17 Magic Leap, Inc. Verfahren und systeme zur grossflächigen bestimmung von rgb-kamerapositionen

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6464938B2 (ja) * 2015-06-16 2019-02-06 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6575325B2 (ja) 2015-11-27 2019-09-18 富士通株式会社 カメラ位置姿勢推定装置、カメラ位置姿勢推定方法およびカメラ位置姿勢推定プログラム
JP6280147B2 (ja) * 2016-03-18 2018-02-14 本田技研工業株式会社 無人走行作業車
US9686539B1 (en) 2016-06-12 2017-06-20 Apple Inc. Camera pair calibration using non-standard calibration objects
WO2018078986A1 (ja) * 2016-10-24 2018-05-03 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN108335327B (zh) * 2017-01-19 2021-09-24 富士通株式会社 摄像机姿态估计方法和摄像机姿态估计装置
CN109326118B (zh) * 2018-09-17 2020-10-20 青岛海信网络科技股份有限公司 一种车队位置预测方法及装置
CN111562791A (zh) * 2019-03-22 2020-08-21 沈阳上博智像科技有限公司 一种无人机合作目标识别视觉辅助着陆的系统及方法
CN109903346B (zh) * 2019-05-13 2019-09-06 长沙智能驾驶研究院有限公司 相机姿态检测方法、装置、设备及存储介质
CN112097742B (zh) * 2019-06-17 2022-08-30 北京地平线机器人技术研发有限公司 一种位姿确定方法及装置
CN112766023B (zh) * 2019-11-04 2024-01-19 北京地平线机器人技术研发有限公司 目标对象的姿态确定方法、装置、介质及设备
CN113499137B (zh) * 2021-07-07 2022-07-12 南开大学 一种手术机器人导航定位系统及测量视角多目标优化方法
CN113902847B (zh) * 2021-10-11 2024-04-16 岱悟智能科技(上海)有限公司 基于三维特征约束的单目深度图像位姿优化方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7362969B2 (en) * 2001-05-29 2008-04-22 Lucent Technologies Inc. Camera model and calibration procedure for omnidirectional paraboloidal catadioptric cameras
US8896660B2 (en) * 2003-05-30 2014-11-25 Alcatel Lucent Method and apparatus for computing error-bounded position and orientation of panoramic cameras in real-world environments
JP4537104B2 (ja) * 2004-03-31 2010-09-01 キヤノン株式会社 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法
JP4757142B2 (ja) * 2006-08-10 2011-08-24 キヤノン株式会社 撮影環境校正方法及び情報処理装置
JP5248806B2 (ja) * 2007-04-25 2013-07-31 キヤノン株式会社 情報処理装置、情報処理方法
US20100045701A1 (en) * 2008-08-22 2010-02-25 Cybernet Systems Corporation Automatic mapping of augmented reality fiducials
US8339459B2 (en) * 2009-09-16 2012-12-25 Microsoft Corporation Multi-camera head pose tracking

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Kato, et al., "An Augmented Reality System and its Calibration based on Marker Tracking," Journal of the Virtual Reality Society of Japan, Band 4, Nr. 4, S. 607-616 (1999))
Lieberknecht S., Huber A., Ilic S., Benhimane S., "RGB-D Camera-based Parallel Tracking and Meshing," The 10th IEEE and ACM International Symposium on Mixed and Augmented Reality, Okt. 26.-29. (2011)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3377853A4 (de) * 2015-11-20 2019-07-17 Magic Leap, Inc. Verfahren und systeme zur grossflächigen bestimmung von rgb-kamerapositionen
US11838606B2 (en) 2015-11-20 2023-12-05 Magic Leap, Inc. Methods and systems for large-scale determination of RGBD camera poses

Also Published As

Publication number Publication date
US20140169636A1 (en) 2014-06-19
JP2014112055A (ja) 2014-06-19
US9165365B2 (en) 2015-10-20

Similar Documents

Publication Publication Date Title
DE102013113490A1 (de) Verfahren und System zum Schätzen einer Lage einer Kamera
DE102015005267B4 (de) Informationsverarbeitungsvorrichtung, Verfahren dafür und Messvorrichtung
DE112014004190T5 (de) Positurschätzverfahren und Roboter
DE102015015194A1 (de) Bildverarbeitungsvorrichtung und -verfahren und Programm
US20160249041A1 (en) Method for 3d scene structure modeling and camera registration from single image
WO2019221013A4 (en) Video stabilization method and apparatus and non-transitory computer-readable medium
DE112011100652T5 (de) Dreidimensionale messvorrichtung, verarbei- tungsverfahren und nichtflüchtiges computer- lesbares speichermedium
DE202009019126U1 (de) Dreidimensionale Beschriftungen für Strassenansichtsdaten
CN104760812B (zh) 基于单目视觉的传送带上产品实时定位系统和方法
DE112011103452T5 (de) Verfahren zum Angleichen von Pixeln einer Entfernungsdarstellung
DE112016002022T5 (de) Managen von merkmalsdaten zur umgebungsabbildung auf einer elektronischen vorrichtung
DE102015200260A1 (de) Verfahren zum Erstellen eines Deskriptors für ein Szenenbild
Cherian et al. Accurate 3D ground plane estimation from a single image
CN110599522A (zh) 一种视频序列中动态目标检测剔除方法
DE112018003571T5 (de) Informationsverarbeitungsvorrichtung und Informationsverarbeitungsverfahren
WO2014048481A1 (de) Verfahren und bildverarbeitungsanlage zum bestimmen von parametern einer kamera
CN112991374A (zh) 基于Canny算法的边缘增强方法、装置、设备及存储介质
CN110120012B (zh) 基于双目摄像头的同步关键帧提取的视频拼接方法
CN115082777A (zh) 基于双目视觉的水下动态鱼类形态测量方法及装置
CN112884795A (zh) 一种基于多特征显著性融合的输电线路巡检前景与背景分割方法
CN107578001B (zh) 测试指纹采集设备的分辨率的方法及装置
DE102021107479A1 (de) Erfassung einer dreidimensionalen pose durch mehrere 2d-kameras
CN105138979A (zh) 基于立体视觉的运动人体头部检测方法
AT511460A4 (de) Verfahren zur bestimmung der position eines luftfahrzeugs
DE102004026782A1 (de) Verfahren und Vorrichtung zur rechnergestützten Bewegungsschätzung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, computerlesbares Speichermedium und Computerprogramm-Element

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: KUHNEN & WACKER PATENT- UND RECHTSANWALTSBUERO, DE

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final