DE112013003541B4 - Verfahren, Programm und System zur Merkmalextraktion - Google Patents

Verfahren, Programm und System zur Merkmalextraktion Download PDF

Info

Publication number
DE112013003541B4
DE112013003541B4 DE112013003541.3T DE112013003541T DE112013003541B4 DE 112013003541 B4 DE112013003541 B4 DE 112013003541B4 DE 112013003541 T DE112013003541 T DE 112013003541T DE 112013003541 B4 DE112013003541 B4 DE 112013003541B4
Authority
DE
Germany
Prior art keywords
sum
image
feature
routine
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112013003541.3T
Other languages
English (en)
Other versions
DE112013003541T5 (de
Inventor
c/o IBM Research Takahashi Toshihiro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of DE112013003541T5 publication Critical patent/DE112013003541T5/de
Application granted granted Critical
Publication of DE112013003541B4 publication Critical patent/DE112013003541B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)

Abstract

ProblemstellungBereitstellung einer Methode zum schnellen und widerstandsfähigen SfM-Erhalt (Structure from Motion, Struktur aus Bewegung).Mittel zur ProblemlösungEin als Server dienendes Computersystem empfängt von einem Smartphone ein Bild und Ergebnisse von Messungen mit einem Beschleunigungssensor. Das Computersystem extrahiert zunächst nur vertikale Kanten aus dem Bild. Hierfür erhält das System anhand des Beschleunigungssensors einen Schwerkraftvektor. Anschließend verwendet das System den Schwerkraftvektor, um in der vertikalen Richtung eines Bildschirmkoordinatensystems einen Fluchtpunkt (u', v') zu erhalten. Danach berechnet das Computersystem in u- und v-Richtung des Bildschirmkoordinatensystems Differenzvektoren der Intensität eines jeden Bildpunkts (u, v). Im Anschluss daran erhält das Computersystem die Summe der Kantenstärken eines Satzes von Kanten, die sich entlang der vertikalen Richtung befinden, und extrahiert anhand der Summe eine Linie in der vertikalen Richtung. Das Computersystem berechnet Merkmalvektoren um die extrahierte Linie.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf eine Methode zum Extrahieren von Merkmalmengen aus einem Bild, um eine Standortschätzung durchzuführen.
  • Hintergrund
  • In den vergangenen Jahren ist eine steigende Nachfrage nach Methoden zum Schätzen von Standorten in Innenräumen zu beobachten, um den Verlauf des Kundenverkehrs an Orten wie Einkaufszentren und öffentlichen Einrichtungen zu analysieren und den Warenbestand zu kontrollieren.
  • Ein Standort lässt sich in einem Innenraum nur schwer genau schätzen, da eine drahtlose Einheit wie z.B. eine WLAN- oder RFID-Einheit bei der Nutzung in Innenräumen stark rauscht. GPS (Global Positioning System, Globales Positionsbestimmungssystem) stellt eine vergleichsweise genaue Standortschätzung bereit, kann jedoch in Innenräumen nicht genutzt werden. Aus diesem Grund rückte eine Methode ins Blickfeld, bei der eine Kamera an einem sich bewegenden Objekt befestigt ist, um ein Bild aufzunehmen, und das aufgenommene Bild analysiert wird, um Aussagen zu dem Standort zu treffen.
  • Hiermit in Zusammenhang stehende, existierende Methoden beinhalten Methoden, wie sie in WO2008/087974 offenbart werden. WO2008/087974 bezieht sich auf eine Methode zum Berechnen einer Positionsbeziehung zwischen mehreren Kameras und eine Methode zum Erzeugen einer Benutzeroberfläche auf der Grundlage der berechneten Positionsbeziehung und offenbart eine Berechnung der Positionen mehrerer Kameras auf der Grundlage eines aufgenommenen Bilds ohne Verwendung von GPS.
  • Hironobu Fujiyoshi, „Gradient-Based Feature Extraction: SIFT and HOG", Information Processing Society of Japan Technical Report, CVIM [Computer Vision and Image Media], 2007, (87), Seiten 211 bis 224, 03.September 2007, stellt eine Zusammenfassung des SIFT-Algorithmus (Scale-Invariant Feature Transform, skaleninvariante Merkmaltransformation) bereit und beschreibt die Erkennung von Extremwerten in einem DoG-Bild (Difference of Gaussian, Differenz von zwei Gaußkernen) und in HOG (Histograms of Oriented Gradients, Histogramme von orientierten Gradienten).
  • Die Veröffentlichung „Computation of ego-motion and structure from Visual and Internal Sensors Using the Vertical Cue” betrifft ein Verfahren zur Gewinnung von Ansichten einer 3D-Struktur und Bewegung einer Szene für den Fall eines virtuellen, sich bewegenden Beobachters mit visuellen und odometrischen Sensoren. Der Beobachter versucht, eine 3D-Tiefen- und kinematische Karte seiner Umgebung zu bilden, die fixierte oder bewegte Objekte umfassen kann. Dabei werden Vertikalen im Bild zur Structure from Motion – Bildung genutzt, wobei die Schwerkraft als Indikator für die vertikale Achse dient, und es wird ferner der Umstand genutzt, dass sich vertikale Linien in einem Fluchtpunkt schneiden (Viéville, Thierry; Clergue, Emmanuelle; Facao, P.E. Dos Santos: „Computation of ego-motion and structure from Visual and Internal Sensors Using the Vertical Cue"; Computer Vision, 1993 Proceedings, Fourth International Conference on IEEE, 1993, S. 5.).
  • JP2011-53181 A offenbart eine Orientierungsschätzung unter Verwendung von SIFT-Merkmalmengen, um eine zuverlässige Informationsterminal-Vorrichtung bereitzustellen, die in der Lage ist, die Orientierung eines Benutzers zu schätzen und Anzeige-Informationen auf einer Anzeige gemäß dem Ergebnis der Schätzung zu steuern, ohne dass hierfür ein geomagnetischer Sensor einbezogen werden muss.
  • SIFT ist eine von mehreren Methoden zur Extraktion von Bildmerkmalen und bezieht sich auf eine Erkennung von Merkmalpunkten und ein Verfahren zum Berechnen von Merkmalvektoren um einen Merkmalpunkt. Bekannt ist daneben auch SfM (Structure from Motion, Struktur aus Bewegung), wobei es sich um eine Methode handelt, um aus einem Bild eine dreidimensionale Positionsbeziehung zwischen Singularitätspunkten und Kamerapositionen zu rekonstruieren. SfM wird z.B. in JP10-40385A , JP2009-237845A und JP2009-237847A beschrieben.
  • SfM ist eine Methode, bei der Merkmalpunkte wie z.B. Ecken aus einem Bild extrahiert und die Intensitätswerte von 8 × 8 Bildpunkten um einen Bildpunkt herum so angeordnet werden, dass auf einfache Weise ein 64-Bit-Merkmalvektor erzeugt wird oder dass andernfalls Merkmalvektoren aus Bildpunkten um den Merkmalpunkt herum berechnet werden, sowie ein Abgleich einer Vielzahl von Bildpunkten durchgeführt wird. Auf diese Weise können die dreidimensionale Position des Merkmalpunkts und die Position der Kamera zur gleichen Zeit rekonstruiert werden.
  • Für einen stabilen SfM-Erhalt ist ein Verfahren zur Merkmalmengenberechnung erforderlich, das widerstandsfähig gegenüber Rauschen ist, d.h. das widerstandsfähig gegenüber Schwankungen in einem Bild sowie widerstandsfähig gegenüber einer Drehung und Skalierung des Bilds ist. Bei herkömmlichen Verfahren besteht hier jedoch das Problem eines hohen Berechnungsaufwands. Für einen SfM-Erhalt ist im Allgemeinen ein Ausmaß an Berechnung erforderlich, das proportional zu der Anzahl von Bildpunkten ist, weshalb Überlegungen zum Berechnungsaufwand von grundlegender Bedeutung sind.
  • Liste der Anführungen
  • Patentliteratur
    • Patentliteratur 1 WO2008/087974
    • Patentliteratur 2 JP2011-53181A
    • Patentliteratur 3 JP10-40385A
    • Patentliteratur 4 JP2009-237845A
    • Patentliteratur 5 JP2009-237847A
  • Nichtpatentliteratur
  • Nichtpatentliteratur 1 Hironobu Fujiyoshi, „Gradient-Based Feature Extraction: SIFT and HOG", Information Processing Society of Japan Technical Report, CVIM [Computer Vision and Image Media], 2007, (87), Seiten 211 bis 224, 03. September 2007
  • Kurzdarstellung der Erfindung
  • Technische Problemstellung
  • Eine Aufgabe der vorliegenden Erfindung besteht somit darin, eine Methode für einen schnellen und widerstandsfähigen SfM-Erhalt bereitzustellen.
  • Problemlösung
  • Die vorliegende Erfindung löst das Problem, indem sie sich die Tatsache zunutze macht, dass viele bei SfM verwendete Merkmale Linien sind, die parallel zur Richtung der Schwerkraft verlaufen, und dass mobile Einheiten wie beispielsweise Smartphones einen Beschleunigungssensor bzw. ein Gyroskop beinhalten.
  • Gemäß der vorliegenden Erfindung empfängt ein als ein Server dienendes Computersystem von einem Smartphone über eine Datenübertragungsfunktion ein Bild und Ergebnisse von Messungen mit einem Beschleunigungssensor.
  • Das Computersystem extrahiert zunächst nur vertikale Kanten aus dem Bild. Zu diesem Zweck verwendet das Computersystem den Beschleunigungssensor, um einen Schwerkraftvektor in einem Kamerakoordinatensystem zu erhalten. Anschließend verwendet das System den Schwerkraftvektor, um in der vertikalen Richtung eines Bildschirmkoordinatensystems einen Fluchtpunkt (u', v') zu erhalten.
  • Danach berechnet das Computersystem in u- und v-Richtungen des Bildschirmkoordinatensystems Differenzvektoren einer Intensität eines jeden Bildpunkts (u, v). Das Computersystem erhält eine cos-Komponente, die durch jeden Differenzvektor und (U' - u, v' - v) gebildet wird, normalisiert die beiden Vektoren mit einer Länge von 1 und berechnet im Anschluss daran das innere Produkt der Vektoren. Wenn der absolute Wert von cos größer als oder gleich einem bestimmten Schwellenwert ist, stellt das Computersystem fest, dass der Bildpunkt eine vertikale Kante aufweist.
  • Danach erhält das Computersystem die Summe von Kantenstärken in der vertikalen Richtung für einen Satz von Kanten, der entlang der vertikalen Richtung angeordnet ist. Genauer gesagt wandelt das Computersystem die Bildschirmkoordinaten (u, v) in Kamerakoordinaten um und projiziert die beiden Achsen von Bildschirmkoordinaten (u, v) auf eine Achse. Das Computersystem berechnet den absoluten Wert eines Differenzvektors bei (u, v) und schreibt den absoluten Wert in eine Tabelle sum[q].
  • Nach der Bereitstellung von sum[q] nimmt das Computersystem an, dass sum[q] ein in horizontaler Richtung gestrecktes Bild mit w × 1 ist, und berechnet anhand einer DoG-Funktion Extremwerte. Das Computersystem verwendet die Extremwerte zum Berechnen von Merkmalmengen.
  • Vorteilhafte Wirkung der Erfindung
  • Gemäß der vorliegenden Erfindung werden Kanten entlang der vertikalen Richtung aus einem Bild erkannt und Ergebnisse von Messungen mit einem Beschleunigungssensor von einer mobilen Einheit empfangen, und die Kanten werden zum Extrahieren von Merkmalen verwendet, so dass eine schnelle Positionsschätzung mit einem geringeren Berechnungsaufwand durchgeführt werden kann.
  • Figurenliste
    • 1 ist eine Darstellung, die eine Erlangung von Beschleunigungsdaten und Bilddaten unter Verwendung eines Smartphones und eine Übertragung der Daten an den Computer zur Verarbeitung in einem Innenraum veranschaulicht;
    • 2 ist ein Blockschaubild, das ein Beispiel einer Hardware eines Computers veranschaulicht, das mit der vorliegenden Erfindung verwendet werden kann;
    • 3 ist ein Funktionsblockschaubild eines Prozesses gemäß der vorliegenden Erfindung;
    • 4 ist ein Ablaufplan eines Prozesses zum Berechnen von sum;
    • 5 ist ein Ablaufplan eines Prozesses zum Berechnen von DoG und Erkennen von Extremwerten;
    • 6 ist ein Ablaufplan eines Prozesses zum Berechnen einer Merkmalmenge;
    • 7 ist eine Darstellung, die eine Beziehung zwischen einem Kamerakoordinatensystem, einem Bildschirm und der Richtung der Schwerkraft veranschaulicht;
    • 8 ist eine Darstellung, die ein Verfahren veranschaulicht, um Koordinaten eines Bildpunkts auf zwei Achsen auf eine Achse zu projizieren, die orthogonal zur Richtung der Schwerkraft verläuft;
    • 9 ist eine Darstellung, die eine Projektion von Linien, welche Bildpunkte mit einem Fluchtpunkt verbinden und senkrecht zu einer Bodenoberfläche verlaufen, auf einen Bildschirm veranschaulicht; und
    • 10 ist eine Darstellung, die extrahierte Schlüsselpunkte in einem Bild veranschaulicht.
  • Beschreibung der Ausführungsformen
  • Mit Blick auf die Zeichnungen wird eine als Beispiel dienende Ausführungsform der vorliegenden Erfindung beschrieben. Sofern nicht anderweitig festgelegt, bezeichnen gleichlautende Bezugsziffern gleichartige Elemente. Dabei sei darauf verwiesen, dass die folgenden Erörterungen eine Beschreibung einer Ausführungsform der vorliegenden Erfindung sind und die vorliegende Erfindung nicht auf das beschränken sollen, was in Zusammenhang mit der als Beispiel dienenden Ausführungsform beschrieben wird.
  • 1 ist eine Darstellung, die eine allgemeine Konfiguration eines Beispiels zum Durchführen der vorliegenden Erfindung schematisch veranschaulicht. In 1 befinden sich standortbezogene Merkmalobjekte wie z.B. ein Schrank 104 in einem Raum 102.
  • Eine Bedienperson 106 macht mit einem Smartphone 108, das einen Beschleunigungssensor und die Funktion einer Kamera beinhaltet, eine Aufnahme von einer Innenraumszene des Raums 102 und überträgt die Daten des aufgenommenen Bilds und Messdaten des Beschleunigungssensors mittels drahtloser Datenübertragung an einen Computer, der sich in dem Raum befindet.
  • Der Computer 110 empfängt die übertragenen Bilddaten und Messdaten des Beschleunigungssensors, extrahiert anhand der Daten Merkmale und führt einen Prozess zum Schätzen des Standorts durch. Der Computer 110 kann sich an einem entfernten Ort befinden, sofern der Computer 110 eine Konfiguration aufweist, die in der Lage ist, Messdaten des Beschleunigungssensors und Bilddaten von dem Smartphone 108 zu empfangen. In diesem Fall werden die Daten über eine Empfangsstation wie z.B. eine WLAN-Station an den Computer 110 übertragen, der sich an einem entfernten Ort befindet. Alternativ dazu kann in dem Smartphone 108 ein später beschriebener Prozess zum Extrahieren von Merkmalen durchgeführt werden, da heutige Smartphones eine hohe Leistungsfähigkeit aufweisen. Um die Erläuterung zu vereinfachen, sollen die Prozesse zur Merkmalextraktion und Positionsschätzung in der folgenden Beschreibung der als Beispiel dienenden Ausführungsform auf einem Computer 110 durchgeführt werden, der von dem Smartphone 108 getrennt ist.
  • 2 ist ein Blockschaubild, das eine Hardwarekonfiguration des Computers 110 veranschaulicht. In 2 sind eine Zentraleinheit 204 (Central Processing Unit, CPU), ein Hauptspeicher (Random Access Memory, RAM) 206, ein Festplattenlaufwerk (Hard Disk Drive, HDD) 208, eine Tastatur 210, eine Maus 212 und eine Anzeige 214 mit einem Systembus 202 verbunden. Die CPU 204 beruht vorzugsweise auf einer 32-Bit- oder 64-Bit-Architektur und kann z.B. ein Core (Handelsmarke) i7 oder Core (Handelsmarke) i5 der Intel Corporation oder ein AMD Athlon (Handelsmarke) II sein. Der Hauptspeicher 206 hat vorzugsweise eine Kapazität von mindestens 4 GB.
  • Eine Datenübertragungsschnittstelle 216 ist ebenfalls mit dem Systembus 202 verbunden. Die Datenübertragungsschnittstelle 216 ist in der Lage, über eine Antenne 218 gemäß einem Standard wie beispielsweise IEEE 802.11a/b/g mit dem Smartphone 108 Daten auszutauschen. Dabei ist zu beachten, dass das Verfahren, mit dem der Computer 110 Daten von dem Smartphone 108 empfängt, nicht auf IEEE 802.11a/b/g beschränkt ist; vielmehr kann jedes beliebige Verfahren wie z.B. eine Paketdatenübertragung verwendet werden.
  • Auf dem Festplattenlaufwerk 208 ist ein Betriebssystem gespeichert. Bei dem Betriebssystem kann es sich um ein beliebiges mit der CPU 204 kompatibles Betriebssystem handeln, z.B. Linux (Handelsmarke), Windows 7 (Handelsmarke) bzw. Windows XP (Handelsmarke) der Microsoft Corporation oder Mac OSC (Handelsmarke) von Apple Computer Inc.
  • Auf dem Festplattenlaufwerk 208 sind des Weiteren ein Hauptprogramm 302, eine Routine 306 zur Berechnung von sum, eine Routine 308 zur DoG-Berechnung und Extremwerterkennung sowie eine Routine 310 zur Merkmalmengenberechnung gespeichert, die weiter unten mit Blick auf 3 beschrieben werden. Die Programme/Routinen können in einer beliebigen vorhandenen Programmsprache wie z.B. C, C++ und Java (R) geschrieben sein.
  • 3 ist ein Blockschaubild einer Softwarekonfiguration eines Teils des Computers 110, die Funktionen in Zusammenhang mit der vorliegenden Erfindung ausführt.
  • In 3 wird als Reaktion auf eine Betätigung der Tastatur 210 oder der Maus 210 das Hauptprogramm 302 aktiviert, empfängt über einen Mechanismus wie z.B. WLAN anhand der Funktion des Datenübertragungsmoduls 304 Bilddaten und Messdaten des Beschleunigungssensors von dem Smartphone 108 und speichert die Daten vorzugsweise auf dem Festplattenlaufwerk 208.
  • Das Hauptprogramm 302 aktiviert die Routine 306 zur Berechnung von sum, die Routine 308 zur DoG-Berechnung und Extremwerterkennung und die Routine 310 zur Merkmalmengenberechnung, um gemäß der vorliegenden Erfindung auf der Grundlage der Bilddaten und Messdaten des Beschleunigungssensors, die von dem Smartphone 108 übertragen wurden, eine Merkmalextraktion zu beginnen.
  • Genauer gesagt, führt die Routine 306 zur Berechnung von sum einen Prozess durch, um sum, bei dem es sich um ein eindimensionales Array handelt, aus den Bilddaten und Messdaten des Beschleunigungssensors zu berechnen, die von dem Smartphone 180 übertragen wurden. Der Prozess der Routine 306 zur Berechnung von sum wird weiter unten mit Blick auf einen Ablaufplan in 4 ausführlich erläutert.
  • Die Routine 308 zur DoG-Berechnung und Extremwerterkennung verwendet einen Wert von sum, der durch die Routine 306 zur Berechnung von sum berechnet wurde, um einen Prozessor zum Berechnen von DoG und Erkennen von Extremwerten durchzuführen. Der Prozess der Routine 308 zur DoG-Berechnung und Extremwerterkennung wird weiter unten mit Blick auf einen Ablaufplan in 5 beschrieben.
  • Die Routine 310 zur Merkmalmengenberechnung führt einen Prozess zum Berechnen von Merkmalmengen auf der Grundlage von Extremwerten (Schlüsselpunkten) durch, die durch die Routine 308 zur DoG-Berechnung und Extremwerterkennung erkannt wurden. Der Prozess der Routine 310 zur Merkmalmengenberechnung wird weiter unten mit Blick auf einen Ablaufplan in 6 ausführlich beschrieben.
  • Der Prozess der Routine 306 zur Berechnung von sum wird im Folgenden mit Blick auf den Ablaufplan aus 4 beschrieben. Wie in Schritt 402 veranschaulicht, wird die Routine 306 zur Berechnung von sum durch das Hauptprogramm 302 aufgerufen, wobei die Intensitätswerte I(u, v) eines Bilds und ein Schwellenwert als Argumente verwendet werden. Dabei ist jeder der Intensitätswerte I(u, v) des Bilds die Intensität eines Bildpunkts an Bildpunktkoordinaten (x, y) = (u, v). In einer als Beispiel dienenden Ausführungsform wird der Schwellenwert auf einen Wert von 0,95 gesetzt.
  • Die Routine 306 zur Berechnung von sum erhält in Schritt 404 einen Fluchtpunkt u', v'. Genauer gesagt berechnet die Routine 306 zur Berechnung von sum einen Fluchtpunkt u', v' gemäß der folgenden Formel: u' = f * x g / z g + w / 2
    Figure DE112013003541B4_0001
    v' = f * y g / z g + h / 2
    Figure DE112013003541B4_0002
    wobei w die Breite des Bilds, h die Höhe des Bilds, f die Brennweite und Vg = (xg, yg, zg) der Vektor eines Beschleunigungswerts ist, der die von dem Smartphone 108 empfangene Richtung der Schwerkraft angibt.
  • In Schritt 406 erhält die Routine 306 für die Berechnung von sum gemäß der folgenden Formel du(u, v), dv(u, v) und dlen(u, v) für jeden Bildpunkt (u, v): d u ( u , v ) = d I ( u , v ) d u = I ( u + 1, v ) I ( u 1, v ) 2 d v ( u , v ) = d I ( u , v ) d v = I ( u , v + 1 ) I ( u , v 1 ) 2 d l e n ( u , v ) = d u ( u , v ) 2 + d v ( u , v ) 2
    Figure DE112013003541B4_0003
  • Dabei ist du(u, v) ein Differenzial bei (u, v) in u-Richtung, und dv(u, v) ist ein Differenzial bei (u, v) in v-Richtung.
  • Obwohl jedes der hier berechneten Differenziale der Mittelwert aus einer Vorwärtsdifferenz und einer Rückwärtsdifferenz ist, kann gegebenenfalls jedes beliebige Verfahren zum Berechnen von Differenzialen verwendet werden. So kann z.B. nur eine Vorwärtsdifferenz oder nur eine Rückwärtsdifferenz berechnet werden.
  • Danach erhält die Routine 306 zur Berechnung von sum in Schritt 408 gemäß der folgenden Formel für jeden Bildpunkt (u, v) eine Cosinuskomponente c(u, v) des Winkels, der von einem auf den Fluchtpunkt zeigenden Vektor (u' - u, v' - v) und (-dv(u, v), du(u, v)) gebildet wird: c ( u , v ) = ( u ' u ) d v ( u , v ) + ( v ' v ) d u ( u , v ) ( u ' u ) 2 + ( v ' v ) 2 d u ( u , v ) 2 + d v ( u , v ) 2
    Figure DE112013003541B4_0004
  • Im Anschluss daran erhält die Routine 306 zur Berechnung von sum in Schritt 410 einen auf eine plane Ebene projizierten Punkt q(u, v). Genauer gesagt wandelt die Routine 306 zur Berechnung von sum zunächst gemäß V = (x, y, 1) = ((u - w/2)/f, - (v - h/2)/f, 1) die Bildschirmkoordinaten eines Punkts in Kamerakoordinaten des Punkts um. 7 ist eine Darstellung, die eine Beziehung zwischen dem Kamerakoordinatensystem, dem Bildschirm und der Richtung der Schwerkraft auf schematische Weise veranschaulicht. Die Routine 306 zur Berechnung von sum erhält daraufhin eine Position, an der eine durch Vh = (xh, yh, 1) = V - Vg*<V, Vg>/<Vg, Vg> und (xg/zg, yg/zg, 1) verlaufende Linie Vg auf dem Bildschirm (z = 1) orthogonal schneidet, und rundet die x-Koordinate xh von Vh auf die nächste Ganzzahl ab, um einen Wert q(u, v) zu erhalten. Somit ist q(u, v) = (int) xh. Dabei steht <V, Vg> für das innere Produkt der Vektoren V und Vg. 8 veranschaulicht auf schematische Weise die Projektion zum Erhalt von q(u, v).
  • Die Routine 306 zur Berechnung von sum stellt danach in Schritt 412 ein eindimensionales Array, sum, bereit.
  • Danach führt die Routine 306 zur Berechnung von sum für jeden Bildpunkt (u, v) einen Prozess von Schritt 414 bis einschließlich Schritt 420 durch. Genauer gesagt, ermittelt die Routine 306 zur Berechnung von sum, ob |c(u, v)| größer als ein Schwellenwert für einen gegebenen Bildpunkt (u, v) ist, und addiert, falls dies der Fall ist, den Wert von dlen(u, v) durch sum[q(u, v)] += dlen(u, v). In dieser als Beispiel dienenden Ausführungsform ist der Schwellenwert auf einen Wert von 0,95 gesetzt. Dabei ist zu beachten, dass der Wert von dlen(u, v) zuvor in Schritt 406 für jeden Bildpunkt (u, v) berechnet wurde.
  • Dabei ist der Wert von sum[q(u, v)] die Summe der Stärken vertikaler Kanten entlang einer Linie, die eine Projektion einer Linie auf dem Bildschirm ist, welche durch q(u, v) verläuft und senkrecht zur Bodenoberfläche ist. q(u, v) steht für eine Linie, die durch q(u, v) verläuft und senkrecht zur Bodenoberfläche ist.
  • Nachdem der Prozess aus Schritt 414 bis einschließlich Schritt 420 für alle Bildpunkte (u, v) abgeschlossen wurde, ergibt sich der Wert von sum, der für die Berechnung von DoG und die Erkennung von Extremwerten benötigt wird.
  • Der Prozess der Routine 308 zur DoG-Berechnung und Extremwerterkennung wird nun mit Blick auf den Ablaufplan aus 5 beschrieben. Wie in Schritt 502 veranschaulicht, wird die Routine 308 zur DoG-Berechnung und Extremwerterkennung durch das Hauptprogramm 302 aufgerufen, wobei als Eingaben die durch die Routine 306 zur Berechnung von sum berechnete Summe und ein Parameter d verwendet werden.
  • In Schritt 504 wendet die Routine 308 zur DoG-Berechnung und Extremwerterkennung unter Verwendung von Standardabweichungen σ = σ0, σ0k, σ0k2, σ0k3, ... eine Gauß-Glättung auf die Summe an, um sum1, sum2, sum3, sum4, ... zu erhalten.
  • Bei der Gauß-Glättung wird die Funktion wie folgt gefaltet: G ( x , y , σ ) = 1 2 π σ 2 exp ( x 2 + y 2 2 σ 2 )
    Figure DE112013003541B4_0005
  • Dabei ist k die Anzahl der Standardabweichungen σ und wird als k = 21/s definiert, wobei s die Anzahl der Skalen im Skalenraum ist. Im vorliegenden Fall soll σ0 = 1,6 und die Anzahl von Skalen s = 3 sein, z.B. auf der Grundlage von Hironobu Fujiyoshi, „Gradient-Based Feature Extraction: SIFT and HOG", Information Processing Society of Japan Technical Report, CVIM [Computer Vision and Image Media], 2007, (87), Seiten 211 bis 224, 03. September 2007.
  • In Schritt 506 berechnet die Routine 308 zur DoG-Berechnung und Extremwerterkennung wie folgt Differenzbilder, um dog1, dog2, dog3, ... zu erhalten: dog 1 = sum 2 sum 1
    Figure DE112013003541B4_0006
    dog 2 = sum 3 sum 2
    Figure DE112013003541B4_0007
    dog 3 = sum 4 sum 3
    Figure DE112013003541B4_0008
  • Der Prozess von Schritt 508 bis einschließlich Schritt 518 wird für jede Kombination von q und i durchgeführt. In Schritt 510 ermittelt die Routine 308 zur DoG-Berechnung und Extremwerterkennung, ob dogi[q] < dogi'[q'] - d für alle Werte q', i' in der Nachbarschaft von q, i liegt, d.h. ob dogi[q] ein Extremwert ist. Wenn dies der Fall ist, protokolliert die Routine 308 zur DoG-Berechnung und Extremwerterkennung q, i in Schritt 512 als eine erkannte Linie. Dabei ist zu beachten, dass die Lage von q', i' in der Nachbarschaft von q, i bedeutet, dass die Werte q', i' innerhalb von q ± δ und i ± δ liegen. Für δ wird beispielsweise ein Wert von 2 ausgewählt. Für den Wert d wird eine Bedingung definiert, so dass bei steigendem Wert von d der schärfere Extremwert gewählt wird.
  • Wenn die Routine 308 zur DoG-Berechnung und Extremwerterkennung in Schritt 510 ermittelt, dass dogi[q] < dogi'[q'] für alle Werte q', i' in der Nachbarschaft von q, i, zutrifft, protokolliert die Routine 308 zur DoG-Berechnung und Extremwerterkennung q, i in Schritt 512 als eine erkannte Linie.
  • Der Prozess von Schritt 508 bis einschließlich Schritt 514 wird für jede Kombination von q, i durchgeführt, um alle Kombinationen von Extremwerten (q, i) zu erhalten. Wenn σ als die Standardabweichung für den Erhalt des Werts der i-ten DoG bei einem Extremwert (q, i) verwendet wird, wird (q, σ) als ein Schlüsselpunkt bezeichnet. Für dogi = sumi+1 - sumi ist die Standardabweichung σ z.B. eine Standardabweichung bei einer Gauß-Glättung von sumi+1 oder sumi.
  • 10 veranschaulicht als Beispiel dienende Schlüsselpunkte, die in einem Bild extrahiert werden.
  • Als Nächstes wird mit Blick auf den Ablaufplan aus 6 der Prozess der Routine 310 zu Merkmalmengenberechnung beschrieben. Die Routine 310 zu Merkmalmengenberechnung wird durch das Hauptprogramm 302 aufgerufen, wobei als Eingaben die Werte (q, σ) aller Schlüsselpunkte verwendet werden. Die Routine 310 zur Merkmalmengenberechnung führt eine Merkmalextraktion auf der Grundlage von HoG (Histograms of Oriented Gradients, Histogramme von orientierten Gradienten) durch, wie beschrieben in Hironobu Fujiyoshi, „Gradient-Based Feature Extraction: SIFT and HOG“, Information Processing Society of Japan Technical Report, CVIM [Computer Vision and Image Media], 2007, (87), Seiten 21 1 bis 224, 03. September 2007.
  • Die Schleife von Schritt 602 zu Schritt 620 in 6 ist ein Prozess für jeden Wert (p, σ) eines jeden Schlüsselwerts. Dabei ist σ eine Standardabweichung bei der Gauß-Glättung von sumi+1 oder sumi, die zur Berechnung von dogi bei einem Extremwert (q, i) verwendet wird.
  • In Schritt 604 erhält die Routine 310 zur Merkmalmengenberechnung für q gemäß der folgenden Formel eine Linie u = av + b auf dem Bildschirm: x h = ( q w / 2 ) / f
    Figure DE112013003541B4_0009
    y h = ( x g * x h + z g ) / y g
    Figure DE112013003541B4_0010
    u h = q
    Figure DE112013003541B4_0011
    v h = y h * f + h / 2
    Figure DE112013003541B4_0012
    a = ( u h u' ) / ( v h v' )
    Figure DE112013003541B4_0013
    b = u h a * v h
    Figure DE112013003541B4_0014
  • Die Schleife von Schritt 606 zu Schritt 614 ist ein Prozess für v für jeden Wert 0, 1, 2, ..., h.
  • Die Routine 310 zur Merkmalmengenberechnung verwendet den in Schritt 604 bestimmten Wert a, b, um in Schritt 608 u = av + b zu berechnen.
  • In Schritt 610 ermittelt die Routine 310 zur Merkmalmengenberechnung, ob (u, v) eine vertikale Kante ist. Falls nein, überspringt die Routine 310 zur Merkmalmengenberechnung den darauffolgenden Schritt 612; falls ja, berechnet die Routine 310 zur Merkmalmengenberechnung def = I(u - σ, v) - I(u + σ, v) und dot (u, v). Dabei ist dot(u, v) das innere Produkt von (u' - u, v' - v) und (-dv(u, v), du(u, v)), und σ ist die Standardabweichung bei einer Gauß-Glättung, die zur Berechnung des Schlüsselpunkts verwendet wird.
  • Die Schleife von Schritt 606 zu Schritt 614 wird auf diese Weise für jeden Wert v = 0, 1, ..., h durchgeführt, um def = I(u - σ, v) - I(u + σ, v) und dot (u, v) für jeden Wert v = 0, 1, ..., h zu erhalten. Danach sortiert die Routine 310 zur Merkmalmengenberechnung def in absteigender Reihenfolge und summiert dot(u, v) entsprechend def. Wenn die Gesamtsumme von dot größer als die Hälfte der Gesamtsumme von dot ist, wird der Wert von def an dieser Stelle als Median von def ausgewählt.
  • In Schritt 618 verwendet die Routine 310 zur Merkmalmengenberechnung dann die beiden Intensitätswerte I(u - σ, v) und I(u + σ, v) bei (u, v), die dem in Schritt 616 als Median ausgewählten def entsprechen, als die Merkmalmenge der Linie.
  • Der Prozess von Schritt 602 bis einschließlich 620 wird auf diese Weise für alle Schlüsselpunkte (q, σ) durchgeführt, um die Merkmalmengen für alle Schlüsselpunkte (q, σ) zu erhalten.
  • Das Hauptprogramm 302 verwendet die dergestalt für die Schlüsselpunkte (q, σ) erhaltenen Merkmalmengen, um eine Linie zu suchen, deren Merkmalmenge mit einer Merkmalmenge übereinstimmt, die aus einem vorhandenen Bild extrahiert wurde. Nachdem der Abgleich von Linien in dem Abfragebild und dem bestehenden Bild abgeschlossen wurde, kann mittels Bündelausgleichung der Standort des Smartphones 108 geschätzt werden.
  • Obwohl ein Beispiel beschrieben wurde, bei dem Beschleunigungsdaten und Bilddaten von einem Smartphone erlangt werden, das einen Beschleunigungssensor und die Funktion einer Kamera beinhaltet, ist die vorliegende Erfindung nicht auf Smartphones beschränkt. Die vorliegende Erfindung kann mit jeder Einheit verwendet werden, welche die Funktion einer Beschleunigungsmessung und die Funktion einer Kamera beinhaltet. Darüber hinaus kann eine Beschleunigung anstelle eines Beschleunigungssensors mit einem Gyroskop gemessen werden.
  • Anstelle von WLAN kann jede beliebige drahtlose Datenübertragungsmethode verwendet werden, um Beschleunigungsdaten und Bilddaten an den Computer zu übertragen. Auch eine verdrahtete Datenübertragung kann verwendet werden.
  • Von dem Beschleunigungssensor und der Kamera eines Smartphones erlangte Daten werden verwendet, und anschließend werden die Prozesse auf einem getrennten Computer durchgeführt, an den die Daten übertragen wurden, um in der oben beschriebenen, als Beispiel dienenden Ausführungsform Merkmalmengen zu extrahieren oder den Standort zu schätzen. Angesichts der Verarbeitungsleistung und der technischen Daten moderner Smartphones können die auf dem getrennten Computer durchgeführten Prozesse allerdings auch teilweise oder in ihrer Gesamtheit auf dem Smartphone durchgeführt werden.
  • Des Weiteren ist der Computer zum Verarbeiten von Beschleunigungsdaten und Bilddaten nicht auf bestimmte Hardware oder ein bestimmtes Betriebssystem beschränkt; vielmehr kann jeder Computer mit jeder Plattform verwendet werden.
  • Bezugszeichenliste
  • 108 ...
    Smartphone
    110 ...
    Computer
    204 ...
    CPU
    206 ...
    RAM
    208 ...
    Festplattenlaufwerk
    216 ...
    Datenübertragungsschnittstelle
    304 ...
    Datenübertragungsmodul
    306 ...
    Routine zur Berechnung von sum
    308 ...
    Routine zur DoG-Berechnung und Extremwerterkennung
    310 ...
    Routine zur Merkmalmengenberechnung

Claims (9)

  1. Verfahren zur Merkmalextraktion zum Extrahieren eines Merkmals aus einem Bild mittels Computerverarbeitung, wobei das Verfahren die Schritte aufweist: eines Empfangens eines Bilds und gemessener Beschleunigungsdaten von einer mobilen Einheit, die Bilderlangungsmittel und Beschleunigungsmessmittel enthält; eines Erhaltens eines Schwerkraftvektors in dem Bild in einem Kamerakoordinatensystem auf einer Grundlage der gemessenen Beschleunigungsdaten; eines Erhaltens eines Fluchtpunkts in dem Bild in einer vertikalen Richtung in einem Bildschirmkoordinatensystem anhand des Schwerkraftvektors; eines Erhaltens von Differenzvektoren entlang von zwei Achsen für jeden der Bildpunkte in dem Bildschirmkoordinatensystem; eines Erhaltens eines Verbindungslinienvektors, der jeden der Bildpunkte mit dem Fluchtpunkt verbindet; eines Identifizierens einer vertikalen Kante auf der Grundlage einer Feststellung, dass ein von dem Differenzvektor und dem Verbindungslinienvektor gebildeter Winkel innerhalb eines bestimmten Schwellenwertbereichs liegt; eines Erhaltens der Summe von Stärken vertikaler Kanten und eines Schreibens der Summe in ein vorgegebenes variables Array; eines Extrahierens eines Schlüsselpunkts auf der Grundlage des variablen Arrays; und eines Berechnens einer Merkmalmenge aus dem Schlüsselpunkt.
  2. Verfahren nach Anspruch 1, wobei das Beschleunigungsmessmittel ein Beschleunigungssensor ist.
  3. Verfahren nach Anspruch 1, wobei der Schritt eines Erhaltens der Summe von Stärken vertikaler Kanten und eines Schreibens der Summe in ein vorgegebenes variables Array den Schritt eines Berechnens des absoluten Werts des inneren Produkts aus dem Differenzvektor und (u' - u, v' - v) und eines Schreibens des absoluten Werts in das variable Array aufweist, wobei (u, v) Bildschirmkoordinaten sind und (u', v') der Fluchtpunkt ist.
  4. Verfahren nach Anspruch 1, wobei der Schritt eines Extrahierens eines Schlüsselpunkts den Schritt eines Annehmens, dass das variable Array ein in horizontaler Richtung gestrecktes Bild ist, und eines Berechnens eines Extremwerts anhand einer DoG-Funktion (Difference of Gaussian, Differenz von zwei Gaußkernen) aufweist.
  5. Verfahren nach Anspruch 1, wobei die mobile Einheit ein Smartphone ist.
  6. Verfahren nach Anspruch 1, wobei der Schritt eines Berechnens eines Merkmalwerts den Schritt eines Berechnens von HoG (Histograms of Oriented Gradients, Histogramme von orientierten Gradienten) aufweist.
  7. Verfahren nach Anspruch 1, wobei einige oder alle Schritte durch die mobile Einheit durchgeführt werden.
  8. Computer-Programmprodukt zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 7, wenn das Programmprodukt auf einem Rechner abläuft.
  9. Computer-System, das zur Ausführung eines Verfahrens nach einem der Ansprüche 1 bis 7 eingerichtet ist.
DE112013003541.3T 2012-08-15 2013-06-13 Verfahren, Programm und System zur Merkmalextraktion Active DE112013003541B4 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012179994 2012-08-15
JP2012179994 2012-08-15
JPJP2012179994 2012-08-15
PCT/JP2013/066316 WO2014027500A1 (ja) 2012-08-15 2013-06-13 特徴抽出方法、プログラム及びシステム

Publications (2)

Publication Number Publication Date
DE112013003541T5 DE112013003541T5 (de) 2015-04-09
DE112013003541B4 true DE112013003541B4 (de) 2018-10-25

Family

ID=50100051

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112013003541.3T Active DE112013003541B4 (de) 2012-08-15 2013-06-13 Verfahren, Programm und System zur Merkmalextraktion

Country Status (6)

Country Link
US (2) US9087268B2 (de)
JP (1) JP5878634B2 (de)
CN (1) CN104508706B (de)
DE (1) DE112013003541B4 (de)
GB (1) GB2519266B (de)
WO (1) WO2014027500A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5878634B2 (ja) 2012-08-15 2016-03-08 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 特徴抽出方法、プログラム及びシステム
US9135705B2 (en) * 2012-10-16 2015-09-15 Qualcomm Incorporated Sensor calibration and position estimation based on vanishing point determination
KR102546714B1 (ko) * 2015-12-15 2023-06-23 삼성전자주식회사 전자장치 및 그 거치대
JP2021122079A (ja) * 2018-05-08 2021-08-26 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
KR20210034253A (ko) 2019-09-20 2021-03-30 삼성전자주식회사 위치 추정 장치 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040385A (ja) 1996-07-24 1998-02-13 Toshiba Corp 物体形状復元装置及びその方法
WO2008087974A1 (ja) 2007-01-16 2008-07-24 Panasonic Corporation データ処理装置、方法、記録媒体
JP2009237847A (ja) 2008-03-27 2009-10-15 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2009237845A (ja) 2008-03-27 2009-10-15 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2011053181A (ja) 2009-09-04 2011-03-17 Kddi Corp 情報端末装置

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0827127B1 (de) * 1996-08-28 2006-10-04 Matsushita Electric Industrial Co., Ltd. Lokales Positionierungsgerät und Verfahren dafür
JP4157620B2 (ja) * 1998-06-19 2008-10-01 株式会社東芝 移動物体検出装置及びその方法
JP4007899B2 (ja) * 2002-11-07 2007-11-14 オリンパス株式会社 運動検出装置
JP4142460B2 (ja) * 2003-01-31 2008-09-03 オリンパス株式会社 運動検出装置
JP4046186B2 (ja) 2003-02-03 2008-02-13 学校法人明治大学 自己位置計測方法及び装置
US7961909B2 (en) * 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US7583858B2 (en) * 2004-10-12 2009-09-01 Eastman Kodak Company Image processing based on direction of gravity
JP4552658B2 (ja) * 2005-01-13 2010-09-29 日立金属株式会社 2軸磁気センサを用いた姿勢検知方法およびそのプログラム
JP4617993B2 (ja) * 2005-04-28 2011-01-26 ソニー株式会社 画像処理装置および画像処理方法、プログラム、並びに、記録媒体
JP4820221B2 (ja) * 2006-06-29 2011-11-24 日立オートモティブシステムズ株式会社 車載カメラのキャリブレーション装置およびプログラム
JP4789745B2 (ja) 2006-08-11 2011-10-12 キヤノン株式会社 画像処理装置および方法
CN101192269B (zh) * 2006-11-29 2012-05-02 佳能株式会社 从图像估计消失点的方法和装置、计算机程序及其存储介质
JP5083887B2 (ja) 2007-12-05 2012-11-28 Kddi株式会社 情報端末装置
AT506928B1 (de) * 2008-05-28 2012-07-15 Kiwisecurity Software Gmbh Verfahren zur videoanalyse
JP5266953B2 (ja) * 2008-08-19 2013-08-21 セイコーエプソン株式会社 投写型表示装置および表示方法
JP5080409B2 (ja) 2008-09-11 2012-11-21 Kddi株式会社 情報端末装置
JP5089545B2 (ja) * 2008-09-17 2012-12-05 日立オートモティブシステムズ株式会社 道路境界検出判断装置
US8970690B2 (en) * 2009-02-13 2015-03-03 Metaio Gmbh Methods and systems for determining the pose of a camera with respect to at least one object of a real environment
JP5385105B2 (ja) * 2009-11-25 2014-01-08 Kddi株式会社 画像検索方法およびシステム
US9041796B2 (en) * 2010-08-01 2015-05-26 Francis Ruben Malka Method, tool, and device for determining the coordinates of points on a surface by means of an accelerometer and a camera
JP2012127896A (ja) * 2010-12-17 2012-07-05 Kumamoto Univ 移動体位置測定装置
CN102542603A (zh) * 2011-01-04 2012-07-04 鸿富锦精密工业(深圳)有限公司 电子装置及利用其进行指定场景设计的方法
JP5630282B2 (ja) 2011-01-19 2014-11-26 ソニー株式会社 データ処理装置、及び、データ処理方法
JP5878634B2 (ja) 2012-08-15 2016-03-08 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 特徴抽出方法、プログラム及びシステム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040385A (ja) 1996-07-24 1998-02-13 Toshiba Corp 物体形状復元装置及びその方法
WO2008087974A1 (ja) 2007-01-16 2008-07-24 Panasonic Corporation データ処理装置、方法、記録媒体
JP2009237847A (ja) 2008-03-27 2009-10-15 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2009237845A (ja) 2008-03-27 2009-10-15 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2011053181A (ja) 2009-09-04 2011-03-17 Kddi Corp 情報端末装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Hironobu Fujiyoshi, „Gradient-Based Feature Extraction: SIFT and HOG", Information Processing Society of Japan Technical Report, CVIM [Computer Vision and Image Media], 2007, (87), Seiten 211 bis 224, 03.September 2007
Nichtpatentliteratur 1 Hironobu Fujiyoshi, „Gradient-Based Feature Extraction: SIFT and HOG", Information Processing Society of Japan Technical Report, CVIM [Computer Vision and Image Media], 2007, (87), Seiten 211 bis 224, 03. September 2007
Thierry; Clergue, Emmanuelle; Facao, P.E. Dos Santos: „Computation of ego-motion and structure from Visual and Internal Sensors Using the Vertical Cue"; Computer Vision, 1993 Proceedings, Fourth International Conference on IEEE, 1993, S. 5.
VIÉVILLE, Thierry; CLERGUE, Emmanuelle; FACAO, P.E. Dos Santos: "Computation of ego-motion and structure from visual and inertial sensors using the vertical cue"; Computer Vision, 1993. Proceedings., Fourth International Conference on. IEEE, 1993. S. 591-598 *

Also Published As

Publication number Publication date
GB2519266A (en) 2015-04-15
US20140050359A1 (en) 2014-02-20
WO2014027500A1 (ja) 2014-02-20
US9020196B2 (en) 2015-04-28
DE112013003541T5 (de) 2015-04-09
US9087268B2 (en) 2015-07-21
JP5878634B2 (ja) 2016-03-08
GB201502309D0 (en) 2015-04-01
CN104508706A (zh) 2015-04-08
GB2519266B (en) 2015-08-26
US20140050353A1 (en) 2014-02-20
JPWO2014027500A1 (ja) 2016-07-25
CN104508706B (zh) 2017-03-22

Similar Documents

Publication Publication Date Title
DE102015207676B4 (de) Verfahren und Vorrichtung zur Hinderniserkennung auf Basis einer monokularen Kamera
US10861177B2 (en) Methods and systems for binocular stereo vision
DE112016006081T5 (de) Automatische Echtzeit-Fahrzeugkamerakalibrierung
CN110163064B (zh) 一种道路标志物的识别方法、装置及存储介质
DE112013003541B4 (de) Verfahren, Programm und System zur Merkmalextraktion
DE112018001050T5 (de) System und verfahren zur virtuell erweiterten visuellen gleichzeitigen lokalisierung und kartographierung
DE102016116818A1 (de) Verfahren und Vorrichtung zum Erfassen einer Fahrzeugkontur durch Punktwolkendaten
DE102013210478A1 (de) Geometrische vorkorrektur zur automatischen nummernschilderkennung
CN103514432A (zh) 人脸特征提取方法、设备和计算机程序产品
DE102019111725A1 (de) Monokulare visuelle odometrie: fahrzeuggesschwindigkeit und -gierrate von rückfahrkamera
DE112016001150T5 (de) Schätzung extrinsischer kameraparameter anhand von bildlinien
DE102019125169A1 (de) Objektpositionsbestimmungsvorrichtung mittels bezugsmarker
DE102015115786B4 (de) An einem computer realisiertes verfahren und system zur verarbeitung einer sequenz von bildern
DE112016002022T5 (de) Managen von merkmalsdaten zur umgebungsabbildung auf einer elektronischen vorrichtung
DE102015115789B4 (de) An einem computer realisiertes verfahren und system zur verarbeitung eines bilds
DE202016008004U1 (de) Automatische Verbindung von Bildern unter Verwendung visueller Eigenschaftsquerverweise auf zugehörige Anwendungen
DE112020000590T5 (de) Karte und verfahren zum erstellen einer karte
DE112016006213T5 (de) System und Verfahren zum Fusionieren von Ausgängen von Sensoren, die unterschiedliche Auflösungen aufweisen
CN116778094B (zh) 一种基于优选视角拍摄的建筑物变形监测方法及装置
DE112016004198T5 (de) Positionsbestimmungseinrichtung und verfahren
DE102022102934A1 (de) Ereignisbasierte fahrzeugposenschätzung unter verwendung monochromatischer bildgebung
DE102020100230A1 (de) Rekonstruktion von landmarkenpositionen in autonomen maschinenanwendungen
CN105138979A (zh) 基于立体视觉的运动人体头部检测方法
DE112019006107T5 (de) Authoring-Vorrichtung, Authoring-Verfahren und Authoring-Programm
DE102022111926A1 (de) Verfahren und Vorrichtung für eine tiefengestützte visuelle Trägheitsodometrie

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R084 Declaration of willingness to licence
R020 Patent grant now final