DE112016002995T5 - Verfahren zum Bestimmen einer Bewegung zwischen einem ersten Koordinatensystem und einem zweiten Koordinatensystem - Google Patents

Verfahren zum Bestimmen einer Bewegung zwischen einem ersten Koordinatensystem und einem zweiten Koordinatensystem Download PDF

Info

Publication number
DE112016002995T5
DE112016002995T5 DE112016002995.0T DE112016002995T DE112016002995T5 DE 112016002995 T5 DE112016002995 T5 DE 112016002995T5 DE 112016002995 T DE112016002995 T DE 112016002995T DE 112016002995 T5 DE112016002995 T5 DE 112016002995T5
Authority
DE
Germany
Prior art keywords
positions
key points
motion
transition graph
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112016002995.0T
Other languages
English (en)
Inventor
Srikumar Ramalingam
Gim Hee Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112016002995T5 publication Critical patent/DE112016002995T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

Ein Verfahren bestimmt Bewegung zwischen ersten und zweiten Koordinatensystemen durch zuerst Extrahieren von ersten und zweiten Sätzen von Schlüsselpunkten von von einer Szene durch eine auf einem bewegten Objekt angeordneten Kamera erlangten ersten und zweiten Bildern. Erste und zweite Stellungen werden von ersten und zweiten Sätzen von Schlüsselpunkten bestimmt. Ein Score wird für jede mögliche Bewegung zwischen den ersten und zweiten Stellungen unter Verwendung einer Scoring-Funktion und eines aus Trainingsdaten konstruierten Stellungs-Übergangs-Graphs bestimmt, wo jeder Knoten in dem Post-Übergangs-Graph eine relative Stellung darstellt und jede Kante eine Bewegung zwischen zwei aufeinanderfolgenden relativen Stellungen darstellt. Dann wird auf der Grundlage des Scores eine beste Bewegung als die Bewegung zwischen den ersten und zweiten Koordinatensystemen ausgewählt.

Description

  • Technisches Gebiet
  • Die Erfindung betrifft im Allgemeinen Computervision und im Besonderen das Bestimmen von Bewegung zwischen zwei Koordinatensystemen von Straßenfahrzeugen unter Verwendung von Entsprechungen von charakteristischen Punkten, wo jedes Koordinatensystem einem Kamerakoordinatensystem einer Kamera, z.B. einer monokularen oder Stereokamera, entspricht.
  • Stand der Technik
  • Visuelle Odometrie bezieht sich auf das Problem des Bestimmens einer Bewegung eines bewegten Objektes, z.B. eines Fahrzeugs oder Roboters, von einer Position zu einer anderen unter Verwendung von Merkmalen von z.B. durch eine oder mehrere auf dem Objekt montierte Kamera erlangten Bildern. Zahlreiche Verfahren zum Schätzen der Bewegung unter Verwendung von geometrischen Primitiven, wie beispielsweise Punkten, sind bekannt. Man kann zum Beispiel die Bewegung unter Verwendung von Entsprechungen zwischen 2D-Punkten in einem Koordinatensystem zu einem anderen Koordinatensystem unter Verwendung von 5 oder mehr Punkt-Entsprechungen bestimmen, siehe Nister, „An efficient solution tot he five-point relative pose problem“, PAMI, 2004.
  • Es gibt auch 2D zu 3D Stellungs-Schätzverfahren, die verwendet werden, um die Position eines bewegten Objektes auf der Grundlage einer teilweisen 3D-Punkt-Wolke, die durch die vorherigen Stereo-Bilder rekonstruiert wird, zu schätzen, Kitt et al., „Visual odometry based on stereo image sequences with ransac-based outlier rejection scheme“, IV, 2010.
  • Ein Verfahren verwendet 3D zu 3D Punkt-Entsprechungen in einem iterativen nächsten Punkt (ICP) Verfahren zum Bestimmen einer Bewegung zwischen Stereo-Kameras, Milella et al., „Stereo-based ego-motion estimation using pixel tracking and interative closest point“, ICCVS, 2006.
  • Wahlstrategien sind für die Berechnung von visueller Odometrie verwendet worden, U.S. 20120308114 , „Voting strategy for visual ego-motion from stereo“, und Verfahren des maschinellen Lernens sind zur Schätzung der Kamerastellung verwendet worden WO 2014 130404 , „Method and device for calculating a camera object pose“.
  • Zusammenfassung der Erfindung
  • Die Ausführungsbeispiele der vorliegenden Erfindung stellen ein Verfahren zum Bestimmen einer Bewegung zwischen einem ersten Koordinatensystem und einem zweiten Koordinatensystem bereit. Das Verfahren konstruiert einen kompakten Stellungs-Übergangs-Graph aus Trainingsdaten. Der Graph kann verwendet werden, um visuelle Odometrie zu erhalten, ohne eine explizite Bewegungs- oder Stellungsbestimmung durchzuführen.
  • Typischerweise geht mit Bewegungs- oder Stellungsbestimmung die Lösung von einem polynomialen System von Gleichungen einher. Das Verfahren erfordert nicht irgendein algebraisches System von Gleichungen, um die Stellung zu erhalten. Stattdessen sucht das Verfahren einfach den Stellungs-Übergangs-Graph für eine beste Bewegung. In dem Stellungs-Übergangs-Graph stellt jeder Knoten eine mögliche relative Stellung zwischen zwei aufeinanderfolgenden Kamerapositionen dar. Eine Kante zwischen zwei relativen Stellungen stellt die Möglichkeit des Aufweisens der zwei relativen Stellungen in aufeinanderfolgenden Rahmen dar, während die visuelle Odometrie durchgeführt wird.
  • Das Verfahren unterscheidet sich von anderen Verfahren zur visuellen Odometrie, die Bewegungsschätzvorgänge verwenden, wie beispielsweise 3- oder 5-Punkt-Stellungs-Schätzung.
  • Das Verfahren verwendet eine Scoring-Funktion, die eine Abstandsmetrik auf der Grundlage von Punktentsprechungen bestimmt, die die richtige Bewegung von dem Stellungs-Übergangs-Graph effizient identifizieren.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Flussdiagramm eines Verfahrens zum Bestimmen einer Bewegung zwischen dem ersten und zweiten Koordinatensystem, das in unserem visuellen Odometrieverfahren gemäß den Ausführungsbeispielen der Erfindung verwendet wird;
  • 2 ist ein Schema von drei aufeinanderfolgenden Bildern und zwei aufeinanderfolgenden relativen Stellungen gemäß den Ausführungsbeispielen der Erfindung; und
  • 3 zeigt einen Post-Übergangs-Graph für mögliche relative Stellungen zwischen zwei aufeinanderfolgenden Rahmen gemäß den Ausführungsbeispielen der Erfindung.
  • Beschreibung der Ausführungsbeispiele
  • Wie in 1 gezeigt stellen die Ausführungsbeispiele der Erfindung ein Verfahren zum Bestimmen einer Bewegung zwischen einem ersten Koordinatensystem und einem zweiten Koordinatensystem bereit. Das Verfahren kann zum Beispiel für visuelle Odometrie-Anwendungen verwendet werden, wo das Verfahren eine Bewegung eines bewegten Objektes 110, z.B. ein Fahrzeug oder ein Roboter, von einer Position zu einer anderen bestimmt, unter Verwendung von Merkmalen von Bildern einer Szene 130, die z.B. durch eine oder mehrere auf dem Objekt montierte Kameras 120 erlangt werden.
  • Das Verfahren verwendet einen kompakten Stellungs-Übergangs-Graph 300, der aus Trainingsdaten 110 konstruiert wird, siehe 3. Dieser Graph kann dann verwendet werden, um visuelle Odometrie zu erhalten, ohne eine explizite Bewegungs- oder Stellungsbestimmung durchzuführen.
  • Die meisten Stand der Technik visuellen Odometrieverfahren verwenden explizit Bewegungs- oder Stellungsbestimmung durch Lösen polynomialer Gleichungen in einem Zufallssample-Konsensverfahren (RANSAC, engl.: Random Sample Consensus method).
  • Wir verwenden keine explizite Bewegungsbestimmung, und wir verwenden kein RANSAC. Unser Ansatz „sucht“ unter Verwendung des Stellungs-Übergangs-Graphs und der Punkt-Entsprechungen nach relativen Stellungen, anstatt die Entsprechungen direkt zu bestimmen.
  • Die Eingabe an unser Verfahren ist eine durch die Kamera, die kalibriert ist, erlangte Sequenz von Bildern 101. Aus der Sequenz von Bildern extrahieren 103 wir Schlüsselpunkte, Deskriptoren der Schlüsselpunkte, um übereinstimmende Schlüsselpunkte zu bestimmen.
  • Während des Trainings konstruieren 102 wir den Stellungs-Übergangs-Graph 300 aus den Trainingsdaten 110. Der Stellungs-Übergangs-Graph 300 stellt mögliche Bewegungshypothesen dar. In diesem Graph stellt jeder Knoten einen Kandidaten für relative Stellungen zwischen zwei aufeinanderfolgenden Bildern in dem von der Szene 130 z.B. durch die auf dem Fahrzeug 110 angeordnete Kamera 120 erlangten Video dar. Jede zwei Knoten verbindende Kante stellt die mögliche Bewegung zwischen zwei aufeinanderfolgenden relativen Stellungen dar.
  • Um dies zu tun, verwenden wir tausende von Bodendaten mit relativen Stellungen, die durch eine auf dem bewegten 125, z.B. Fahrzeug 110 auf der Straße 130, montierte Kamera erlangt werden. Diese relativen Stellungen sind geclustert und werden durch Entfernen redundanter Stellungen komprimiert. Unter Verwendung des komprimierten Satzes von Stellungen konstruieren wir einen kompakten Graph, der den Zustandsübergang von einer relativen Stellung zu einer anderen kodiert.
  • Für jedes Bild in dem Video detektieren wir unter Verwendung von herkömmlichen Schlüsselpunkt-Detektoren, wie beispielsweise SURF (engl.: Speeded Up Robust Features), Schlüsselpunkte. Wir extrahieren auch SURF Deskriptoren, und gleichen alle aufeinanderfolgenden Paare von Bildern in Schritt 103 ab.
  • Für jede relative Stellung in dem Stellungs-Übergangs-Graph, identifizieren 104 wir eine Anzahl von Einlieger-Gegenstücken, die wie in Schritt 105 gezeigt konsistent sind.
  • Wir verwenden auf den Einliegern eine Scoring-Funktion, um eine Abstandsmetrik zu bestimmen, die einen Score ergibt. Die Abstandsmetrik identifiziert eine beste Bewegung 106, die ausgegeben werden kann.
  • Das Verfahren kann in einem Prozessor durchgeführt werden, der mit einem Speicher und durch aus dem Stand der Technik bekannte Busse mit Eingabe-/Ausgabe-Schnittstellen verbunden ist.
  • Wie in 2 gezeigt, zeigen wir jeweils drei aufeinanderfolgende Bilder F(t-2) 201, F(t-1) 203 und F(t) 205. Die relativen Stellungen zwischen Bildern F(t-2) und F(t-1) ist durch Pi 202 gegeben. Gleichfalls ist die relative Stellung zwischen Bildern F(t-1) und F(t) durch Pj 204 gegeben.
  • Wie in 3 gezeigt, beschreiben wir die grundlegende Idee, die bei der Konstruktion des Post-Übergangs-Graphs 300 während des Trainings verwendet wird. In diesem Graph stellt jeder Knoten einen Kandidaten für relative Stellungen zwischen zwei aufeinanderfolgenden Bildern in dem von der Szene 130 durch z.B. eine auf dem Fahrzeug 110 angeordnete Kamera 120 erlangten Video dar. Jede zwei Knoten verbindende Kante stellt die mögliche Bewegung zwischen zwei aufeinanderfolgenden relativen Stellungen dar.
  • In 3 zum Beispiel stellt die Kante 302 die mögliche Bewegung dar, die dem Aufweisen einer relativen Stellung Pr nach der relativen Stellung Pm entspricht. Mit anderen Worten gibt es, wie in 2 gezeigt, drei Bilder F(t-2) 201, F(t-1) 203 und F(t) 125, so dass die relative Stellung zwischen F(t-2) und F(t-1) Pm ist, und die relative Stellung zwischen F(t-1) und F(t) Pr ist. Die Schleife 303 auf dem Knoten Pk 304 zeigt an, dass es da zwei aufeinanderfolgende relative Stellungen geben könnte, die beide gleich der relativen Stellung Pk sind.
  • Der Post-Übergangs-Graph wird unter Verwendung der Trainingsvideosequenzen, d.h. der Trainingsdaten 110, konstruiert. Wir verwenden einen analytische Bewegungsschätzvorgang und eine Bündelausgleich-Maschinerie, um die relativen Stellungen zwischen aufeinanderfolgenden Rahmen zu erhalten. Mit anderen Worten verwenden wir herkömmliche analytische relative und absolute Stellungsschätzvorgänge zum Generieren der Bodendaten.
  • Wir können auch die relative Stellungsinformation zum Trainieren von Daten unter Verwendung eines Globalen Posisitionsbestimmungssystems (GPS) und oder einer Inertialen Messeinheit (IMU) erhalten. Sei Qi, wo i = {1, 2, ..., m}, die relative Stellung von allen Paaren von aufeinanderfolgenden Bildern der Trainingsdaten. Dann clustern wir diese Stellungen, so dass alle relativen Stellungen, die ähnlich sind, zu einem Cluster gehören, und verwenden eine repräsentative relative Stellung von jedem Cluster. Dadurch erhalten wir eine kleinere Menge von relativen Stellungen Pi, wo i = {1, 2, ..., n} wo n << m.
  • Unter Verwendung dieser kleineren Menge von relativen Stellungen konstruieren wir den in 2 gezeigten Übergangs-Graph auf die folgende Weise:
    • 1. Initialisiere n Knoten, wo jeder Knoten einer relativen Stellung in der Menge Pi, i = {1, 2, ..., n} entspricht.
    • 2. Für alle aufeinanderfolgenden relativen Stellungen Qi und Qj: a. Wenn die nächsten relativen Stellungen in der komprimierten Menge Pi und Pj sind, dann fügen wir eine Kante von Pi zu Pj hinzu. b. Wenn die nächsten relativen Stellungen in der komprimierten Menge beide Pk sind, dann fügen wir eine Selbst-Schleife zu dem Knoten Pk hinzu.
  • Seien F(t-2), F(t-1) und F(t) drei aufeinanderfolgende Bilder. Seien die relativen Stellungen zwischen F(t-2) und F(t-1) durch Pi gegeben. Um die aktuelle relative Stellung Pj zwischen F(t-1) und F(t) zu bestimmen, verwenden wir die folgende Scoring-Funktion Score (Pj) = Einlieger (Pj) + S·w(Pi, Pj), wo S der Skalierungsparameter ist, der die relative Wichtigkeit der Einlieger und w anpasst. Der Parameter S kann entweder gelernt werden oder manuell fixiert werden. Die Einlieger (Pj) werden unter Verwendung der relativen Stellung Pj erhalten. Das dem Zustandsübergang von Pi zu Pj entsprechende Gewicht ist w(Pi, Pj).
  • Das Verfahren kann in einer Anzahl von Anwendungen verwendet werden, einschließlich aber nicht beschränkt auf Autos in Autonomen-Fahr-Anwendungen, wie beispielsweise präzise Ortsbestimmung und visuelle Odometrie für mobile Roboter, tragbaren Geräten und Drohnen.

Claims (14)

  1. Verfahren zum Bestimmen einer Bewegung zwischen einem ersten Koordinatensystem und einem zweiten Koordinatensystem, aufweisend Schritte des: Extrahierens eines ersten Satzes von Schlüsselpunkten von einem ersten Bild, das von einer Szene durch eine auf einem bewegten Objekt angeordneten Kamera erlangt wurde; Extrahieren eines zweiten Satzes von Schlüsselpunkten von einem zweiten Bild, das von der Szene durch die Kamera erlangt wurde; Bestimmen von ersten und zweiten Stellungen jeweils von den ersten und zweiten Sätzen von Schlüsselpunkten; Bestimmen eines Scores für jede mögliche Bewegung zwischen den ersten und den zweiten Stellungen, unter Verwendung einer Scoring-Funktion und eines Stellungs-Übergangs-Graphs, der aus Trainingsdaten konstruiert wird, wo jeder Knoten in dem Post-Übergangs-Graph eine relative Stellung darstellt und jede Kante eine Bewegung zwischen zwei aufeinanderfolgenden relativen Stellungen darstellt; und Auswählen, auf der Grundlage des Scores, einer besten Bewegung als die Bewegung zwischen den ersten und zweiten Koordinatensystemen, wobei die Schritte in einem Prozessor durchgeführt werden.
  2. Verfahren nach Anspruch 1, wobei die Schlüsselpunkte unter Verwendung von SURF (Speeded Up Robust Features, beschleunigte robuste Merkmale) erhalten werden.
  3. Verfahren nach Anspruch 1, wobei der Stellungs-Übergangs-Graph unter Verwendung von Trainingsdaten konstruiert wird, die von einer Videosequenz erhalten werden, die durch die Kamera erlangt wird.
  4. Verfahren nach Anspruch 1, wobei die in dem Stellungs-Übergangs-Graph dargestellten Stellungen unter Verwendung eines analytischen Bewegungsschätzvorgangs bestimmt werden.
  5. Verfahren nach Anspruch 1, wobei die Stellungen unter Verwendung eines Geographischen Positionsbestimmungssystems (GPS) bestimmt werden.
  6. Verfahren nach Anspruch 1, wobei die Stellungen unter Verwendung einer Inertialen Messeinheit (IMU) bestimmt werden.
  7. Verfahren nach Anspruch 1, wobei die Stellungen geclustert werden, um ähnliche Bewegungen zu entfernen, um einen kompakten Stellungs-Übergangs-Graph zu konstruieren.
  8. Verfahren nach Anspruch 4, wobei die relativen Bewegungen unter Verwendung analytischer Bewegungsschätzung und eines 5-Punkt 2D zu 2D Bewegungsschätzvorgang erhalten werden.
  9. Verfahren nach Anspruch 4, wobei die relativen Bewegungen unter Verwendung analytischer Bewegungsschätzung und 3-Punkt 2D zu 3D Bewegungsschätzvorgang erhalten werden.
  10. Verfahren nach Anspruch 1, wobei die Scoring-Funktion von einer Anzahl von Einliegern abhängt, die durch Abgleich des ersten Satzes von Schlüsselpunkten und des zweiten Satzes von Schlüsselpunkten erhalten werden.
  11. Verfahren nach Anspruch 1, wobei die Bewegung für die Aufgabe visueller Odometrie verwendet wird.
  12. Verfahren nach Anspruch 1, wobei die Bewegung für die Aufgabe des Lokalisierens unter Verwendung eines 3D-Modells der Szene verwendet wird.
  13. Verfahren nach Anspruch 1, wobei das bewegte Objekt ein Fahrzeug ist.
  14. Verfahren nach Anspruch 1, wobei das bewegte Objekt ein Roboter ist.
DE112016002995.0T 2015-06-30 2016-06-10 Verfahren zum Bestimmen einer Bewegung zwischen einem ersten Koordinatensystem und einem zweiten Koordinatensystem Pending DE112016002995T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/755,324 US9558424B2 (en) 2015-06-30 2015-06-30 On-road stereo visual odometry without explicit pose determinations
US14/755,324 2015-06-30
PCT/JP2016/068022 WO2017002637A1 (en) 2015-06-30 2016-06-10 Method for determining a motion between a first coordinate system and a second coordinate system

Publications (1)

Publication Number Publication Date
DE112016002995T5 true DE112016002995T5 (de) 2018-03-15

Family

ID=56555663

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016002995.0T Pending DE112016002995T5 (de) 2015-06-30 2016-06-10 Verfahren zum Bestimmen einer Bewegung zwischen einem ersten Koordinatensystem und einem zweiten Koordinatensystem

Country Status (5)

Country Link
US (1) US9558424B2 (de)
JP (1) JP6261811B2 (de)
CN (1) CN107735797B (de)
DE (1) DE112016002995T5 (de)
WO (1) WO2017002637A1 (de)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106170676B (zh) * 2015-07-14 2018-10-09 深圳市大疆创新科技有限公司 用于确定移动平台的移动的方法、设备以及系统
DE102016211805A1 (de) * 2015-10-09 2017-04-13 Volkswagen Aktiengesellschaft Fusion von Positionsdaten mittels Posen-Graph
WO2018192984A1 (en) 2017-04-19 2018-10-25 Robert Bosch Gmbh Methods and systems for aligning a vehicle with a trailer
US10565714B2 (en) 2018-05-25 2020-02-18 Denso Corporation Feature tracking for visual odometry
US10634777B2 (en) * 2018-05-30 2020-04-28 Ford Global Technologies, Llc Radar odometry for vehicle
DE102018117660A1 (de) 2018-07-20 2020-01-23 Man Truck & Bus Se Verfahren und system zum bestimmen einer position eines fahrzeugs
KR102559203B1 (ko) * 2018-10-01 2023-07-25 삼성전자주식회사 포즈 정보를 출력하는 방법 및 장치
US11783707B2 (en) 2018-10-09 2023-10-10 Ford Global Technologies, Llc Vehicle path planning
US11460851B2 (en) 2019-05-24 2022-10-04 Ford Global Technologies, Llc Eccentricity image fusion
US11521494B2 (en) 2019-06-11 2022-12-06 Ford Global Technologies, Llc Vehicle eccentricity mapping
US11662741B2 (en) 2019-06-28 2023-05-30 Ford Global Technologies, Llc Vehicle visual odometry
CN112364785B (zh) * 2020-11-13 2023-07-25 中移雄安信息通信科技有限公司 一种运动训练指导方法、装置、设备及计算机存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3467017B2 (ja) * 2000-11-30 2003-11-17 キヤノン株式会社 位置姿勢の決定方法及び装置並びに記憶媒体
US20050140670A1 (en) * 2003-11-20 2005-06-30 Hong Wu Photogrammetric reconstruction of free-form objects with curvilinear structures
CA2812723C (en) * 2010-09-24 2017-02-14 Evolution Robotics, Inc. Systems and methods for vslam optimization
US9020187B2 (en) * 2011-05-27 2015-04-28 Qualcomm Incorporated Planar mapping and tracking for mobile devices
US8744169B2 (en) 2011-05-31 2014-06-03 Toyota Motor Europe Nv/Sa Voting strategy for visual ego-motion from stereo
US8831290B2 (en) * 2012-08-01 2014-09-09 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of vehicle-mounted cameras for in-road obstacle detection
JP6086474B2 (ja) * 2012-11-26 2017-03-01 Kddi株式会社 情報端末装置
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
WO2014159726A1 (en) * 2013-03-13 2014-10-02 Mecommerce, Inc. Determining dimension of target object in an image using reference object
CN103247199B (zh) * 2013-05-15 2015-03-11 安徽三联交通应用技术股份有限公司 一种机动车移动位置和姿态的精确测量方法
CN103345751A (zh) * 2013-07-02 2013-10-09 北京邮电大学 一种基于鲁棒特征跟踪的视觉定位方法
US10295338B2 (en) * 2013-07-12 2019-05-21 Magic Leap, Inc. Method and system for generating map data from an image
US9495761B2 (en) * 2013-11-04 2016-11-15 The Regents Of The University Of California Environment mapping with automatic motion model selection
US20150286873A1 (en) * 2014-04-03 2015-10-08 Bruce L. Davis Smartphone-based methods and systems
CN104374395A (zh) * 2014-03-31 2015-02-25 南京邮电大学 基于图的视觉slam方法
US9436278B2 (en) * 2014-04-01 2016-09-06 Moju Labs, Inc. Motion-based content navigation
CN104457761B (zh) * 2014-11-18 2017-10-24 上海新跃仪表厂 基于多目视觉的相对位置和姿态的特征接力方法

Also Published As

Publication number Publication date
CN107735797B (zh) 2021-03-19
JP2017528833A (ja) 2017-09-28
CN107735797A (zh) 2018-02-23
US9558424B2 (en) 2017-01-31
WO2017002637A1 (en) 2017-01-05
JP6261811B2 (ja) 2018-01-17
US20170004379A1 (en) 2017-01-05

Similar Documents

Publication Publication Date Title
DE112016002995T5 (de) Verfahren zum Bestimmen einer Bewegung zwischen einem ersten Koordinatensystem und einem zweiten Koordinatensystem
Liang et al. Learning for disparity estimation through feature constancy
Kaneko et al. Mask-SLAM: Robust feature-based monocular SLAM by masking using semantic segmentation
DE112018000332T5 (de) Dichtes visuelles slam mit probabilistic-surfel-map
DE112012001984B4 (de) Integrieren von Video-Metadaten in 3D-Modelle
DE112018000298T5 (de) System und verfahren zur poseninvarianten gesichtsausrichtung
DE102017120112A1 (de) Tiefenkartenschätzung mit stereobildern
DE202016007816U1 (de) Das Entdecken von Unternehmen aus Bildern
WO2019180414A1 (en) Localisation, mapping and network training
DE102005008131A1 (de) Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen
DE102015115786B4 (de) An einem computer realisiertes verfahren und system zur verarbeitung einer sequenz von bildern
DE102014222617A1 (de) Fahrzeugerfassungsverfahren und Fahrzeugerfassungssytem
DE102015115789A1 (de) Doppler-basierte Segmentierung und optischer Fluss in Radarbildern
Yao et al. Deep audio-visual fusion neural network for saliency estimation
DE102018209377A1 (de) Verfahren zur Darstellung von AR-/VR-Inhalten auf einem mobilen Endgerät und mobiles Endgerät, auf dem AR-/VR-Inhalte dargestellt werden
CN113643329B (zh) 一种基于孪生注意力网络的在线更新目标跟踪方法和系统
DE112014002943T5 (de) Verfahren zur Registrierung von Daten unter Verwendung eines Satzes von Grundelementen
Babu V et al. A deeper insight into the undemon: Unsupervised deep network for depth and ego-motion estimation
DE102020126954A1 (de) System und Verfahren zum Erfassen einer räumlichen Orientierung einer tragbaren Vorrichtung
CN113450457A (zh) 道路重建方法、装置、计算机设备和存储介质
CN112132960A (zh) 一种三维重建方法、装置和电子设备
CN112561947A (zh) 一种图像自适应运动估计方法及应用
CN111681270A (zh) 一种实现图像帧之间配准的方法、装置和存储介质
DE102019207888A1 (de) Verfahren und Systeme für die Ausnutzung von Bewegungskonflikten pro Pixel zum Extrahieren primärer und sekundärer Bewegungen in Augmented-Reality-Systemen
Sun et al. Accurate deep direct geo-localization from ground imagery and phone-grade gps

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence
R016 Response to examination communication