DE112016002995T5 - Verfahren zum Bestimmen einer Bewegung zwischen einem ersten Koordinatensystem und einem zweiten Koordinatensystem - Google Patents
Verfahren zum Bestimmen einer Bewegung zwischen einem ersten Koordinatensystem und einem zweiten Koordinatensystem Download PDFInfo
- Publication number
- DE112016002995T5 DE112016002995T5 DE112016002995.0T DE112016002995T DE112016002995T5 DE 112016002995 T5 DE112016002995 T5 DE 112016002995T5 DE 112016002995 T DE112016002995 T DE 112016002995T DE 112016002995 T5 DE112016002995 T5 DE 112016002995T5
- Authority
- DE
- Germany
- Prior art keywords
- positions
- key points
- motion
- transition graph
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000033001 locomotion Effects 0.000 title claims abstract description 42
- 230000007704 transition Effects 0.000 claims abstract description 17
- 230000000007 visual effect Effects 0.000 claims description 13
- 238000005259 measurement Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 2
- 241001136792 Alle Species 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/206—Drawing of charts or graphs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20072—Graph-based image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Abstract
Ein Verfahren bestimmt Bewegung zwischen ersten und zweiten Koordinatensystemen durch zuerst Extrahieren von ersten und zweiten Sätzen von Schlüsselpunkten von von einer Szene durch eine auf einem bewegten Objekt angeordneten Kamera erlangten ersten und zweiten Bildern. Erste und zweite Stellungen werden von ersten und zweiten Sätzen von Schlüsselpunkten bestimmt. Ein Score wird für jede mögliche Bewegung zwischen den ersten und zweiten Stellungen unter Verwendung einer Scoring-Funktion und eines aus Trainingsdaten konstruierten Stellungs-Übergangs-Graphs bestimmt, wo jeder Knoten in dem Post-Übergangs-Graph eine relative Stellung darstellt und jede Kante eine Bewegung zwischen zwei aufeinanderfolgenden relativen Stellungen darstellt. Dann wird auf der Grundlage des Scores eine beste Bewegung als die Bewegung zwischen den ersten und zweiten Koordinatensystemen ausgewählt.
Description
- Technisches Gebiet
- Die Erfindung betrifft im Allgemeinen Computervision und im Besonderen das Bestimmen von Bewegung zwischen zwei Koordinatensystemen von Straßenfahrzeugen unter Verwendung von Entsprechungen von charakteristischen Punkten, wo jedes Koordinatensystem einem Kamerakoordinatensystem einer Kamera, z.B. einer monokularen oder Stereokamera, entspricht.
- Stand der Technik
- Visuelle Odometrie bezieht sich auf das Problem des Bestimmens einer Bewegung eines bewegten Objektes, z.B. eines Fahrzeugs oder Roboters, von einer Position zu einer anderen unter Verwendung von Merkmalen von z.B. durch eine oder mehrere auf dem Objekt montierte Kamera erlangten Bildern. Zahlreiche Verfahren zum Schätzen der Bewegung unter Verwendung von geometrischen Primitiven, wie beispielsweise Punkten, sind bekannt. Man kann zum Beispiel die Bewegung unter Verwendung von Entsprechungen zwischen 2D-Punkten in einem Koordinatensystem zu einem anderen Koordinatensystem unter Verwendung von 5 oder mehr Punkt-Entsprechungen bestimmen, siehe Nister, „An efficient solution tot he five-point relative pose problem“, PAMI, 2004.
- Es gibt auch 2D zu 3D Stellungs-Schätzverfahren, die verwendet werden, um die Position eines bewegten Objektes auf der Grundlage einer teilweisen 3D-Punkt-Wolke, die durch die vorherigen Stereo-Bilder rekonstruiert wird, zu schätzen, Kitt et al., „Visual odometry based on stereo image sequences with ransac-based outlier rejection scheme“, IV, 2010.
- Ein Verfahren verwendet 3D zu 3D Punkt-Entsprechungen in einem iterativen nächsten Punkt (ICP) Verfahren zum Bestimmen einer Bewegung zwischen Stereo-Kameras, Milella et al., „Stereo-based ego-motion estimation using pixel tracking and interative closest point“, ICCVS, 2006.
- Wahlstrategien sind für die Berechnung von visueller Odometrie verwendet worden,
U.S. 20120308114 , „Voting strategy for visual ego-motion from stereo“, und Verfahren des maschinellen Lernens sind zur Schätzung der Kamerastellung verwendet wordenWO 2014 130404 , „Method and device for calculating a camera object pose“. - Zusammenfassung der Erfindung
- Die Ausführungsbeispiele der vorliegenden Erfindung stellen ein Verfahren zum Bestimmen einer Bewegung zwischen einem ersten Koordinatensystem und einem zweiten Koordinatensystem bereit. Das Verfahren konstruiert einen kompakten Stellungs-Übergangs-Graph aus Trainingsdaten. Der Graph kann verwendet werden, um visuelle Odometrie zu erhalten, ohne eine explizite Bewegungs- oder Stellungsbestimmung durchzuführen.
- Typischerweise geht mit Bewegungs- oder Stellungsbestimmung die Lösung von einem polynomialen System von Gleichungen einher. Das Verfahren erfordert nicht irgendein algebraisches System von Gleichungen, um die Stellung zu erhalten. Stattdessen sucht das Verfahren einfach den Stellungs-Übergangs-Graph für eine beste Bewegung. In dem Stellungs-Übergangs-Graph stellt jeder Knoten eine mögliche relative Stellung zwischen zwei aufeinanderfolgenden Kamerapositionen dar. Eine Kante zwischen zwei relativen Stellungen stellt die Möglichkeit des Aufweisens der zwei relativen Stellungen in aufeinanderfolgenden Rahmen dar, während die visuelle Odometrie durchgeführt wird.
- Das Verfahren unterscheidet sich von anderen Verfahren zur visuellen Odometrie, die Bewegungsschätzvorgänge verwenden, wie beispielsweise 3- oder 5-Punkt-Stellungs-Schätzung.
- Das Verfahren verwendet eine Scoring-Funktion, die eine Abstandsmetrik auf der Grundlage von Punktentsprechungen bestimmt, die die richtige Bewegung von dem Stellungs-Übergangs-Graph effizient identifizieren.
- Kurze Beschreibung der Zeichnungen
-
1 ist ein Flussdiagramm eines Verfahrens zum Bestimmen einer Bewegung zwischen dem ersten und zweiten Koordinatensystem, das in unserem visuellen Odometrieverfahren gemäß den Ausführungsbeispielen der Erfindung verwendet wird; -
2 ist ein Schema von drei aufeinanderfolgenden Bildern und zwei aufeinanderfolgenden relativen Stellungen gemäß den Ausführungsbeispielen der Erfindung; und -
3 zeigt einen Post-Übergangs-Graph für mögliche relative Stellungen zwischen zwei aufeinanderfolgenden Rahmen gemäß den Ausführungsbeispielen der Erfindung. - Beschreibung der Ausführungsbeispiele
- Wie in
1 gezeigt stellen die Ausführungsbeispiele der Erfindung ein Verfahren zum Bestimmen einer Bewegung zwischen einem ersten Koordinatensystem und einem zweiten Koordinatensystem bereit. Das Verfahren kann zum Beispiel für visuelle Odometrie-Anwendungen verwendet werden, wo das Verfahren eine Bewegung eines bewegten Objektes110 , z.B. ein Fahrzeug oder ein Roboter, von einer Position zu einer anderen bestimmt, unter Verwendung von Merkmalen von Bildern einer Szene130 , die z.B. durch eine oder mehrere auf dem Objekt montierte Kameras120 erlangt werden. - Das Verfahren verwendet einen kompakten Stellungs-Übergangs-Graph
300 , der aus Trainingsdaten110 konstruiert wird, siehe3 . Dieser Graph kann dann verwendet werden, um visuelle Odometrie zu erhalten, ohne eine explizite Bewegungs- oder Stellungsbestimmung durchzuführen. - Die meisten Stand der Technik visuellen Odometrieverfahren verwenden explizit Bewegungs- oder Stellungsbestimmung durch Lösen polynomialer Gleichungen in einem Zufallssample-Konsensverfahren (RANSAC, engl.: Random Sample Consensus method).
- Wir verwenden keine explizite Bewegungsbestimmung, und wir verwenden kein RANSAC. Unser Ansatz „sucht“ unter Verwendung des Stellungs-Übergangs-Graphs und der Punkt-Entsprechungen nach relativen Stellungen, anstatt die Entsprechungen direkt zu bestimmen.
- Die Eingabe an unser Verfahren ist eine durch die Kamera, die kalibriert ist, erlangte Sequenz von Bildern
101 . Aus der Sequenz von Bildern extrahieren103 wir Schlüsselpunkte, Deskriptoren der Schlüsselpunkte, um übereinstimmende Schlüsselpunkte zu bestimmen. - Während des Trainings konstruieren
102 wir den Stellungs-Übergangs-Graph300 aus den Trainingsdaten110 . Der Stellungs-Übergangs-Graph300 stellt mögliche Bewegungshypothesen dar. In diesem Graph stellt jeder Knoten einen Kandidaten für relative Stellungen zwischen zwei aufeinanderfolgenden Bildern in dem von der Szene130 z.B. durch die auf dem Fahrzeug110 angeordnete Kamera120 erlangten Video dar. Jede zwei Knoten verbindende Kante stellt die mögliche Bewegung zwischen zwei aufeinanderfolgenden relativen Stellungen dar. - Um dies zu tun, verwenden wir tausende von Bodendaten mit relativen Stellungen, die durch eine auf dem bewegten
125 , z.B. Fahrzeug110 auf der Straße130 , montierte Kamera erlangt werden. Diese relativen Stellungen sind geclustert und werden durch Entfernen redundanter Stellungen komprimiert. Unter Verwendung des komprimierten Satzes von Stellungen konstruieren wir einen kompakten Graph, der den Zustandsübergang von einer relativen Stellung zu einer anderen kodiert. - Für jedes Bild in dem Video detektieren wir unter Verwendung von herkömmlichen Schlüsselpunkt-Detektoren, wie beispielsweise SURF (engl.: Speeded Up Robust Features), Schlüsselpunkte. Wir extrahieren auch SURF Deskriptoren, und gleichen alle aufeinanderfolgenden Paare von Bildern in Schritt
103 ab. - Für jede relative Stellung in dem Stellungs-Übergangs-Graph, identifizieren
104 wir eine Anzahl von Einlieger-Gegenstücken, die wie in Schritt105 gezeigt konsistent sind. - Wir verwenden auf den Einliegern eine Scoring-Funktion, um eine Abstandsmetrik zu bestimmen, die einen Score ergibt. Die Abstandsmetrik identifiziert eine beste Bewegung
106 , die ausgegeben werden kann. - Das Verfahren kann in einem Prozessor durchgeführt werden, der mit einem Speicher und durch aus dem Stand der Technik bekannte Busse mit Eingabe-/Ausgabe-Schnittstellen verbunden ist.
- Wie in
2 gezeigt, zeigen wir jeweils drei aufeinanderfolgende Bilder F(t-2)201 , F(t-1)203 und F(t)205 . Die relativen Stellungen zwischen Bildern F(t-2) und F(t-1) ist durch Pi202 gegeben. Gleichfalls ist die relative Stellung zwischen Bildern F(t-1) und F(t) durch Pj204 gegeben. - Wie in
3 gezeigt, beschreiben wir die grundlegende Idee, die bei der Konstruktion des Post-Übergangs-Graphs300 während des Trainings verwendet wird. In diesem Graph stellt jeder Knoten einen Kandidaten für relative Stellungen zwischen zwei aufeinanderfolgenden Bildern in dem von der Szene130 durch z.B. eine auf dem Fahrzeug110 angeordnete Kamera120 erlangten Video dar. Jede zwei Knoten verbindende Kante stellt die mögliche Bewegung zwischen zwei aufeinanderfolgenden relativen Stellungen dar. - In
3 zum Beispiel stellt die Kante302 die mögliche Bewegung dar, die dem Aufweisen einer relativen Stellung Pr nach der relativen Stellung Pm entspricht. Mit anderen Worten gibt es, wie in2 gezeigt, drei Bilder F(t-2)201 , F(t-1)203 und F(t)125 , so dass die relative Stellung zwischen F(t-2) und F(t-1) Pm ist, und die relative Stellung zwischen F(t-1) und F(t) Pr ist. Die Schleife303 auf dem Knoten Pk304 zeigt an, dass es da zwei aufeinanderfolgende relative Stellungen geben könnte, die beide gleich der relativen Stellung Pk sind. - Der Post-Übergangs-Graph wird unter Verwendung der Trainingsvideosequenzen, d.h. der Trainingsdaten
110 , konstruiert. Wir verwenden einen analytische Bewegungsschätzvorgang und eine Bündelausgleich-Maschinerie, um die relativen Stellungen zwischen aufeinanderfolgenden Rahmen zu erhalten. Mit anderen Worten verwenden wir herkömmliche analytische relative und absolute Stellungsschätzvorgänge zum Generieren der Bodendaten. - Wir können auch die relative Stellungsinformation zum Trainieren von Daten unter Verwendung eines Globalen Posisitionsbestimmungssystems (GPS) und oder einer Inertialen Messeinheit (IMU) erhalten. Sei Qi, wo i = {1, 2, ..., m}, die relative Stellung von allen Paaren von aufeinanderfolgenden Bildern der Trainingsdaten. Dann clustern wir diese Stellungen, so dass alle relativen Stellungen, die ähnlich sind, zu einem Cluster gehören, und verwenden eine repräsentative relative Stellung von jedem Cluster. Dadurch erhalten wir eine kleinere Menge von relativen Stellungen Pi, wo i = {1, 2, ..., n} wo n << m.
- Unter Verwendung dieser kleineren Menge von relativen Stellungen konstruieren wir den in
2 gezeigten Übergangs-Graph auf die folgende Weise: - 1. Initialisiere n Knoten, wo jeder Knoten einer relativen Stellung in der Menge Pi, i = {1, 2, ..., n} entspricht.
- 2. Für alle aufeinanderfolgenden relativen Stellungen Qi und Qj: a. Wenn die nächsten relativen Stellungen in der komprimierten Menge Pi und Pj sind, dann fügen wir eine Kante von Pi zu Pj hinzu. b. Wenn die nächsten relativen Stellungen in der komprimierten Menge beide Pk sind, dann fügen wir eine Selbst-Schleife zu dem Knoten Pk hinzu.
- Seien F(t-2), F(t-1) und F(t) drei aufeinanderfolgende Bilder. Seien die relativen Stellungen zwischen F(t-2) und F(t-1) durch Pi gegeben. Um die aktuelle relative Stellung Pj zwischen F(t-1) und F(t) zu bestimmen, verwenden wir die folgende Scoring-Funktion
Score (Pj) = Einlieger (Pj) + S·w(Pi, Pj), - Das Verfahren kann in einer Anzahl von Anwendungen verwendet werden, einschließlich aber nicht beschränkt auf Autos in Autonomen-Fahr-Anwendungen, wie beispielsweise präzise Ortsbestimmung und visuelle Odometrie für mobile Roboter, tragbaren Geräten und Drohnen.
Claims (14)
- Verfahren zum Bestimmen einer Bewegung zwischen einem ersten Koordinatensystem und einem zweiten Koordinatensystem, aufweisend Schritte des: Extrahierens eines ersten Satzes von Schlüsselpunkten von einem ersten Bild, das von einer Szene durch eine auf einem bewegten Objekt angeordneten Kamera erlangt wurde; Extrahieren eines zweiten Satzes von Schlüsselpunkten von einem zweiten Bild, das von der Szene durch die Kamera erlangt wurde; Bestimmen von ersten und zweiten Stellungen jeweils von den ersten und zweiten Sätzen von Schlüsselpunkten; Bestimmen eines Scores für jede mögliche Bewegung zwischen den ersten und den zweiten Stellungen, unter Verwendung einer Scoring-Funktion und eines Stellungs-Übergangs-Graphs, der aus Trainingsdaten konstruiert wird, wo jeder Knoten in dem Post-Übergangs-Graph eine relative Stellung darstellt und jede Kante eine Bewegung zwischen zwei aufeinanderfolgenden relativen Stellungen darstellt; und Auswählen, auf der Grundlage des Scores, einer besten Bewegung als die Bewegung zwischen den ersten und zweiten Koordinatensystemen, wobei die Schritte in einem Prozessor durchgeführt werden.
- Verfahren nach Anspruch 1, wobei die Schlüsselpunkte unter Verwendung von SURF (Speeded Up Robust Features, beschleunigte robuste Merkmale) erhalten werden.
- Verfahren nach Anspruch 1, wobei der Stellungs-Übergangs-Graph unter Verwendung von Trainingsdaten konstruiert wird, die von einer Videosequenz erhalten werden, die durch die Kamera erlangt wird.
- Verfahren nach Anspruch 1, wobei die in dem Stellungs-Übergangs-Graph dargestellten Stellungen unter Verwendung eines analytischen Bewegungsschätzvorgangs bestimmt werden.
- Verfahren nach Anspruch 1, wobei die Stellungen unter Verwendung eines Geographischen Positionsbestimmungssystems (GPS) bestimmt werden.
- Verfahren nach Anspruch 1, wobei die Stellungen unter Verwendung einer Inertialen Messeinheit (IMU) bestimmt werden.
- Verfahren nach Anspruch 1, wobei die Stellungen geclustert werden, um ähnliche Bewegungen zu entfernen, um einen kompakten Stellungs-Übergangs-Graph zu konstruieren.
- Verfahren nach Anspruch 4, wobei die relativen Bewegungen unter Verwendung analytischer Bewegungsschätzung und eines 5-Punkt 2D zu 2D Bewegungsschätzvorgang erhalten werden.
- Verfahren nach Anspruch 4, wobei die relativen Bewegungen unter Verwendung analytischer Bewegungsschätzung und 3-Punkt 2D zu 3D Bewegungsschätzvorgang erhalten werden.
- Verfahren nach Anspruch 1, wobei die Scoring-Funktion von einer Anzahl von Einliegern abhängt, die durch Abgleich des ersten Satzes von Schlüsselpunkten und des zweiten Satzes von Schlüsselpunkten erhalten werden.
- Verfahren nach Anspruch 1, wobei die Bewegung für die Aufgabe visueller Odometrie verwendet wird.
- Verfahren nach Anspruch 1, wobei die Bewegung für die Aufgabe des Lokalisierens unter Verwendung eines 3D-Modells der Szene verwendet wird.
- Verfahren nach Anspruch 1, wobei das bewegte Objekt ein Fahrzeug ist.
- Verfahren nach Anspruch 1, wobei das bewegte Objekt ein Roboter ist.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/755,324 US9558424B2 (en) | 2015-06-30 | 2015-06-30 | On-road stereo visual odometry without explicit pose determinations |
US14/755,324 | 2015-06-30 | ||
PCT/JP2016/068022 WO2017002637A1 (en) | 2015-06-30 | 2016-06-10 | Method for determining a motion between a first coordinate system and a second coordinate system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112016002995T5 true DE112016002995T5 (de) | 2018-03-15 |
Family
ID=56555663
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112016002995.0T Pending DE112016002995T5 (de) | 2015-06-30 | 2016-06-10 | Verfahren zum Bestimmen einer Bewegung zwischen einem ersten Koordinatensystem und einem zweiten Koordinatensystem |
Country Status (5)
Country | Link |
---|---|
US (1) | US9558424B2 (de) |
JP (1) | JP6261811B2 (de) |
CN (1) | CN107735797B (de) |
DE (1) | DE112016002995T5 (de) |
WO (1) | WO2017002637A1 (de) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106170676B (zh) * | 2015-07-14 | 2018-10-09 | 深圳市大疆创新科技有限公司 | 用于确定移动平台的移动的方法、设备以及系统 |
DE102016211805A1 (de) * | 2015-10-09 | 2017-04-13 | Volkswagen Aktiengesellschaft | Fusion von Positionsdaten mittels Posen-Graph |
WO2018192984A1 (en) | 2017-04-19 | 2018-10-25 | Robert Bosch Gmbh | Methods and systems for aligning a vehicle with a trailer |
US10565714B2 (en) | 2018-05-25 | 2020-02-18 | Denso Corporation | Feature tracking for visual odometry |
US10634777B2 (en) * | 2018-05-30 | 2020-04-28 | Ford Global Technologies, Llc | Radar odometry for vehicle |
DE102018117660A1 (de) | 2018-07-20 | 2020-01-23 | Man Truck & Bus Se | Verfahren und system zum bestimmen einer position eines fahrzeugs |
KR102559203B1 (ko) * | 2018-10-01 | 2023-07-25 | 삼성전자주식회사 | 포즈 정보를 출력하는 방법 및 장치 |
US11783707B2 (en) | 2018-10-09 | 2023-10-10 | Ford Global Technologies, Llc | Vehicle path planning |
US11460851B2 (en) | 2019-05-24 | 2022-10-04 | Ford Global Technologies, Llc | Eccentricity image fusion |
US11521494B2 (en) | 2019-06-11 | 2022-12-06 | Ford Global Technologies, Llc | Vehicle eccentricity mapping |
US11662741B2 (en) | 2019-06-28 | 2023-05-30 | Ford Global Technologies, Llc | Vehicle visual odometry |
CN112364785B (zh) * | 2020-11-13 | 2023-07-25 | 中移雄安信息通信科技有限公司 | 一种运动训练指导方法、装置、设备及计算机存储介质 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3467017B2 (ja) * | 2000-11-30 | 2003-11-17 | キヤノン株式会社 | 位置姿勢の決定方法及び装置並びに記憶媒体 |
US20050140670A1 (en) * | 2003-11-20 | 2005-06-30 | Hong Wu | Photogrammetric reconstruction of free-form objects with curvilinear structures |
CA2812723C (en) * | 2010-09-24 | 2017-02-14 | Evolution Robotics, Inc. | Systems and methods for vslam optimization |
US9020187B2 (en) * | 2011-05-27 | 2015-04-28 | Qualcomm Incorporated | Planar mapping and tracking for mobile devices |
US8744169B2 (en) | 2011-05-31 | 2014-06-03 | Toyota Motor Europe Nv/Sa | Voting strategy for visual ego-motion from stereo |
US8831290B2 (en) * | 2012-08-01 | 2014-09-09 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for determining poses of vehicle-mounted cameras for in-road obstacle detection |
JP6086474B2 (ja) * | 2012-11-26 | 2017-03-01 | Kddi株式会社 | 情報端末装置 |
US9940553B2 (en) | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
WO2014159726A1 (en) * | 2013-03-13 | 2014-10-02 | Mecommerce, Inc. | Determining dimension of target object in an image using reference object |
CN103247199B (zh) * | 2013-05-15 | 2015-03-11 | 安徽三联交通应用技术股份有限公司 | 一种机动车移动位置和姿态的精确测量方法 |
CN103345751A (zh) * | 2013-07-02 | 2013-10-09 | 北京邮电大学 | 一种基于鲁棒特征跟踪的视觉定位方法 |
US10295338B2 (en) * | 2013-07-12 | 2019-05-21 | Magic Leap, Inc. | Method and system for generating map data from an image |
US9495761B2 (en) * | 2013-11-04 | 2016-11-15 | The Regents Of The University Of California | Environment mapping with automatic motion model selection |
US20150286873A1 (en) * | 2014-04-03 | 2015-10-08 | Bruce L. Davis | Smartphone-based methods and systems |
CN104374395A (zh) * | 2014-03-31 | 2015-02-25 | 南京邮电大学 | 基于图的视觉slam方法 |
US9436278B2 (en) * | 2014-04-01 | 2016-09-06 | Moju Labs, Inc. | Motion-based content navigation |
CN104457761B (zh) * | 2014-11-18 | 2017-10-24 | 上海新跃仪表厂 | 基于多目视觉的相对位置和姿态的特征接力方法 |
-
2015
- 2015-06-30 US US14/755,324 patent/US9558424B2/en active Active
-
2016
- 2016-06-10 DE DE112016002995.0T patent/DE112016002995T5/de active Pending
- 2016-06-10 JP JP2017513572A patent/JP6261811B2/ja active Active
- 2016-06-10 WO PCT/JP2016/068022 patent/WO2017002637A1/en active Application Filing
- 2016-06-10 CN CN201680039165.7A patent/CN107735797B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107735797B (zh) | 2021-03-19 |
JP2017528833A (ja) | 2017-09-28 |
CN107735797A (zh) | 2018-02-23 |
US9558424B2 (en) | 2017-01-31 |
WO2017002637A1 (en) | 2017-01-05 |
JP6261811B2 (ja) | 2018-01-17 |
US20170004379A1 (en) | 2017-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112016002995T5 (de) | Verfahren zum Bestimmen einer Bewegung zwischen einem ersten Koordinatensystem und einem zweiten Koordinatensystem | |
Liang et al. | Learning for disparity estimation through feature constancy | |
Kaneko et al. | Mask-SLAM: Robust feature-based monocular SLAM by masking using semantic segmentation | |
DE112018000332T5 (de) | Dichtes visuelles slam mit probabilistic-surfel-map | |
DE112012001984B4 (de) | Integrieren von Video-Metadaten in 3D-Modelle | |
DE112018000298T5 (de) | System und verfahren zur poseninvarianten gesichtsausrichtung | |
DE102017120112A1 (de) | Tiefenkartenschätzung mit stereobildern | |
DE202016007816U1 (de) | Das Entdecken von Unternehmen aus Bildern | |
WO2019180414A1 (en) | Localisation, mapping and network training | |
DE102005008131A1 (de) | Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen | |
DE102015115786B4 (de) | An einem computer realisiertes verfahren und system zur verarbeitung einer sequenz von bildern | |
DE102014222617A1 (de) | Fahrzeugerfassungsverfahren und Fahrzeugerfassungssytem | |
DE102015115789A1 (de) | Doppler-basierte Segmentierung und optischer Fluss in Radarbildern | |
Yao et al. | Deep audio-visual fusion neural network for saliency estimation | |
DE102018209377A1 (de) | Verfahren zur Darstellung von AR-/VR-Inhalten auf einem mobilen Endgerät und mobiles Endgerät, auf dem AR-/VR-Inhalte dargestellt werden | |
CN113643329B (zh) | 一种基于孪生注意力网络的在线更新目标跟踪方法和系统 | |
DE112014002943T5 (de) | Verfahren zur Registrierung von Daten unter Verwendung eines Satzes von Grundelementen | |
Babu V et al. | A deeper insight into the undemon: Unsupervised deep network for depth and ego-motion estimation | |
DE102020126954A1 (de) | System und Verfahren zum Erfassen einer räumlichen Orientierung einer tragbaren Vorrichtung | |
CN113450457A (zh) | 道路重建方法、装置、计算机设备和存储介质 | |
CN112132960A (zh) | 一种三维重建方法、装置和电子设备 | |
CN112561947A (zh) | 一种图像自适应运动估计方法及应用 | |
CN111681270A (zh) | 一种实现图像帧之间配准的方法、装置和存储介质 | |
DE102019207888A1 (de) | Verfahren und Systeme für die Ausnutzung von Bewegungskonflikten pro Pixel zum Extrahieren primärer und sekundärer Bewegungen in Augmented-Reality-Systemen | |
Sun et al. | Accurate deep direct geo-localization from ground imagery and phone-grade gps |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R084 | Declaration of willingness to licence | ||
R016 | Response to examination communication |