DE10326943B4 - Autonomes Fahrzeug sowie zugehörige Verfahren und Vorrichtungen zur Bewegungsbestimmung, Bewegungssteuerung und Objekterkennung - Google Patents
Autonomes Fahrzeug sowie zugehörige Verfahren und Vorrichtungen zur Bewegungsbestimmung, Bewegungssteuerung und Objekterkennung Download PDFInfo
- Publication number
- DE10326943B4 DE10326943B4 DE10326943.6A DE10326943A DE10326943B4 DE 10326943 B4 DE10326943 B4 DE 10326943B4 DE 10326943 A DE10326943 A DE 10326943A DE 10326943 B4 DE10326943 B4 DE 10326943B4
- Authority
- DE
- Germany
- Prior art keywords
- autonomous vehicle
- information
- epipolar geometry
- camera
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 38
- 238000000034 method Methods 0.000 title claims description 18
- 239000011159 matrix material Substances 0.000 claims abstract description 16
- 238000013519 translation Methods 0.000 claims abstract description 11
- 230000001133 acceleration Effects 0.000 claims abstract description 10
- 230000004907 flux Effects 0.000 claims abstract description 10
- 238000001514 detection method Methods 0.000 claims abstract description 8
- 238000005259 measurement Methods 0.000 claims abstract description 7
- 230000005484 gravity Effects 0.000 claims abstract description 5
- 230000005389 magnetism Effects 0.000 claims abstract description 5
- 241001282736 Oriens Species 0.000 claims 1
- 238000004590 computer program Methods 0.000 claims 1
- 238000007796 conventional method Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0259—Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/027—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Vascular Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Vorrichtung zur Steuerung und/oder Bestimmung der Bewegung eines autonomen Fahrzeugs und/oder zur Detektion dreidimensionaler (3D)-Information eines Objektes vor einem autonomen Fahrzeug, mit- einer Punktdetektionseinheit (141) zur Detektion sich entsprechender Punkte aus wenigstens zwei aufeinanderfolgend durch eine Kamera (110) aufgenommenen Bildern,- einer Orientierungsmesseinheit (130) zur Berechnung von Orientierungsinformation für das autonome Fahrzeug, wobei die Orientierungsmesseinheit einen Beschleunigungssensor (131) zur Messung der Schwerkraft und einen Magnetflusssensor (132) zur Messung des terrestrischen Magnetismus umfasst und die Orientierungsinformation des autonomen Fahrzeugs bezüglich eines festen Erdkoordinatensystems unter Verwendung der Absolutwerte der durch den Beschleunigungssensor und den Magnetflusssensor erhaltenen Messwerte berechnet wird,- einer Epipolar-Recheneinheit (142) zur Berechnung epipolarer Geometrieinformation basierend auf der von der Orientierungsmesseinheit berechneten Orientierungsinformation und der Information über wenigstens zwei sich entsprechende Punkte und- einer Bewegungsanalyseeinheit (143) zur Analysierung der Bewegung des autonomen Fahrzeugs basierend auf der berechneten epipolaren Geometrieinformation und/oder eine Einheit (144) zur Analyse von 3D-Information über ein jeweiliges Objekt vor dem autonomen Fahrzeug basierend auf der berechneten epipolaren Geometrieinformation,- wobei die epipolare Geometrieinformation anhand der nachfolgenden Beziehung berechnet wird, wenn eine die Orientierung des autonomen Fahrzeugs bezüglich irgendwelcher zweier aufeinanderfolgender Bilder ausdrückende Matrix gemessen werden kann:wobei f eine Brennweite der Kamera, Tund TTranslationsvektorelemente, welche Translationsinformation zwischen den zwei aufeinanderfolgenden Bildern repräsentieren, uund vx- bzw. y-Koordinaten in einer Ebene des von den beiden aufeinanderfolgenden Bildern zuerst aufgenommenen Bildes und uund vx- bzw. y-Koordinaten in einer Ebene des von den beiden aufeinanderfolgenden Bildern zuletzt aufgenommenen Bildes bezeichnen.
Description
- Die Erfindung bezieht sich auf ein autonomes Fahrzeug sowie auf Vorrichtungen und Verfahren zur Steuerung und/oder Bestimmung der Bewegung eines autonomen Fahrzeugs und/oder zur Detektion dreidimensionaler Information eines Objektes vor einem autonomen Fahrzeug. Bei dem autonomen Fahrzeug kann es sich insbesondere um einen mobilen Roboter handeln.
- Da heutzutage das Interesse an Robotern ständig zunimmt, sind bereits verschiedene Arten von Robotern vorgeschlagen und aktiv entwickelt worden. Roboter werden für zahlreiche Anwendungen hergestellt, wobei für jegliche Roboteranwendung eine Bewegungssteuerung benötigt wird. Insbesondere wird zur exakten Steuerung der Bewegung eines autonomen Fahrzeugs, wie eines mobilen Roboters, nicht nur Information über die Bewegung des autonomen Fahrzeugs selbst benötigt, um eine exakte Pfadplanung und Positionierung des autonomen Fahrzeugs zu ermöglichen, sondern auch dreidimensionale (3D-)lnformation über ein Objekt, wie ein Hindernis. Speziell wird Information über den Abstand zwischen dem autonomen Fahrzeug und dem Objekt und Information über die 3D-Gestalt des Objektes etc. benötigt, um das autonome Fahrzeug in die Lage zu versetzen, das vor ihm erscheinende Hindernis zu umgehen.
- Es sind bereits mehrere Verfahren zur Ermittlung der Bewegung eines autonomen Fahrzeugs und zur Gewinnung von 3D-Information über ein vor dem sich bewegenden autonomen Fahrzeug erscheinendes Objekt vorgeschlagen worden. Üblicherweise wird diese 3D-Information von einem zweidimensionalen (2D-)Bild extrahiert, das durch eine Kamera erhalten wird. Diese Verfahren, die 3D-Information aus einem 2D-Bild extrahieren, sind jedoch grundlegenden Beschränkungen hinsichtlich der Gewinnung korrekter epipolarer Geometrieinformation unterworfen.
- Um die obige Problematik anzugehen, werden z.B. in den Patentschriften
US 6 430 304 B2 ,US 6 421 961 B1 undUS 6 393 144 B2 Verfahren zur genaueren rechnerischen Ermittlung epipolarer Geometrieinformation durch Beseitigen von Rauschen vorgeschlagen. Wenngleich damit genauere epipolare Geometrieinformationen erhalten werden können, sind noch immer zahlreiche Annahmen und Beschränkungen bei der Berechnung der Bewegung eines autonomen Fahrzeugs, wie eines mobilen Roboters, in Betracht zu ziehen, und daher gibt es noch immer zahlreiche Beschränkungen bei der Anwendung dieser herkömmlichen Verfahren. - Verschiedene weitere Verfahren und Vorrichtungen zur Gewinnung von 3D-Information über zu detektierende Objekte anhand von Kamerabildaufnahmen sind in den Patentschriften
US 6 038 074 A ,US 6 175 648 B1 US 6 175 648 B1 undUS 5 644 651 A sowie der OffenlegungsschriftJP H11 - 306 363 A - Der Erfindung liegt als technisches Problem die Bereitstellung eines autonomen Fahrzeugs sowie zugehöriger Verfahren und Vorrichtungen zur Bewegungssteuerung, Bewegungsbestimmung und/oder Objekterkennung zugrunde, die gegenüber den herkömmlichen Systemen verbessert sind und bei denen die oben genannten Schwierigkeiten herkömmlicher Systeme wenigstens teilweise behoben sind.
- Die Erfindung löst dieses Problem durch die Bereitstellung einer Vorrichtung mit den Merkmalen des Anspruchs 1, eines autonomen Fahrzeugs mit den Merkmalen des Anspruchs 6 und eines Verfahrens mit den Merkmalen des Anspruchs 7.
- Vorteilhafte Weiterbildungen der Erfindung sind in den Unteransprüchen angegeben.
- Vorteilhafte Ausführungsformen der Erfindung sind in den Zeichnungen dargestellt und werden nachfolgend beschrieben. Hierbei zeigen:
-
1 ein Blockschaltbild eines autonomen Fahrzeugs mit einem System zur Bewegungsbestimmung und -steuerung desselben und zur Detektion dreidimensionaler Information über Objekte vor dem autonomen Fahrzeug, -
2 eine Darstellung epipolarer Geometrieverhältnisse zweier aufeinanderfolgend mittels einer Kamera des Fahrzeugs von1 gewonnener Bilder, -
3 eine schematische Darstellung einer Sensoranordnung, die in einer Orientierungsmesseinheit des Fahrzeugs von1 enthalten ist, und von zugehörigen Sensorkoordinaten, -
4 eine Darstellung der Euler-Winkel für Koordinaten der Kamera von1 , -
5 eine Darstellung der Beziehung zwischen ortsfesten Koordinaten und den Koordinaten der Sensoren von1 , -
6 ein Flussdiagramm eines Verfahrens zur Bestimmung der Bewegung eines autonomen Fahrzeugs und zur Detektion dreidimensionaler Information von Objekten vor dem autonomen Fahrzeug und -
7 fotografische Darstellungen von Punkten und zugehöriger epipolarer Geometrieinformation, wie sie von einem System zur Detektion dreidimensionaler Information über ein vor einem autonomen Fahrzeug befindliches Objekt erhalten werden. -
1 zeigt als Blockdiagramm ein autonomes Fahrzeug100 mit einem System zur Bestimmung der Bewegung des autonomen Fahrzeugs und zur Detektion dreidimensionaler Informationen über ein jeweiliges Objekt vor dem autonomen Fahrzeug. Wie aus1 zu erkennen, umfasst das autonome Fahrzeug100 eine Kamera110 , eine Bildverarbeitungseinheit120 , eine Orientierungsmesseinheit130 , eine Hauptsteuereinheit140 und eine Bewegungssteuereinheit150 . - Die Kamera
100 ist am autonomen Fahrzeug100 befestigt und liefert kontinuierlich Bilder vom Bereich vor dem autonomen Fahrzeug100 mit einer vorgebbaren Bildrate. Wenngleich in1 nicht näher gezeigt, sei angenommen, dass die Kamera110 und das autonome Fahrzeug100 die gleichen Koordinaten haben. - Die Bildverarbeitungseinheit
120 ist mit der Kamera110 verbunden und dient als Bildfangschaltung zum Aufnehmen zugeführter Bilder in einem vorgebbaren Bildformat. Die von der Bildverarbeitungseinheit120 verarbeiteten Bilder werden der Hauptsteuereinheit140 zur Analyse der Bewegung des autonomen Fahrzeugs100 und zur Analyse dreidimensionaler (3D-)lnformation von Objekten vor dem autonomen Fahrzeug100 zugeführt. Wenngleich in1 eine einzelne Kamera110 gezeigt ist, mit der das autonome Fahrzeug100 in einer einfachen Struktur mit geringen Kosten realisiert werden kann, versteht es sich, dass alternativ eine Stereokamera zur gleichzeitigen Gewinnung von jeweils zwei Bildem oder eine Mehrzahl von Kameras verwendet werden kann. - Die Orientierungsmesseinheit
130 misst die Orientierung des autonomen Fahrzeugs100 . Zu diesem Zweck beinhaltet sie einen Beschleunigungssensor131 zur Erfassung der Beschleunigung des autonomen Fahrzeugs100 sowie einen Magnetflusssensor132 . Der Beschleunigungssensor131 wird auch zur Schwerkraftmessung verwendet, während der Magnetflusssensor132 zur Messung des terrestrischen Magnetismus benutzt wird. Die Orientierungsmesseinheit130 berechnet Orientierungsinformationen über das autonome Fahrzeug100 mit Bezug auf fixierte terrestrische Koordinaten unter Verwendung der Absolutwerte von Messwerten, die durch den Beschleunigungssensor131 und den Magnetflusssensor132 erhalten werden. - Die Hauptsteuereinheit
140 steuert den Gesamtbetrieb des autonomen Fahrzeugs100 . Dazu analysiert sie die Bewegung des autonomen Fahrzeugs100 und die 3D-Informationen über ein jeweiliges Objekt vor dem autonomen Fahrzeug100 , um letzteres effektiv zu steuern. Zu diesem Zweck beinhaltet die Hauptsteuereinheit140 eine zugehörige Punktdetektionseinheit141 , eine Epipolar-Recheneinheit142 , eine Bewegungsanalyseeinheit143 und eine 3D-Informationsanalyseeinheit 144. - Die Punktdetektionseinheit
141 detektiert sich entsprechende Punkte, die in einer Umgebung platziert sind, aus zwei aufeinanderfolgenden Bildern, welche durch die Kamera110 mit einer vorgebbaren Bildrate erhalten werden. Die Epipolar-Recheneinheit142 berechnet epipolare Geometrieinformation basierend auf Orientierungsinformation des autonomen Fahrzeugs100 , die ihr von der Orientierungsmesseinheit130 zugeführt wird, und auf der zugehörigen Punktinformation, die ihr von der entsprechenden Punktdetektionseinheit141 zugeführt wird. Basierend auf der von der Epipolar-Recheneinheit142 berechneten epipolaren Geometrieinformation analysiert die Bewegungsanalyseeinheit143 die Bewegung des autonomen Fahrzeugs100 . Des weiteren analysiert die 3D-Informationsanalyseeinheit144 auf Basis der von der Epipolar-Recheneinheit142 berechneten epipolaren Geometrieinformation3D -Information eines vor dem sich bewegenden autonomen Fahrzeug100 erscheinenden Objektes, wie Informationen über den Abstand zwischen dem autonomen Fahrzeug100 und dem Objekt, Informationen über die 3D-Gestalt des Objektes etc. Die Bewegungssteuereinheit150 steuert die Bewegung des autonomen Fahrzeugs100 in Reaktion auf einen Steuerbefehl von der Hauptsteuereinheit140 . -
2 veranschaulicht Epipolargeometrien zweier aufeinanderfolgend durch die Kamera110 von1 erhaltener Bilder. Dabei handelt es sich um zwei aufeinanderfolgend durch die Kamera110 mit einer vorgegebenen Bildrate aufgenommene Bilder, was bedeutet, dass die beiden Bilder an zwei unterschiedlichen Positionen erhalten werden, solange sich das autonome Fahrzeug100 bewegt. -
- Bezüglich des so definierten Koordinatensystems sind die projizierten Bildebenen wie folgt definiert:
U1 einen auf ein vorheriges Bild projizierten Bildpunkt bezeichnet,U2 einen auf ein nachfolgendes Bild projizierten Bildpunkt bezeichnet,u1 ,u2 undv1 ,v2 die x- bzw. y-Koordinaten auf der jeweils zugehörigen Bildebene bezeichnen undf die Brennweite der Kamera ist. -
-
- Um die vorstehende Gleichung (4) zu vereinfachen, wird eine Matrix
Q wie folgt definiert:R eine Rotationsmatrix undS ein Translationsvektor in einer Matrixdarstellung sind. Die MatrixQ gibt die Beziehung zwischen dem Koordinatensystem der Kamera110 und demjenigen der Bilder wieder und ist durch das Produkt der RotationsmatrixR mit dem Translationsvektor S bestimmt. -
- Hierbei ist 3λν=O, wenn die Werte von (λ, ν, σ) keine Permutation von (1, 2, 3) sind.
-
-
-
-
-
- Wie aus der obigen Gleichung (11) ersichtlich, wird Information von wenigstens acht sich entsprechenden Punkten benötigt, um die epipolare Geometrieinformation zu erhalten. Um jedoch acht sich entsprechende Punkte aus einer Bildebene zu erhalten und deren Information adäquat auszuwählen und zu verwenden, sollten zahlreiche epipolare Geometrierestriktionen erfüllt werden. Außerdem sind zahlreiche Restriktionen und Annahmen erforderlich, um die Komponenten der Rotationsmatrix
R und des TranslationsvektorsS separat aus der epipolaren Geometrieinformation zu extrahieren. Daher werden erfindungsgemäß die epipolare Geometrieinformation, die RotationsmatrixR und der TranslationsvektorS unter Verwendung der Komponenten der durch die Orientierungsmesseinheit130 gemessenen Rotationsmatrix berechnet, anstatt die epipolare Geometrieinformation und die RotationsmatrixR unter Verwendung mathematischer Beziehungen, wie der Gleichung (11), zu extrahieren. -
3 veranschaulicht eine Anordnung der in der Orientierungsmesseinheit von1 enthaltenen Sensoren sowie die Koordinaten der Sensoren.4 veranschaulicht die Eulerschen Winkel gemäß den Koordinaten der Kamera von1 , und5 veranschaulicht die Beziehung zwischen den festen Erdkoordinaten und den Koordinaten der Sensoren von1 . Ein Verfahren zur Messung der Orientierung des autonomen Fahrzeugs100 gemäß der Erfindung wird nachfolgend unter Bezugnahme auf die3 bis5 erläutert. - Wie oben unter Bezugnahme auf
1 beschrieben, besteht die Orientierungsmesseinheit130 aus dem Beschleunigungssensor131 und dem Magnetflusssensor132 . Bezugnehmend auf die3 bis5 detektiert und berechnet der Beschleunigungssensor131 einen Winkel ϕ um die z-Achse, d.h. den Winkel zwischen der xy-Ebene des autonomen Fahrzeugs100 und der xy-Ebene des festen Erdkoordinatensystems als dem absoluten Koordinatensystem gemäß der folgenden Gleichung:R mit rij bezeichnet und die RotationsmatrixR kann wie folgt repräsentiert werden: -
-
-
-
-
- Wie aus der obigen Gleichung (18) ersichtlich, ist es erfindungsgemäß möglich, die epipolare Geometrieinformation unter Verwendung von wenigstens zwei sich entsprechenden Punkten korrekt zu erhalten. Es sei angemerkt, dass verglichen hiermit die herkömmlichen Verfahren wenigstens acht sich entsprechende Punkte benötigen. Mit anderen Worten ist es erfindungsgemäß möglich, die epipolaren Geometrieprobleme, die herkömmlicherweise kaum gelöst wurden und vielen Beschränkungen unterworfen waren, einfacher zu lösen.
- Insbesondere ist es, da nur wenigstens zwei sich entsprechende Punkte benötigt werden, erfindungsgemäß möglich, die epipolare Geometrieinformation unter Verwendung von mehr verschiedenen und verifizierteren Verfahren zu erhalten. Dementsprechend können die zugehörigen Punkte genauer gemessen werden, so dass es möglich ist, die Bewegung eines autonomen Fahrzeugs sowie 3D-Information eines Objektes vor dem autonomen Fahrzeug einfacher und genauer zu analysieren.
-
6 zeigt ein Flussdiagramm eines Verfahrens zur Bestimmung der Bewegung eines autonomen Fahrzeugs und zur Detektion dreidimensionaler Information eines Objektes vor dem autonomen Fahrzeug gemäß der Erfindung. Zunächst werden durch die Kamera110 zwei aufeinanderfolgende Bilder aufgenommen (Schritt1100 ). Solange das autonome Fahrzeug100 nicht aufhört, sich zu bewegen, werden die zwei Bilder an zwei verschiedenen Positionen erhalten. - Nach dem Aufnehmen der zwei aufeinanderfolgenden Bilder im Schritt
1100 erfasst die Orientierungsmesseinheit130 die Richtungen der Schwerkraft und des terrestrischen Magnetismus unter Verwendung des Beschleunigungssensors131 bzw. des Magnetflusssensors132 und berechnet die Orientierung des autonomen Fahrzeugs100 bezüglich des festen Erdkoordinatensystems unter Verwendung der Absolutwerte der von den jeweiligen Sensoren erfassten Messwerte (Schritt1300 ). - Danach extrahiert die in der Hauptsteuereinheit
140 enthaltende Punktdetektionseinheit141 wenigstens zwei sich entsprechende Punkte aus den beiden im Schritt1100 aufeinanderfolgend aufgenommenen Bildern (Schritt1410 ). Anschließend berechnet die Epipolar-Recheneinheit142 die epipolare Geometrieinformation basierend auf der RotationsmatrixR des autonomen Fahrzeugs100 , die von der Orientierungsmesseinheit130 geliefert wird, und die zugehörige Punktinformation, die von der Punktdetektionseinheit141 extrahiert wird (1420 ). -
7 zeigt in den Teilbilderna ,b undc fotografische Darstellungen sich entsprechender Punkte und der epipolaren Geometrieinformation, die gemäß der Erfindung von einem System zur Detektion von 3D-Information über ein vor einem autonomen Fahrzeug existierendes Objekt erhalten werden. Spezieller zeigt das Teilbilda die Resultate der Extraktion sich entsprechender Punkte aus zwei aufeinanderfolgenden Bildern, und das Teilbildb zeigt die Resultate der Extraktion der epipolaren Geometrieinformation aus den sich entsprechenden Punkten des Teilbildsa . Außerdem zeigt das Teilbildc die Resultate einer Entfernung von Ausreißern aus den Bildern gemäß Teilbildb . Wie aus7 ersichtlich, kann erfindungsgemäß die epipolare Geometrieinformation unter Verwendung von nur zwei korrespondierenden, d.h. sich entsprechenden Punkten ohne negative Effekte aufgrund verschiedener Beschränkungen bei der Berechnung der epipolaren Geometrieinformation exakt erhalten werden. Daher ist es erfindungsgemäß möglich, die Bewegung eines autonomen Fahrzeugs sowie 3D-Information eines Objektes vor dem autonomen Fahrzeug genauer zu analysieren. - Wieder bezugnehmend auf
6 analysiert die Bewegungsanalyseeinheit143 nach der Berechnung der epipolaren Geometrieinformation im Schritt1420 die Bewegung des autonomen Fahrzeugs100 basierend auf der epipolaren Geometrieinformation (Schritt1430 ). Des weiteren analysiert die 3D-lnformationsanalyseeinheit144 3D-Information eines Objektes vor dem autonomen Fahrzeug100 (Schritt1440 ). - Wie oben erläutert, ist es erfindungsgemäß möglich, die epipolare Geometrieinformation aus nur zwei korrespondierenden Punkten zu erhalten und die epipolaren Geometrieprobleme, die unter Verwendung herkömmlicher Verfahren nur schwer zu lösen sind, einfacher zu lösen. Außerdem ist es erfindungsgemäß möglich, die Bewegung eines autonomen Fahrzeugs sowie 3D-Information eines Objektes vor dem autonomen Fahrzeug unter Verwendung von Information von nur zwei korrespondierenden Punkten einfacher und genauer zu analysieren.
- Die Erfindung kann z.B. als computerlesbarer Code auf einem Aufzeichnungsmedium implementiert sein und auf einem Computer ausgeführt werden. Das Aufzeichnungsmedium kann irgendeine Art von Aufzeichnungsvorrichtung umfassen, auf der Daten gespeichert werden. Beispielsweise kann das Aufzeichnungsmedium ein ROM, RAM, CD-ROM, Magnetband, eine Festplatte, Diskette, ein Flash-Speicher, eine optische Datenspeichervorrichtung und auch eine Trägerwelle sein, wie bei einer Übertragung über das Internet. Zudem kann das Aufzeichnungsmedium über Computersysteme hinweg verteilt sein, die miteinander durch ein Netzwerk verbunden sind, und die Erfindung kann als Computercode im Netzwerk gespeichert und implementiert sein.
Claims (12)
- Vorrichtung zur Steuerung und/oder Bestimmung der Bewegung eines autonomen Fahrzeugs und/oder zur Detektion dreidimensionaler (3D)-Information eines Objektes vor einem autonomen Fahrzeug, mit - einer Punktdetektionseinheit (141) zur Detektion sich entsprechender Punkte aus wenigstens zwei aufeinanderfolgend durch eine Kamera (110) aufgenommenen Bildern, - einer Orientierungsmesseinheit (130) zur Berechnung von Orientierungsinformation für das autonome Fahrzeug, wobei die Orientierungsmesseinheit einen Beschleunigungssensor (131) zur Messung der Schwerkraft und einen Magnetflusssensor (132) zur Messung des terrestrischen Magnetismus umfasst und die Orientierungsinformation des autonomen Fahrzeugs bezüglich eines festen Erdkoordinatensystems unter Verwendung der Absolutwerte der durch den Beschleunigungssensor und den Magnetflusssensor erhaltenen Messwerte berechnet wird, - einer Epipolar-Recheneinheit (142) zur Berechnung epipolarer Geometrieinformation basierend auf der von der Orientierungsmesseinheit berechneten Orientierungsinformation und der Information über wenigstens zwei sich entsprechende Punkte und - einer Bewegungsanalyseeinheit (143) zur Analysierung der Bewegung des autonomen Fahrzeugs basierend auf der berechneten epipolaren Geometrieinformation und/oder eine Einheit (144) zur Analyse von 3D-Information über ein jeweiliges Objekt vor dem autonomen Fahrzeug basierend auf der berechneten epipolaren Geometrieinformation, - wobei die epipolare Geometrieinformation anhand der nachfolgenden Beziehung berechnet wird, wenn eine die Orientierung des autonomen Fahrzeugs bezüglich irgendwelcher zweier aufeinanderfolgender Bilder ausdrückende Matrix gemessen werden kann:
- Vorrichtung nach
Anspruch 1 , weiter dadurch gekennzeichnet, dass die Kamera die gleichen Koordinatenachsen wie das autonome Fahrzeug hat. - Vorrichtung nach
Anspruch 1 oder2 , weiter dadurch gekennzeichnet, dass die Bilder durch eine einzige Kamera mit einer vorgebbaren Bildrate aufgenommen werden. - Vorrichtung nach
Anspruch 1 oder2 , weiter dadurch gekennzeichnet, dass die Bilder gleichzeitig durch eine Stereokamera oder durch zwei oder mehr Kameras aufgenommen werden. - Vorrichtung nach einem der
Ansprüche 1 bis4 , weiter dadurch gekennzeichnet, dass die 3D-Information über das jeweilige Objekt vor dem autonomen Fahrzeug Informationen über den Abstand zwischen dem autonomen Fahrzeug und dem Objekt und/oder über die 3D-Gestalt des Objektes umfasst. - Autonomes Fahrzeug, gekennzeichnet durch eine Vorrichtung zur Steuerung und/oder Bestimmung der Bewegung des autonomen Fahrzeugs und/oder zur Detektion dreidimensionaler Information eines Objektes vor dem autonomen Fahrzeug mit den Merkmalen gemäß einem der
Ansprüche 1 bis5 . - Verfahren zur Steuerung und/oder Bestimmung der Bewegung eines autonomen Fahrzeugs und/oder zur Detektion dreidimensionaler (3D)-Information eines Objektes vor einem autonomen Fahrzeug, mit folgenden Schritten: a) Detektieren von sich entsprechenden Punkten aus wenigstens zwei aufeinanderfolgend durch eine Kamera aufgenommenen Bildern, b) Berechnen von Orientierungsinformation des autonomen Fahrzeugs, mit folgenden Teilschritten: b.1) Messen der Schwerkraft, b.2) Messen des terrestrischen Magnetismus und b.3) Berechnen der Orientierungsinformation des autonomen Fahrzeugs bezüglich eines festen Erdkoordinatensystems unter Verwendung der Absolutwerte von in den Teilschritten b.1 und b.2 erhaltenen Messwerten, c) Berechnen von epipolarer Geometrieinformation basierend auf der im Schritt b berechneten Orientierungsinformation und der Information über wenigstens zwei sich entsprechende Punkte, wobei die epipolare Geometrieinformation, wenn eine Matrix gemessen werden kann, welche die Orientierung des autonomen Fahrzeugs bezüglich irgendwelcher zweier aufeinanderfolgender Bilder ausdrückt, gemäß der folgenden Beziehung berechnet wird:
- Verfahren nach
Anspruch 7 , weiter dadurch gekennzeichnet, dass die Kamera so positioniert wird, dass sie die gleichen Koordinatenachsen wie das autonome Fahrzeug hat. - Verfahren nach
Anspruch 7 oder8 , weiter dadurch gekennzeichnet, dass die Bilder durch eine einzelne Kamera mit vorgebbarer Bildrate aufgenommen werden. - Verfahren nach
Anspruch 7 oder8 , weiter dadurch gekennzeichnet, dass die Bilder gleichzeitig durch eine Stereokamera oder durch mehrere Kameras aufgenommen werden. - Verfahren nach einem der
Ansprüche 7 bis10 , weiter dadurch gekennzeichnet, dass die 3D-Information des Objektes vor dem autonomen Fahrzeug Informationen über den Abstand zwischen dem autonomen Fahrzeug und dem Objekt und Informationen über die 3D-Gestalt des Objektes umfasst. - Computerlesbares Aufzeichnungsmedium, dadurch gekennzeichnet, dass es ein Computerprogramm zur Ausführung des Verfahrens nach einem der
Ansprüche 7 bis11 gespeichert hat.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2002-0072696A KR100446636B1 (ko) | 2002-11-21 | 2002-11-21 | 이동체의 움직임 및 이동체 전방에 위치한 물체의 3차원정보 측정 기능을 구비한 이동체 및 그 방법 |
KR2002/72696 | 2002-11-21 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10326943A1 DE10326943A1 (de) | 2004-06-17 |
DE10326943B4 true DE10326943B4 (de) | 2019-09-12 |
Family
ID=32291809
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10326943.6A Expired - Fee Related DE10326943B4 (de) | 2002-11-21 | 2003-06-05 | Autonomes Fahrzeug sowie zugehörige Verfahren und Vorrichtungen zur Bewegungsbestimmung, Bewegungssteuerung und Objekterkennung |
Country Status (4)
Country | Link |
---|---|
US (1) | US7440585B2 (de) |
KR (1) | KR100446636B1 (de) |
DE (1) | DE10326943B4 (de) |
FR (1) | FR2847699B1 (de) |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3433204B2 (ja) * | 2000-04-27 | 2003-08-04 | 株式会社東北テクノアーチ | 3次元モデル構成装置 |
US7802193B1 (en) | 2001-12-19 | 2010-09-21 | Sandia Corporation | Controlling motion using a human machine interface |
US7376262B2 (en) * | 2003-08-04 | 2008-05-20 | American Gnc Corporation | Method of three dimensional positioning using feature matching |
US8275193B2 (en) * | 2004-08-04 | 2012-09-25 | America Gnc Corporation | Miniaturized GPS/MEMS IMU integrated board |
US8121392B2 (en) * | 2004-10-25 | 2012-02-21 | Parata Systems, Llc | Embedded imaging and control system |
JP4480083B2 (ja) * | 2005-02-23 | 2010-06-16 | アイシン精機株式会社 | 物体認識装置 |
SE530384C2 (sv) * | 2006-02-17 | 2008-05-20 | Totalfoersvarets Forskningsins | Metod för fjärrstyrning av en obemannad markfarkost med rörlig kamera samt en sådan markfarkost |
US8826959B2 (en) * | 2006-06-29 | 2014-09-09 | Graphic Packaging International, Inc. | Heat sealing systems and methods, and related articles and materials |
US20080075323A1 (en) * | 2006-09-25 | 2008-03-27 | Nokia Corporation | System and method for distance functionality |
US7974460B2 (en) * | 2007-02-06 | 2011-07-05 | Honeywell International Inc. | Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles |
KR100952574B1 (ko) * | 2007-12-24 | 2010-04-12 | 중앙대학교 산학협력단 | 로봇 기반 입체 디스플레이 장치 및 방법 |
US8803966B2 (en) * | 2008-04-24 | 2014-08-12 | GM Global Technology Operations LLC | Clear path detection using an example-based approach |
US8428305B2 (en) * | 2008-04-24 | 2013-04-23 | GM Global Technology Operations LLC | Method for detecting a clear path through topographical variation analysis |
US8605947B2 (en) * | 2008-04-24 | 2013-12-10 | GM Global Technology Operations LLC | Method for detecting a clear path of travel for a vehicle enhanced by object detection |
US8332134B2 (en) * | 2008-04-24 | 2012-12-11 | GM Global Technology Operations LLC | Three-dimensional LIDAR-based clear path detection |
US8421859B2 (en) * | 2008-04-24 | 2013-04-16 | GM Global Technology Operations LLC | Clear path detection using a hierachical approach |
US8634593B2 (en) * | 2008-04-24 | 2014-01-21 | GM Global Technology Operations LLC | Pixel-based texture-less clear path detection |
US8917904B2 (en) * | 2008-04-24 | 2014-12-23 | GM Global Technology Operations LLC | Vehicle clear path detection |
US8751154B2 (en) * | 2008-04-24 | 2014-06-10 | GM Global Technology Operations LLC | Enhanced clear path detection in the presence of traffic infrastructure indicator |
US8890951B2 (en) * | 2008-04-24 | 2014-11-18 | GM Global Technology Operations LLC | Clear path detection with patch smoothing approach |
US8699754B2 (en) * | 2008-04-24 | 2014-04-15 | GM Global Technology Operations LLC | Clear path detection through road modeling |
US8611585B2 (en) * | 2008-04-24 | 2013-12-17 | GM Global Technology Operations LLC | Clear path detection using patch approach |
US8670592B2 (en) * | 2008-04-24 | 2014-03-11 | GM Global Technology Operations LLC | Clear path detection using segmentation-based method |
US8487991B2 (en) * | 2008-04-24 | 2013-07-16 | GM Global Technology Operations LLC | Clear path detection using a vanishing point |
US8452053B2 (en) * | 2008-04-24 | 2013-05-28 | GM Global Technology Operations LLC | Pixel-based texture-rich clear path detection |
JP5107154B2 (ja) * | 2008-06-23 | 2012-12-26 | アイドゲノッシッシェ テヒニッシェ ホッホシューレ チューリッヒ | 運動推定装置 |
DE102011113265B3 (de) * | 2011-09-13 | 2012-11-08 | Audi Ag | Verfahren zur Bildverarbeitung von mit einem optischen Sensor in einem Kraftfahrzeug aufgenommenen Bilddaten und Kraftfahrzeug |
US8559727B1 (en) * | 2012-04-09 | 2013-10-15 | GM Global Technology Operations LLC | Temporal coherence in clear path detection |
US9025859B2 (en) * | 2012-07-30 | 2015-05-05 | Qualcomm Incorporated | Inertial sensor aided instant autofocus |
US8903163B2 (en) * | 2012-08-09 | 2014-12-02 | Trimble Navigation Limited | Using gravity measurements within a photogrammetric adjustment |
ES2478700B1 (es) * | 2013-01-21 | 2015-06-30 | Idneo Technologies, S.L. | Sistema y método para la detección de obstáculos |
DE102013203404A1 (de) | 2013-02-28 | 2014-08-28 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur dreidimensionalen Abbildung zumindest eines Teilbereichs eines Fahrzeugumfelds |
US9070202B2 (en) * | 2013-03-14 | 2015-06-30 | Nec Laboratories America, Inc. | Moving object localization in 3D using a single camera |
US9201424B1 (en) | 2013-08-27 | 2015-12-01 | Google Inc. | Camera calibration using structure from motion techniques |
US9989967B2 (en) | 2014-03-04 | 2018-06-05 | Cybernet Systems Corporation | All weather autonomously driven vehicles |
JP6312519B2 (ja) * | 2014-05-13 | 2018-04-18 | キヤノン株式会社 | 撮像装置、その制御方法、及びプログラム |
DE102014110201B3 (de) * | 2014-07-21 | 2015-08-13 | Miele & Cie. Kg | Selbstfahrender Roboter und Verfahren zur Hinderniserkennung bei einem selbstfahrenden Roboter |
US9596666B1 (en) * | 2015-12-11 | 2017-03-14 | Uber Technologies, Inc. | System for processing asynchronous sensor data |
US10101747B2 (en) | 2015-12-11 | 2018-10-16 | Uber Technologies, Inc. | Formatting sensor data for use in autonomous vehicle communications platform |
US9785150B2 (en) | 2015-12-11 | 2017-10-10 | Uber Technologies, Inc. | Formatting sensor data for use in autonomous vehicle communications platform |
US9537956B1 (en) | 2015-12-11 | 2017-01-03 | Uber Technologies, Inc. | System for acquiring time-synchronized sensor data |
US10114103B2 (en) | 2016-03-31 | 2018-10-30 | Uber Technologies, Inc. | System and method for sensor triggering for synchronized operation |
US10288458B2 (en) | 2016-06-29 | 2019-05-14 | GM Global Technology Operations LLC | Systems and methods for sensor platform |
US10482559B2 (en) | 2016-11-11 | 2019-11-19 | Uatc, Llc | Personalizing ride experience based on contextual ride usage data |
US10147193B2 (en) | 2017-03-10 | 2018-12-04 | TuSimple | System and method for semantic segmentation using hybrid dilated convolution (HDC) |
US10552691B2 (en) * | 2017-04-25 | 2020-02-04 | TuSimple | System and method for vehicle position and velocity estimation based on camera and lidar data |
US10386857B2 (en) * | 2017-07-05 | 2019-08-20 | Qualcomm Incorporated | Sensor-centric path planning and control for robotic vehicles |
EP3682429B1 (de) | 2017-09-13 | 2023-07-26 | Alarm.com Incorporated | System und verfahren zur torüberwachung beim verlassen oder eintreffen eines autonomen fahrzeugs |
CN111566441B (zh) | 2018-04-18 | 2022-08-09 | 移动眼视力科技有限公司 | 利用相机进行车辆环境建模 |
US10909866B2 (en) | 2018-07-20 | 2021-02-02 | Cybernet Systems Corp. | Autonomous transportation system and methods |
KR102627453B1 (ko) * | 2018-10-17 | 2024-01-19 | 삼성전자주식회사 | 위치 추정 장치 및 방법 |
CN109902725A (zh) * | 2019-01-31 | 2019-06-18 | 北京达佳互联信息技术有限公司 | 移动目标的检测方法、装置及电子设备和存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0158984A2 (de) * | 1984-04-13 | 1985-10-23 | Hitachi, Ltd. | Verfahren zur Bestimmung eines Paares von übereinstimmenden Punkten zwischen Bildern |
US5644651A (en) | 1995-03-31 | 1997-07-01 | Nec Research Institute, Inc. | Method for the estimation of rotation between two frames via epipolar search for use in a three-dimensional representation |
JPH11306363A (ja) | 1998-02-18 | 1999-11-05 | Ricoh Co Ltd | 画像入力装置及び画像入力方法 |
US6038074A (en) | 1997-05-20 | 2000-03-14 | Ricoh Company, Ltd. | Three-dimensional measuring apparatus and method, image pickup apparatus, and apparatus and method for inputting image |
US6175648B1 (en) | 1997-08-12 | 2001-01-16 | Matra Systems Et Information | Process for producing cartographic data by stereo vision |
US6393144B2 (en) | 1994-12-29 | 2002-05-21 | Worldscape, L.L.C. | Image transformation and synthesis methods |
US6421961B1 (en) | 2000-07-11 | 2002-07-23 | Ernesto Mallozzi | Modular organizer |
US6430304B2 (en) | 1998-08-28 | 2002-08-06 | Sarnoff Corporation | Method and apparatus for processing images to compute image flow information |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07218251A (ja) * | 1994-02-04 | 1995-08-18 | Matsushita Electric Ind Co Ltd | ステレオ画像計測方法およびステレオ画像計測装置 |
US6122078A (en) * | 1995-08-24 | 2000-09-19 | Vexcel Imaging Gmbh | Self calibrating scanner with single or multiple detector arrays and single or multiple optical systems |
JP3765862B2 (ja) * | 1996-02-15 | 2006-04-12 | 本田技研工業株式会社 | 車両用環境認識装置 |
JP3866328B2 (ja) * | 1996-06-06 | 2007-01-10 | 富士重工業株式会社 | 車両周辺立体物認識装置 |
JP3720972B2 (ja) * | 1998-01-22 | 2005-11-30 | 株式会社小松製作所 | 地形形状計測装置 |
JPH11306356A (ja) * | 1998-04-21 | 1999-11-05 | Hitachi Ltd | 画像による3次元計測方法および装置、並びに該方法に係るプログラムを記憶した記憶媒体 |
US6412961B1 (en) * | 2000-05-30 | 2002-07-02 | Robert Andrew Hicks | Rectifying mirror |
US6730926B2 (en) * | 2001-09-05 | 2004-05-04 | Servo-Robot Inc. | Sensing head and apparatus for determining the position and orientation of a target object |
KR100837776B1 (ko) * | 2001-12-24 | 2008-06-13 | 주식회사 케이티 | 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치 및그 방법 |
US7003136B1 (en) * | 2002-04-26 | 2006-02-21 | Hewlett-Packard Development Company, L.P. | Plan-view projections of depth image data for object tracking |
US7212663B2 (en) * | 2002-06-19 | 2007-05-01 | Canesta, Inc. | Coded-array technique for obtaining depth and other position information of an observed object |
-
2002
- 2002-11-21 KR KR10-2002-0072696A patent/KR100446636B1/ko active IP Right Grant
-
2003
- 2003-05-02 US US10/427,973 patent/US7440585B2/en active Active
- 2003-05-22 FR FR0306170A patent/FR2847699B1/fr not_active Expired - Fee Related
- 2003-06-05 DE DE10326943.6A patent/DE10326943B4/de not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0158984A2 (de) * | 1984-04-13 | 1985-10-23 | Hitachi, Ltd. | Verfahren zur Bestimmung eines Paares von übereinstimmenden Punkten zwischen Bildern |
US6393144B2 (en) | 1994-12-29 | 2002-05-21 | Worldscape, L.L.C. | Image transformation and synthesis methods |
US5644651A (en) | 1995-03-31 | 1997-07-01 | Nec Research Institute, Inc. | Method for the estimation of rotation between two frames via epipolar search for use in a three-dimensional representation |
US6038074A (en) | 1997-05-20 | 2000-03-14 | Ricoh Company, Ltd. | Three-dimensional measuring apparatus and method, image pickup apparatus, and apparatus and method for inputting image |
US6175648B1 (en) | 1997-08-12 | 2001-01-16 | Matra Systems Et Information | Process for producing cartographic data by stereo vision |
JPH11306363A (ja) | 1998-02-18 | 1999-11-05 | Ricoh Co Ltd | 画像入力装置及び画像入力方法 |
US6700604B1 (en) * | 1998-02-18 | 2004-03-02 | Ricoh Company, Ltd. | Image capturing method and apparatus for determining a shape of an object |
US6430304B2 (en) | 1998-08-28 | 2002-08-06 | Sarnoff Corporation | Method and apparatus for processing images to compute image flow information |
US6421961B1 (en) | 2000-07-11 | 2002-07-23 | Ernesto Mallozzi | Modular organizer |
Also Published As
Publication number | Publication date |
---|---|
KR100446636B1 (ko) | 2004-09-04 |
KR20040044621A (ko) | 2004-05-31 |
US7440585B2 (en) | 2008-10-21 |
FR2847699B1 (fr) | 2007-03-09 |
FR2847699A1 (fr) | 2004-05-28 |
US20040101161A1 (en) | 2004-05-27 |
DE10326943A1 (de) | 2004-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10326943B4 (de) | Autonomes Fahrzeug sowie zugehörige Verfahren und Vorrichtungen zur Bewegungsbestimmung, Bewegungssteuerung und Objekterkennung | |
DE102011117585B4 (de) | Systeme und Verfahren zum Verfolgen von Objekten | |
DE102014209137B4 (de) | Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs | |
DE112010005646B4 (de) | Kameraabstandsmessvorrichtung | |
DE112013004341T5 (de) | Fernbetätigungssystem | |
EP1673589A1 (de) | Verfahren und vorrichtung zur bestimmung der aktualposition eines geodätischen instrumentes | |
DE69829091T2 (de) | Messungsgerät | |
DE102018121481A1 (de) | Entfernungsmesssystem und Entfernungsmessverfahren | |
DE102006036346A1 (de) | Verfahren zur automatisierten 3-D-Objekterkennung und Lagebestimmung | |
WO2020127053A1 (de) | Bordeigenes visuelles ermitteln kinematischer messgrössen eines schienenfahrzeugs | |
DE102020129743A1 (de) | Vorrichtung und verfahren zur vermessung, inspektion oder bearbeitung von objekten | |
DE102014210752A1 (de) | Verfahren und Vorrichtung zum Überwachen einer Solltrajektorie eines Fahrzeugs | |
EP2394247B1 (de) | Verfahren und vorrichtung zum betrieb eines videobasierten fahrerassistenzsystems in einem fahrzeug | |
DE112015003988T5 (de) | Freiraumerkennungsvorrichtungsvorrichtung und Freiraumerkennungsverfahren | |
DE10329250A1 (de) | Verfahren und Vorrichtung zum Extrahieren dreidimensionaler räumlicher Daten eines Objektes unter Verwendung eines Elektronenmikroskops | |
EP3486607B1 (de) | Bildbasierte kantenvermessung | |
DE19746639A1 (de) | Verfahren zur digitalen Erfassung räumlicher Objekte und Szenen für eine 3D-Bildkarte sowie 3D-Bildkarte | |
DE112019007757T5 (de) | Informationsverarbeitungseinrichtung, Informationsverarbeitungssystem, Informationsverarbeitungsverfahren und Informationsverarbeitungsprogramm | |
EP3922526B1 (de) | Bestimmung eines rollwinkels oder eines nickwinkels eines fortbewegungsmittels | |
DE102010042821B4 (de) | Verfahren und Vorrichtung zur Bestimmung einer Basisbreite eines Stereo-Erfassungssystems | |
DE19735175A1 (de) | Verfahren zur digitalen Erfassung räumlicher Szenen sowie zur Bestimmung von Objektkoordinaten | |
DE102021202641A1 (de) | Verfahren zur Bestimmung eines Bewegungszustands eines starren Körpers | |
DE102021120966A1 (de) | Sensorfusion | |
DE19627938A1 (de) | Verfahren zur dynamischen Spurverfolgung in Bewegtbildsequenzen | |
DE102020200010A1 (de) | Maschinensteuervorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |