DE112014004163T5 - Vorrichtung zur Erkennung eines dreidimensionalen Objekts, Verfahren zur Erkennung eines dreidimensionalen Objekts und Fahrzeug - Google Patents

Vorrichtung zur Erkennung eines dreidimensionalen Objekts, Verfahren zur Erkennung eines dreidimensionalen Objekts und Fahrzeug Download PDF

Info

Publication number
DE112014004163T5
DE112014004163T5 DE112014004163.7T DE112014004163T DE112014004163T5 DE 112014004163 T5 DE112014004163 T5 DE 112014004163T5 DE 112014004163 T DE112014004163 T DE 112014004163T DE 112014004163 T5 DE112014004163 T5 DE 112014004163T5
Authority
DE
Germany
Prior art keywords
dimensional
dimensional shape
obstacle
shape
measuring device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112014004163.7T
Other languages
English (en)
Other versions
DE112014004163B4 (de
Inventor
Kazuhito Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of DE112014004163T5 publication Critical patent/DE112014004163T5/de
Application granted granted Critical
Publication of DE112014004163B4 publication Critical patent/DE112014004163B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

Eine Vorrichtung zur Erkennung eines dreidimensionalen Objekts gemäß der Erfindung umfasst: einen Rundumsensor, der Umgebungsobjekte in alle Richtungen misst und Positionsinformationen, die dazu in der Lage sind, eine Position von jedem der Objekte zu spezifizieren, als ein Ergebnis der Messung erzeugt; eine dreidimensionale Messeinrichtung, die ein Objekt innerhalb eines bestimmten Messbereichs unter den Umgebungsobjekten misst, und dreidimensionale Formeninformationen, die dazu in der Lage sind, eine dreidimensionale Form des Objekts zu spezifizieren, als ein Ergebnis der Messung erzeugt; und eine Steuerungseinheit, die eine als die dreidimensionale Form des Objekts zu erkennende Form basierend auf den dreidimensionalen Formeninformationen, die durch die dreidimensionale Messeinrichtung erzeugt werden, wenn sich das Fahrzeug innerhalb des Messbereichs der dreidimensionalen Messeinrichtung befindet, aktualisiert. Die Steuerungseinheit verfolgt das Objekt basierend auf den Positionsinformationen, die durch den Rundumsensor erzeugt werden, auch nachdem sich das Objekt aus dem Messbereich der dreidimensionalen Messeinrichtung herausbewegt hat.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine Vorrichtung zur Erkennung eines dreidimensionalen Objekts, ein Verfahren zur Erkennung eines dreidimensionalen Objekts und ein Fahrzeug.
  • Hintergrund
  • Patentliteratur 1 offenbart ein Fahrzeug mit einer Bilderkennungseinrichtung, die daran angebracht ist, um genau und schnell in einem Bild, das durch eine Kamera aufgenommen wird, Fußgänger innerhalb eines bestimmten Bereichs vor dem Fahrzeug zu erkennen. Diese Bilderkennungseinrichtung vergibt eine Identifikationsinformations-ID an ein zu erfassendes Ziel in einem oder jenseits eines vorbestimmten Fußgängererfassungsbereichs vor dem Fahrzeug durch eine Suche durch ein Laserradar. Dementsprechend werden Identifikationsinformations-IDs an Ziele außer Fußgängern, zum Beispiel Fahrzeugen oder Objekten auf der Straßenseite wie etwa Pfosten, die weniger Laserlicht absorbieren, vergeben. Weiterhin führt diese Bilderkennungseinrichtung eine Bilderkennungsverarbeitung eines Musterabgleichs nur bezüglich Zielen, die keine Identifikationsinformations-ID aufweisen, in dem Fußgängererfassungsbereich der Kamera durch, um dadurch Fußgänger zu erkennen. Gemäß dieser Technik kann die Last der Bilderkennungsverarbeitung reduziert werden und können Fußgänger innerhalb des Fußgängererfassungsbereichs genau und schnell erkannt werden.
  • Liste des Standes der Technik
  • Patentliteratur
    • Patentliteratur 1: Japanische ungeprüfte Patentanmeldungsoffenlegungsschrift Nr. 2009-237898
  • Kurzfassung der Erfindung
  • Technisches Problem
  • Der Anmelder der vorliegenden Anmeldung hat die folgenden Probleme in der Technik, in der Umgebungsobjekte wie vorstehend beschrieben erkannt werden, gefunden. Die Probleme werden nachstehend beschrieben. Es sei angemerkt, dass die folgende Beschreibung nicht den Stand der Technik betrifft, sondern stattdessen die Gegenstände, die durch den Anmelder der vorliegenden Anmeldung neu überprüft werden. Ein Fahrzeug, das selbstständig fährt, während es Umgebungshindernisse (Objekte) unter Verwendung eines Sensors erkennt, wird nun betrachtet.
  • Als Erstes kann als eine Technik für ein Fahrzeug, um automatisch zu fahren, während Hindernisse vermieden werden, eine einfache Technik eingesetzt werden, bei der ein Fahrweg zum Vermeiden von Hindernissen unter Berücksichtigung von nur dem Vorhandensein oder Nichtvorhandensein von Hindernissen und der Position von jedem Hindernis geplant wird, ohne die dreidimensionale Form der Umgebungshindernisse zu berücksichtigen. Bei dieser Technik, obwohl die Position von jedem Hindernis verfolgt und erkannt werden kann, gibt es eine Möglichkeit, dass das Fahrzeug ein überhängendes Hindernis oder Ähnliches kontaktieren wird. Dies liegt daran, dass Hindernisse generell dreidimensionale Merkmale aufweisen, die sich in Abhängigkeit der Art des Hindernisses unterscheiden. Zum Beispiel besitzen manche Hindernisse bestimmte vorstehende Abschnitte, wie etwa die Beine eines Stuhls.
  • Somit, damit das Fahrzeug autonom fahren kann, ohne irgendein Hindernis zu kontaktieren, ist es für das Fahrzeug notwendig, zu fahren, während die dreidimensionale Form von jedem Hindernis erkannt wird und ein Fahrweg unter Berücksichtigung der dreidimensionalen Form von jedem Hindernis geplant wird, so dass das Fahrzeug ein Kontaktieren der Hindernisse vermeiden kann.
  • Als eine Technik, die solch ein Erfordernis erfüllt, kann eine Technik eingesetzt werden, bei der die dreidimensionale Form von jedem Hindernis unter Verwendung eines Sensors gemessen wird, der in dem Fahrzeug angebracht ist, und die dreidimensionale Form von Umgebungshindernissen misst. Jedoch ist der Messbereich von vielen dieser Sensoren, die die dreidimensionale Form messen, begrenzt. Dementsprechend können Hindernisse, die sich in der Totzone des Sensors befinden, nicht gemessen werden.
  • Unter Annahme eines Falls, in dem die Position eines Hindernisses, das in die Totzone des Sensors eingedrungen ist, gespeichert wird, kann als eine Gegenmaßnahme gegen dieses Problem ein Fahrweg basierend auf der Position geplant werden, aber es kann nicht bestimmt werden, ob sich das Hindernis bewegt hat oder nicht, nachdem der Fahrweg geplant wurde. Deshalb, wenn ein Fahrweg in der Nähe des Orts, an dem sich das Hindernis in der Totzone des Sensors befindet, geplant ist, gibt es eine Möglichkeit, dass das Fahrzeug das Hindernis, das sich von dem Ort wegbewegt, kontaktieren wird. Andererseits, wenn ein Fahrweg geplant ist, um einen großen Umweg um den Ort zu machen, kann der geplante Fahrweg einen großen Umweg um das Hindernis herum machen, das tatsächlich eine Bewegung gestoppt hat. Dies kann eine Verschlechterung der Fahreffizienz verursachen.
  • Als eine andere Gegenmaßnahme gegen dieses Problem ist es ebenso möglich, einen Sensor anzubringen, der dazu in der Lage ist, dreidimensionale Formen von Umgebungshindernissen in alle Richtungen ohne Beschränkung des Messbereichs von diesem zu messen. Es muss jedoch eine Abstimmung zwischen der Genauigkeit und dem Messbereich des Sensors und den Kosten und der Montierbarkeit des Sensors vorgenommen werden. Um dreidimensionale Formen von Umgebungshindernissen in alle Richtungen zu messen, ist es speziell notwendig, einen teuren Sensor mit der Funktion des Messens von dreidimensionalen Formen von Umgebungsobjekten in allen Richtungen anzubringen oder eine Anzahl von Sensoren anzubringen, die dreidimensionale Formen von Hindernissen innerhalb eines bestimmten Messbereichs messen, so dass die dreidimensionalen Formen in alle Richtungen gemessen werden können. Dies verursacht ein Problem, dass die Kosten extrem hoch werden.
  • Die vorliegende Erfindung wurde basierend auf den vorstehend erwähnten Erkenntnissen vorgenommen, und es ist eine Aufgabe der vorliegenden Erfindung, eine Vorrichtung zur Erkennung eines dreidimensionalen Objekts, ein Verfahren zur Erkennung eines dreidimensionalen Objekt und ein Fahrzeug bereitzustellen, die dazu in der Lage sind, dreidimensionale Formen von Umgebungsobjekten innerhalb eines breiten Bereichs zu erkennen, während eine Erhöhung der Kosten vermieden wird.
  • Lösung des Problems
  • Ein erster Aspekt der vorliegenden Erfindung ist eine Vorrichtung zur Erkennung eines dreidimensionalen Objekts, mit: einem Rundumsensor, der Umgebungsobjekte in alle Richtungen misst und Positionsinformationen, die dazu in der Lage sind, eine Position von jedem der Objekte zu spezifizieren, als ein Ergebnis der Messung erzeugt; einer dreidimensionalen Messeinrichtung, die ein Objekt innerhalb eines bestimmten Messbereichs unter den Umgebungsobjekten misst und dreidimensionale Formeninformationen, die dazu in der Lage sind, eine dreidimensionale Form des Objekts zu spezifizieren, als ein Ergebnis der Messung erzeugt; und einer Steuerungseinheit, die eine Form, die als die dreidimensionale Form des Objekts zu erkennen ist, basierend auf den dreidimensionalen Formeninformationen, die durch die dreidimensionale Messeinrichtung erzeugt werden, wenn sich das Objekt innerhalb des Messbereichs der dreidimensionalen Messeinrichtung befindet, aktualisiert. Die Steuerungseinheit verfolgt das Objekt basierend auf den Positionsinformationen, die durch den Rundumsensor erzeugt werden, auch nachdem sich das Objekt aus dem Messbereich der dreidimensionalen Messeinrichtung herausbewegt hat.
  • Ein zweiter Aspekt der vorliegenden Erfindung ist ein Verfahren zur Erkennung eines dreidimensionalen Objekts, mit den Schritten: Messen, durch eine dreidimensionale Messeinrichtung, einer dreidimensionalen Form eines Objekts innerhalb eines bestimmten Messbereichs der dreidimensionalen Messeinrichtung unter Umgebungsobjekten und Aktualisieren einer als die dreidimensionale Form des Objekt zu erkennenden Form innerhalb des Messbereichs der dreidimensionalen Messeinrichtung basierend auf einem Ergebnis der Messung; und Messen, durch einen Rundumsensor, von Positionen der Umgebungsobjekte in alle Richtungen und Verfolgen, basierend auf einem Ergebnis der Messung, eines Objekts, das sich aus dem Messbereich der dreidimensionalen Messeinrichtung herausbewegt hat.
  • Ein dritter Aspekt der vorliegenden Erfindung ist ein Fahrzeug, mit: einem Rundumsensor, der Umgebungsobjekte in alle Richtungen misst und Positionsinformationen erzeugt, die dazu in der Lage sind, eine Position von jedem der Objekte als ein Ergebnis der Messung zu spezifizieren; einer dreidimensionalen Messeinrichtung, die ein Objekt innerhalb eines bestimmten Messbereichs unter den Umgebungsobjekten misst und dreidimensionale Formeninformationen erzeugt, die dazu in der Lage sind, eine dreidimensionale Form des Objekts als ein Ergebnis der Messung zu spezifizieren; und einer Steuerungseinheit, die eine als die dreidimensionale Form des Objekts zu erkennende Form aktualisiert, basierend auf den dreidimensionalen Formeninformationen, die durch die dreidimensionale Messeinrichtung erzeugt werden, wenn sich das Objekt innerhalb des Messbereichs der dreidimensionalen Messeinrichtung befindet, einen Fahrweg plant, um einen Kontakt mit dem Hindernis zu vermeiden, basierend auf der erkannten dreidimensionalen Form des Objekts, und das Fahrzeug steuert, um entlang dem geplanten Fahrweg zu fahren. Die Steuerungseinheit verfolgt das Objekt basierend auf den Positionsinformationen, die durch den Rundumsensor erzeugt werden, auch nachdem sich das Objekt aus dem Messbereich der dreidimensionalen Messeinrichtung herausbewegt hat.
  • Vorteilhafte Effekte der Erfindung
  • Gemäß den vorstehenden Aspekten der vorliegenden Erfindung ist es möglich, eine Vorrichtung zur Erkennung eines dreidimensionalen Objekts, ein Verfahren zur Erkennung eines dreidimensionalen Objekt und ein Fahrzeug bereitzustellen, die dazu in der Lage sind, dreidimensionale Formen von Umgebungsobjekten innerhalb eines breiten Bereichs zu erkennen, während eine Erhöhung der Kosten vermieden wird.
  • Kurze Beschreibungen von Zeichnungen
  • 1 ist eine Ansicht, die eine externe Struktur eines autonomen Fahrzeugs gemäß einem Ausführungsbeispiel zeigt;
  • 2 ist ein Diagramm, das ein Beispiel eines Zustandes zeigt, in dem ein Objekt durch das autonome Fahrzeug gemäß dem Ausführungsbeispiel gemessen wird.
  • 3 ist ein internes Blockdiagramm, das das autonome Fahrzeug gemäß dem Ausführungsbeispiel zeigt;
  • 4 ist ein Ablaufdiagramm, das einen Prozess des autonomen Fahrzeugs gemäß dem Ausführungsbeispiel zeigt;
  • 5 ist ein Ablaufdiagramm, das einen in Schritt S13 in 4 gezeigten Prozess zum Vergeben von dreidimensionalen Formeninformationen zeigt;
  • 6 ist ein Diagramm, das einen Fluss von Daten zeigt, der durch das autonome Fahrzeug gemäß dem Ausführungsbeispiel zu verarbeiten ist;
  • 7 ist ein Diagramm, das ein Beispiel zeigt, in dem Hindernispositionen und dreidimensionale Formen miteinander verknüpft werden;
  • 8 ist ein Diagramm, das ein Beispiel zeigt, in dem dreidimensionale Formen von Hindernissen in einem Messbereich eines dreidimensionalen Entfernungssensors kumuliert werden;
  • 9 ist ein Diagramm, das ein Beispiel zeigt, in dem eine dreidimensionale Form eines Hindernisses außerhalb des Messbereichs des dreidimensionalen Entfernungssensors erzeugt wird;
  • 10 ist ein Diagramm zum Erklären eines vorteilhaften Effekts des Ausführungsbeispiels; und
  • 11 ist ein Diagramm zum Erklären eines anderen vorteilhaften Effekts des Ausführungsbeispiels.
  • Beschreibung der Ausführungsbeispiele
  • Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachstehend mit Bezug auf die Zeichnungen beschrieben. Spezielle Zahlen und Ähnliches, die in den folgenden Ausführungsbeispielen gezeigt sind, dienen zum Erleichtern des Verständnisses der Erfindung, und somit ist die vorliegende Erfindung nicht auf diese Zahlen und Ähnliches beschränkt, solange es nicht anders spezifiziert ist. In der folgenden Beschreibung und den Zeichnungen wird die Beschreibung von Gegenständen, die für den Fachmann offensichtlich sind, abgekürzt und vereinfacht, soweit es für die Klarheit der Beschreibung angemessen ist.
  • <Ausführungsbeispiele der Erfindung>
  • Zuerst wird ein autonomes Fahrzeug 1 gemäß dem Ausführungsbeispiel der Erfindung beschrieben. Bezug nehmend auf 1 und 2 wird die externe Struktur des autonomen Fahrzeugs 1 gemäß diesem Ausführungsbeispiel beschrieben. 1 ist eine Ansicht, die die externe Struktur des autonomen Fahrzeugs 1 gemäß diesem Ausführungsbeispiel zeigt. 2 ist ein Diagramm, das ein Beispiel eines Zustands zeigt, in dem ein Hindernis durch das autonome Fahrzeug 1 gemäß dem Ausführungsbeispiel gemessen wird.
  • Das autonome Fahrzeug 1 umfasst einen dreidimensionalen Entfernungssensor 2, einen Rundumsensor 3, einen Hauptgehäuse 4 und Räder 5a und 5b. Das autonome Fahrzeug 1 fährt autonom, während es Hindernisse (Objekte) in der Umgebung des autonomen Fahrzeugs 1 erkennt und die Hindernisse vermeidet.
  • Wie in 2 gezeigt ist, misst der dreidimensionale Entfernungssensor 2 Hindernisse innerhalb eines bestimmten Messbereichs unter den Hindernissen in der Umgebung des autonomen Fahrzeugs 1 und erzeugt dreidimensionale Formeninformationen bzw. Informationen über eine dreidimensional Form, die dazu in der Lage sind, eine dreidimensionale Form auf einer Messoberfläche (eine Fläche, die dem dreidimensionalen Entfernungssensor 2 gegenüberliegt) von jedem der Hindernisse als ein Ergebnis der Messung zu spezifizieren. Der dreidimensionale Entfernungssensor 2 ist an einem Frontabschnitt des Hauptgehäuses 4 angeordnet, um Hindernisse vor dem autonomen Fahrzeug 1 zu messen.
  • Genauer ist der dreidimensionale Entfernungssensor 2 zum Beispiel ein Sensor, der eine Entfernung von Hindernissen in jede Richtung innerhalb des Messbereichs des Sensors misst. Mit anderen Worten ist der dreidimensionale Entfernungssensor 2 ein Sensor, der, als dreidimensionale Formeninformationen, Entfernungsinformationen erzeugt, die eine Entfernung von jedem Punkt auf der Messoberfläche der Hindernisse innerhalb des Messbereichs des Sensors angibt. Jegliche Art eines Sensors wie etwa ein optischer Sensor, ein Ultraschallsensor, und ein Laserstrahlsensor kann als der dreidimensionale Entfernungssensor verwendet werden.
  • Somit kann der dreidimensionale Entfernungssensor 2 die dreidimensionalen Formen von nur Hindernissen innerhalb eines bestimmten Messbereichs messen, aber der dreidimensionale Entfernungssensor 2 ist im Vergleich mit Sensoren, die die dreidimensionalen Formen von Hindernissen in alle Richtungen messen können, kostengünstig.
  • In diesem Fall ist die Einrichtung (dreidimensionale Messeinrichtung), die ein Hindernis misst und dreidimensionale Formeninformationen erzeugt, die dazu in der Lage sind, die dreidimensionale Form des Hindernisses zu spezifizieren, nicht auf den dreidimensionalen Entfernungssensor 2 beschränkt. Zum Beispiel kann als die dreidimensionale Messeinrichtung eine Kamera (Bildaufnahmeeinrichtung) anstelle des dreidimensionalen Entfernungssensors 2 bereitgestellt werden. Weiterhin können Bilder eines Hindernisses innerhalb eines bestimmten Bereichs durch die Kamera aufgenommen werden und die Bildinformationen, die die Bilder angeben, die innerhalb des Bereichs aufgenommen werden, können als dreidimensionale Formeninformationen erzeugt werden. Das heißt, irgendeine Gestalt der dreidimensionalen Formeninformationen und irgendeine Einrichtung zum Erzeugen der dreidimensionalen Formeninformationen können eingesetzt werden, solange Informationen erhalten werden können, die dazu in der Lage sind, die dreidimensionale Form von jedem Hindernis innerhalb des Messbereichs von dem Inhalt der Informationen zu spezifizieren. Mit anderen Worten können die dreidimensionalen Formeninformationen Informationen sein, wie etwa Entfernungsinformationen, die die dreidimensionale Form eines Objekts als eine Entfernung angeben, oder können Informationen sein, wie etwa Bildinformationen, die dazu in der Lage sind, die dreidimensionale Form des Hindernisses durch Analysieren des Inhalts der Informationen herzuleiten.
  • Wie in 2 gezeigt ist, ist der Rundumsensor bzw. der omnidirektionale Sensor 3 ein Sensor, der Hindernisse in der Peripherie des autonomen Fahrzeugs 1 in alle Richtungen misst und Hindernispositionsinformationen erzeugt, die dazu in der Lage sind, die Positionen der Hindernisse als ein Ergebnis der Messung zu spezifizieren. Der Rundumsensor 3 ist an einem oberen Abschnitt des Hauptgehäuses 4 angeordnet, um Hindernisse in der Umgebung des autonomen Fahrzeugs 1 in alle Richtungen zu messen.
  • Der Rundumsensor 3 kann zum Beispiel ein Sensor sein, der eine Entfernung von jedem Hindernis in der Umgebung des autonomen Fahrzeugs 1 in alle Richtungen misst und, als Hindernispositionsinformationen, Entfernungsinformationen erzeugt, die eine Entfernung von jedem Hindernis in alle Richtungen angeben. In diesem Fall wird ein kostengünstiger Entfernungssensor, der eine Entfernung von jedem Hindernis in alle Richtungen messen kann, aber nicht die dreidimensionale Form von jedem Hindernis messen kann, als der Rundumsensor 3 verwendet. Der Rundumsensor 3 kann ein Sensor sein, der Bilder von Hindernissen in der Umgebung des autonomen Fahrzeugs 1 in alle Richtungen aufnimmt, und, als Hindernispositionsinformationen, Bildinformationen erzeugt, die die Bilder angeben, die in alle Richtungen aufgenommen werden. Das heißt, irgendeine Gestalt der Hindernispositionsinformationen und irgendein Rundumsensor können eingesetzt werden, solange Informationen, die dazu in der Lage sind, die Positionen von Hindernissen in allen Richtungen von dem Inhalt der Informationen zu spezifizieren, erhalten werden können. Mit anderen Worten können die Hindernispositionsinformationen Informationen sein, wie etwa Entfernungsinformationen, die eine Entfernung von einem Hindernis angeben, oder können Informationen sein, wie etwa Bildinformationen, die dazu in der Lage sind, eine Entfernung von einem Hindernis durch Analysieren des Inhalts der Informationen herzuleiten.
  • Somit ist der Rundumsensor 3 ein kostengünstiger Sensor, der keine dreidimensionale Form von Umgebungsobjekten messen kann, aber die Positionen von Hindernissen innerhalb eines breiten Bereichs messen kann. Obwohl der Rundumsensor 3 die dreidimensionale Form von jedem Hindernis nicht messen kann, ist der Messbereich des Rundumsensors 3 in der horizontalen Richtung breiter als der des dreidimensionalen Entfernungssensors 2.
  • Die Räder 5a und 5b sind an einem unteren Abschnitt des Hauptgehäuses 4 bereitgestellt. Das autonome Fahrzeug 1 fährt durch Antreiben der Räder 5a und 5b.
  • Die vorstehend beschriebene Struktur ermöglicht dem autonomen Fahrzeug 1, autonom zu fahren, während Hindernisse in der Umgebung des autonomen Fahrzeugs 1 unter Verwendung der Messergebnisse des dreidimensionalen Entfernungssensors 2 und des Rundumsensors 3 vermieden werden. Das autonome Fahrzeug 1 gemäß diesem Ausführungsbeispiel verwendet eine Kombination des dreidimensionalen Entfernungssensors 2 und des Rundumsensors 3, was es möglich macht, die dreidimensionale Form von Umgebungsobjekten innerhalb eines breiten Bereichs zu erkennen, auch wenn der Messbereich des dreidimensionalen Entfernungssensors 2, der die dreidimensionale Form misst, begrenzt ist.
  • Bezug nehmend auf 3 wird als nächstes die interne Struktur des autonomen Fahrzeugs 1 gemäß diesem Ausführungsbeispiel beschrieben. 3 ist ein internes Blockdiagramm, das das autonome Fahrzeug 1 gemäß diesem Ausführungsbeispiel zeigt.
  • Das autonome Fahrzeug 1 umfasst eine Steuerungseinheit 10 und Stellglieder 14a und 14b.
  • Die Steuerungseinheit 10 steuert das autonome Fahrzeug 1 auf eine integrierte Weise. Die Steuerungseinheit 10 umfasst eine CPU (zentrale Verarbeitungseinheit) und eine (nicht gezeigte) Speichereinheit. Die CPU führt ein Programm, das in der Speichereinheit gespeichert ist, aus, wodurch verschiedene Prozesse als die Steuerungseinheit 10 implementiert werden. Mit anderen Worten umfasst dieses Programm einen Code zum Veranlassen der CPU, die in der Steuerungseinheit 10 umfasst ist, verschiedene Prozesse als die Steuerungseinheit 10 auszuführen. In diesem Fall speichert die Speichereinheit das vorstehend erwähnte Programm und verschiedene Elemente von Informationen, die durch die Steuerungseinheit 10 verwendet werden. Die Speichereinheit 10 umfasst zumindest eine Speichereinrichtung, die dazu in der Lage ist, das vorstehend erwähnte Programm und verschiedene Elemente von Informationen zu speichern. Zum Beispiel kann zumindest eines eines Speichers, einer Festplatte und Ähnliches beliebig als die Speichereinrichtung verwendet werden. Die Steuerungseinheit 10 funktioniert als eine dreidimensionale Hindernispositionsspeichereinheit bzw. Einheit zum Speichern einer Position eines dreidimensionalen Hindernisses 11, eine Wegplanungseinheit 12 und eine Fahrzeugantriebssteuerungseinheit 13.
  • Die dreidimensionale Hindernispositionsspeichereinheit 11 erkennt Hindernisse in der Umgebung des autonomen Fahrzeugs 1 und die Positionen der Hindernisse basierend auf den Hindernispositionsinformationen, die von dem Rundumsensor 3 ausgegeben werden, und vergibt Identifikationsinformationen an jedes der erkannten Hindernisse. Der Ausdruck "Identifikationsinformationen", der hierin verwendet wird, nimmt Bezug auf Informationen, die dazu in der Lage sind, jedes Hindernis eindeutig zu spezifizieren. Zum Beispiel kann eine eindeutige Ganzzahl als die Identifikationsinformation zugewiesen werden. Weiterhin verfolgt die dreidimensionale Hindernispositionsspeichereinheit 11 die momentane Position von jedem der erkannten Hindernisse basierend auf den Positionen der Hindernisse, die basierend auf den Hindernispositionsinformationen spezifiziert sind. Dies macht es möglich, die momentane Position von jedem der Hindernisse zu verfolgen, unabhängig davon, ob sich die Hindernisse in dem Messbereich des dreidimensionalen Entfernungssensors 2 befinden oder nicht.
  • Wenn die Position eines Hindernisses, die basierend auf den Hindernispositionsinformationen, die von dem Rundumsensor 3 ausgegeben werden, spezifiziert ist, innerhalb des Messbereichs des dreidimensionalen Entfernungssensors 2 ist, speichert die dreidimensionale Hindernispositionsspeichereinheit 1 in der Speichereinheit die Hindernispositionsinformationen, die die Position des Hindernisses angeben, und die dreidimensionalen Formeninformationen, die die dreidimensionale Form des Hindernisses angeben, die basierend auf den dreidimensionalen Formeninformationen spezifiziert ist, die von dem dreidimensionalen Entfernungssensor 2 ausgegeben werden, auf solch eine Weise, dass die Hindernispositionsinformationen und die dreidimensionalen Formeninformationen miteinander verknüpft sind. Das heißt, die Hindernispositionsinformationen und die dreidimensionalen Formeninformationen werden in der Speichereinheit auf solch eine Weise gespeichert, dass die Hindernispositionsinformationen und die dreidimensionalen Formeninformationen für jedes Hindernis miteinander verknüpft sind. In diesem Fall kann die Gestalt der Hindernispositionsinformationen, die von dem Rundumsensor 3 ausgegeben werden, und die Gestalt der Hindernispositionsinformationen, die in der Speichereinheit gespeichert werden, die gleiche sein oder voneinander verschieden sein. Die Gestalt der dreidimensionalen Formeninformationen, die von dem dreidimensionalen Entfernungssensor 2 ausgegeben werden, und die Gestalt der Informationen, die in der Speichereinheit gespeichert werden, können die gleichen oder voneinander verschieden sein. Speziell können in dem Fall des Zuschneidens von Informationen für jedes Hindernis von den dreidimensionalen Formeninformationen und den Hindernispositionsinformationen, die von dem dreidimensionalen Entfernungssensor 2 und dem Rundumsensor 3 ausgegeben werden, entsprechend die ausgeschnittenen Informationen direkt gespeichert werden oder können gespeichert werden, nachdem die Gestalt der Informationen umgewandelt wurde, wie in dem Fall, in dem die Position und die dreidimensionale Form von jedem Objekt von Bildinformationen spezifiziert werden.
  • Danach, während sich die Position des Hindernisses innerhalb des Messbereichs des dreidimensionalen Entfernungssensors 2 befindet, aktualisiert die dreidimensionale Hindernispositionsspeichereinheit 11 die dreidimensionalen Formeninformationen über das Hindernis durch Ersetzen der dreidimensionalen Informationen mit Informationen, die eine letzte dreidimensionale Form angeben, die basierend auf den dreidimensionalen Formeninformationen spezifiziert ist, die von dem dreidimensionalen Entfernungssensor 2 ausgegeben werden.
  • Die dreidimensionale Hindernispositionsspeichereinheit 11 speichert neben den dreidimensionalen Formeninformationen, die die letzte dreidimensionale Form angeben, in der Speichereinheit ebenso kumulierte Informationen über eine dreidimensionale Form, die alle kumulierten dreidimensionalen Formen angeben, die bis jetzt für jedes Hindernis erkannt wurden. Die dreidimensionale Hindernispositionsspeichereinheit 11 kumuliert die dreidimensionalen Formen von Hindernissen basierend auf den Positionen der Hindernisse. Dementsprechend, wenn das Hindernis ein bewegliches Objekt ist, wie etwa ein Mensch, und sich die Form des Hindernisses ändert, kann der bewegliche Bereich des Hindernisses sequentiell als die dreidimensionale Form des Hindernisses ergänzt werden.
  • Weiterhin, wenn sich das Hindernis aus dem Messbereich des dreidimensionalen Entfernungssensors 2 herausbewegt hat, berechnet die dreidimensionale Hindernispositionsspeichereinheit 11 gemäß einem vorbestimmten Berechnungsverfahren die dreidimensionale Form des Hindernisses, die als ein Bereich geschätzt wird, innerhalb dem sich das Hindernis bewegen kann, basierend auf den kumulierten dreidimensionalen Formen, die durch die kumulierten dreidimensionalen Formeninformationen über das Hindernis, die in der Speichereinheit gespeichert sind, angegeben sind. Das Berechnungsverfahren wird nachstehend beschrieben. Weiterhin speichert die dreidimensionale Hindernispositionsspeichereinheit 11 die dreidimensionalen Formeninformationen, die die berechnete dreidimensionale Form angeben, als die dreidimensionalen Formeninformationen, die die letzte dreidimensionale Form des Hindernisses angeben. Auf diese Weise, wenn sich das Hindernis aus dem Messbereich des dreidimensionalen Entfernungssensors 2 herausbewegt hat, wird eine vergrößerte dreidimensionale Form, die als der bewegliche Bereich des Hindernisses geschätzt wird, als die dreidimensionale Form des Hindernisses erkannt, so dass das autonome Fahrzeug 1 ein Kontaktieren des Hindernisses vermeiden kann.
  • Des Weiteren, wenn das Hindernis wieder in den Messbereich des dreidimensionalen Entfernungssensors 2 eindringt, setzt die dreidimensionale Hindernispositionsspeichereinheit 11 ein Aktualisieren der dreidimensionalen Formeninformationen, die die letzte dreidimensionale Form des Hindernisses angeben, basierend auf den dreidimensionalen Formeninformationen, die von dem dreidimensionalen Entfernungssensor 2 ausgegeben werden, fort.
  • Somit, auch nachdem sich das Hindernis aus dem Messbereich des dreidimensionalen Entfernungssensors 2 herausbewegt hat, kann das Hindernis basierend auf dem Messergebnis des Rundumsensors 3 verfolgt werden und die dreidimensionale Form des Hindernisses kann kontinuierlich erkannt werden.
  • Basierend auf den Hindernispositionsinformationen und den dreidimensionalen Formeninformationen, die in der Speichereinheit gespeichert werden, plant die Wegplanungseinheit 12 einen Weg, entlang dem das autonome Fahrzeug 1 fährt, so dass das autonome Fahrzeug 1 ein Kontaktieren der Hindernisse vermeiden kann. Die Fahrzeugantriebssteuerungseinheit 13 berechnet Fahranweisungswerte für die Stellglieder 14a und 14b, so dass das autonome Fahrzeug 1 entlang dem durch die Wegplanungseinheit 12 geplanten Weg fährt. Die Fahrzeugantriebssteuerungseinheit 13 gibt die berechneten Fahranweisungswerte an die Stellglieder 14a und 14b aus.
  • Die Stellglieder 14a und 14b treiben entsprechend die Räder 5a und 5b des autonomen Fahrzeugs 1 an. Das Stellglied 14a dreht das Rad 5a bei einer Drehzahl gemäß dem Fahranweisungswert von der Fahrzeugantriebssteuerungseinheit 13. Das Stellglied 14b dreht das Rad 5b bei einer Drehzahl gemäß dem Fahranweisungswert von der Fahrzeugantriebssteuerungseinheit 13.
  • Die Räder 5a und 5b entsprechen Rädern, die an einem unteren Abschnitt des Hauptgehäuses 4 angebracht sind, wie vorstehend beschrieben. Auf diese Weise steuert die Fahrzeugantriebssteuerungseinheit 13 die Stellglieder 14a und 14b, um die Räder 5a und 5b entsprechend zu drehen, wodurch erlaubt wird, dass das autonome Fahrzeug 1 entlang dem geplanten Fahrweg fährt, so dass das autonome Fahrzeug 1 ein Kontaktieren jedes Hindernisses vermeiden kann.
  • Als Nächstes wird ein Prozess des autonomen Fahrzeugs 1 gemäß diesem Ausführungsbeispiel mit Bezug auf 4 bis 9 beschrieben. 4 ist ein Ablaufdiagramm, das einen Prozess des autonomen Fahrzeugs 1 gemäß diesem Ausführungsbeispiel zeigt. 5 ist ein Ablaufdiagramm, das einen in Schritt S13 von 4 gezeigten Prozess zum Vergeben von dreidimensionalen Formeninformationen zeigt. 6 ist ein Diagramm, das einen Fluss von Daten zeigt, die durch das autonome Fahrzeug 1 gemäß diesem Ausführungsbeispiel verarbeitet werden. 7 ist ein Diagramm, das ein Beispiel zeigt, in dem Hindernispositionen und dreidimensionale Formen miteinander verknüpft sind. 8 ist ein Diagramm, das ein Beispiel zeigt, in dem dreidimensionale Formen von Hindernissen in dem Messbereich des dreidimensionalen Entfernungssensors kumuliert werden. 9 ist ein Diagramm, das ein Beispiel zeigt, in dem eine dreidimensionale Form eines Hindernisses außerhalb des Messbereichs des dreidimensionalen Entfernungssensors erzeugt wird. Schritte S1 bis S5, die in 4 und 5 gezeigt sind, entsprechen Schritten S1 bis S5, die in 6 gezeigt sind. Schritte S2 und S3, die in 5 gezeigt sind, entsprechen 7 und 8, und Schritte S4 und S5, die in 5 gezeigt sind, entsprechen 9.
  • Zuerst wird der Prozess des autonomen Fahrzeugs 1 gemäß diesem Ausführungsbeispiel mit Bezug auf 4, 6 und 7 beschrieben.
  • Es sei angenommen, dass das autonome Fahrzeug 1 ein autonomes Fahren startet (S10). Zum Beispiel startet das Fahrzeug 1 ein autonomes Fahren zu einem Zielort, das durch einen Benutzer eingestellt wird. Es ist jedoch für das autonome Fahrzeug 1 nicht notwendig, zu einem Zielort zu fahren, das durch einen Benutzer eingestellt ist. Das autonome Fahrzeug 1 kann ein Fahren und Stoppen für irgendeinen Zweck wiederholen.
  • Das autonome Fahrzeug 1 beschafft Informationen unter Verwendung des dreidimensionalen Entfernungssensors 2 und des Rundumsensors 3 (S11). Speziell, wie vorstehend beschrieben, misst der dreidimensionale Entfernungssensor 2 ein Hindernis innerhalb eines bestimmten Messbereichs unter Hindernissen in der Umgebung des autonomen Fahrzeugs 1, erzeugt dreidimensionale Formeninformationen und gibt die erzeugten dreidimensionalen Formeninformationen an die dreidimensionale Hindernispositionsspeichereinheit 11 aus. Weiterhin, wie vorstehend beschrieben, misst der Rundumsensor 3 Hindernisse in der Umgebung des autonomen Fahrzeugs 1 in alle Richtungen, erzeugt Hindernispositionsinformationen und gibt die erzeugten Hindernispositionsinformationen an die dreidimensionale Hindernispositionsspeichereinheit 11 aus. Die dreidimensionale Hindernispositionsspeichereinheit 11 beschafft die dreidimensionalen Formeninformationen, die von dem dreidimensionalen Entfernungssensor 2 ausgegeben werden, und die Hindernispositionsinformationen, die von dem Rundumsensor 3 ausgegeben werden.
  • Das autonome Fahrzeug 1 identifiziert und verfolgt Hindernisse (S12). Speziell erkennt die dreidimensionale Hindernispositionsspeichereinheit 11 die Umgebungshindernisse und die Positionen von diesen basierend auf den Hindernispositionsinformationen, die von dem Rundumsensor 3 ausgegeben werden, und identifiziert und verfolgt die Hindernisse. Die dreidimensionale Hindernispositionsspeichereinheit 11 erzeugt Identifikationsinformationen und vergibt die erzeugten Identifikationsinformationen an neu erkannte Hindernisse. Die dreidimensionale Hindernispositionsspeichereinheit 11 speichert die erzeugten Identifikationsinformationen und die Hindernispositionsinformationen, die die Positionen der erkannten Hindernisse angeben, in der Speichereinheit auf solch eine Weise, dass die Identifikationsinformationen und die Hindernispositionsinformationen miteinander verknüpft sind (S1). Die dreidimensionale Hindernispositionsspeichereinheit 11 verfolgt die Positionen der Hindernisse, die bereits erkannt wurden. Speziell, wenn sich die Position des Hindernisses geändert hat, aktualisiert die dreidimensionale Hindernispositionsspeichereinheit 11 die Position, die durch die Hindernispositionsinformationen über das Hindernis, die in der Speichereinheit gespeichert sind, angegeben ist, zu der momentanen Position (die Position des Hindernisses, die basierend auf den Hindernispositionsinformationen spezifiziert ist, die von dem Rundumsensor 3 ausgegeben werden) (S1).
  • In dem Fall des Verfolgens der Position eines Hindernisses kann eine Bestimmung, ob das Hindernis, das basierend auf den Hindernispositionsinformationen von dem Rundumsensor 3 spezifiziert wird, das gleiche ist wie das Hindernis, das bereits erkannt wurde, durch irgendein Verfahren vorgenommen werden. Zum Beispiel, wenn in den Hindernispositionsinformationen, die in der Speichereinheit gespeichert sind, eine Position, die durch ein Element der Hindernispositionsinformationen über ein bestimmtes Hindernis angegeben ist, am nächsten zu einer Position eines bestimmten Hindernisses ist, das basierend auf den Hindernispositionsinformationen von dem Rundumsensor 3 spezifiziert ist, kann bestimmt werden, dass diese Hindernisse die gleichen sind.
  • Das autonome Fahrzeug 1 vergibt die dreidimensionalen Formeninformationen über ein erkanntes Hindernis an das erkannte Hindernis (S13). Speziell wird die als die dreidimensionale Form des Hindernisses zu erkennende Form durch das autonome Fahrzeug 1 durch neues Vergeben der dreidimensionalen Formeninformationen zu neu erkannten Hindernissen und durch Ersetzen der dreidimensionalen Formeninformationen über die erkannten Hindernisse mit Informationen, die die neu erkannte dreidimensionale Form angeben, aktualisiert (S3). Somit, wie in 7 gezeigt ist, werden die Identifikationsinformationen, die dreidimensionalen Formeninformationen und die Hindernispositionsinformationen in der Speichereinheit auf solch eine Weise gespeichert, dass diese Elemente von Informationen für jedes der identifizierten Hindernisse miteinander verknüpft sind. Der Prozess in Schritt S13 wird nachstehend detailliert mit Bezug auf 5 beschrieben.
  • Das autonome Fahrzeug 1 plant einen Weg entlang dem das autonome Fahrzeug 1 fährt, berechnet Fahranweisungswerte zum Antreiben der Räder 5a und 5b, um entlang dem geplanten Weg zu fahren, und treibt die Räder 5a und 5b an (S14). Speziell plant die Wegplanungseinheit 12 einen Fahrweg, so dass das autonome Fahrzeug 1 ein Kontaktieren jedes Hindernisses vermeiden kann, basierend auf den Hindernispositionsinformationen und den dreidimensionalen Formeninformationen über jedes Fahrzeug, die in der Speichereinheit durch die dreidimensionale Hindernispositionsspeichereinheit 11 gespeichert sind. Speziell können zum Beispiel Informationen, die die dreidimensionale Form des autonomen Fahrzeugs 1 angeben, in der Speichereinheit im Voraus gespeichert sein, und ein Weg, auf dem die dreidimensionale Form des autonomen Fahrzeugs 1 die dreidimensionale Form von jedem Hindernis während des Fahrens des autonomen Fahrzeugs 1 nicht überlappt, kann basierend auf den Informationen hergeleitet werden.
  • Die Fahrzeugantriebssteuerungseinheit 13 berechnet Fahranweisungswerte für die Stellglieder 14a und 14b, so dass das autonome Fahrzeug 1 entlang dem durch die Wegplanungseinheit 12 geplanten Weg fährt und treibt die Stellglieder 14a und 14b an. Als ein Ergebnis werden die Räder 5a und 5b angetrieben, wodurch ermöglicht wird, dass das autonome Fahrzeug 1 entlang dem durch die Wegplanungseinheit 12 geplanten Weg fährt.
  • Das autonome Fahrzeug 1 bestimmt, ob das autonome Fahrzeug 1 ein Ziel eines autonomen Fahrens erreicht hat oder nicht (S15). Zum Beispiel bestimmt das autonome Fahrzeug 1, dass das autonome Fahrzeug 1 das Ziel erreicht hat, wenn das autonome Fahrzeug 1 den vorstehend erwähnten Zielort, der durch den Benutzer eingestellt ist, erreicht hat.
  • Wenn bestimmt ist, dass das autonome Fahrzeug 1 das Ziel der autonomen Fahrt erreicht hat (S15: Ja), beendet das autonome Fahrzeug 1 das autonome Fahren. Wenn bestimmt ist, dass das autonome Fahrzeug 1 das Ziel des autonomen Fahrens nicht erreicht hat (S15: Nein), kehrt das autonome Fahrzeug 1 zurück zu Schritt S11.
  • Als Nächstes wird der Prozess des Vergebens der dreidimensionalen Formeninformationen des autonomen Fahrzeugs 1 gemäß diesem Ausführungsbeispiel mit Bezug auf 5 und 6 bis 9 beschrieben. 5 ist ein Ablaufdiagramm zum Erklären von Details von Schritt S13, der in 4 gezeigt ist.
  • Die dreidimensionale Hindernispositionsspeichereinheit 11 bestimmt, ob sich das identifizierte Hindernis innerhalb des Messbereichs des dreidimensionalen Entfernungssensors 2 befindet oder nicht (S20).
  • Wenn bestimmt ist, dass sich das identifizierte Hindernis innerhalb des Messbereichs des dreidimensionalen Entfernungssensors 2 befindet (S20: innerhalb des Bereichs), beschafft die dreidimensionale Hindernispositionsspeichereinheit 11 die dreidimensionale Form des Hindernisses von dem Messergebnis des dreidimensionalen Entfernungssensors 2 und kumuliert die beschafften dreidimensionalen Formen (S21). Speziell schneidet die dreidimensionale Hindernispositionsspeichereinheit 11 dreidimensionale Formeninformationen innerhalb eines bestimmten Bereichs, der das Hindernis umfasst, von den dreidimensionalen Formeninformationen, die von dem dreidimensionalen Entfernungssensor 2 ausgegeben werden, aus und kumuliert die ausgeschnittenen Informationen über die kumulierten dreidimensionalen Formeninformationen (S2).
  • Somit werden die dreidimensionalen Formeninformationen in bestimmten Perioden während der Zeit, wenn sich das Hindernis innerhalb des Messbereichs des dreidimensionalen Entfernungssensors 2 befindet, kumuliert. Speziell, wie in 8 gezeigt ist, wenn die gemessenen dreidimensionalen Formen als die dreidimensionale Form des Hindernisses kumuliert werden, wird die dreidimensionale Form, die basierend auf der Position des Hindernisses neu beschafft wird, auf die kumulierten dreidimensionalen Formen überlagert, wodurch die dreidimensionale Form des Hindernisses aktualisiert wird. Mit anderen Worten wird die dreidimensionale Form, die den beweglichen Bereich des Hindernisses darstellt, durch Ergänzen der Form, die durch die Messung neu erkannt wird, aktualisiert. Mit dieser Struktur, wenn das Objekt zum Beispiel ein bewegliches Objekt ist, wie etwa ein Mensch, kann der Haltungsvariationsbereich des Menschen (ein beweglicher Bereich eines Arms oder eines Beins) sequentiell aufgezeichnet werden.
  • Die dreidimensionale Hindernispositionsspeichereinheit 11 speichert die dreidimensionale Form des Hindernisses und die Hindernisposition auf solch eine Weise, dass die dreidimensionale Form und die Hindernisposition miteinander verknüpft sind, basierend auf dem Messergebnis des dreidimensionalen Entfernungssensors 2 (S22). Speziell speichert die dreidimensionale Hindernispositionsspeichereinheit 11 in der Speichereinheit die ausgeschnittenen dreidimensionalen Formeninformationen als die dreidimensionalen Formeninformationen, die die letzte dreidimensionale Form angeben, auf solch eine Weise, dass die ausgeschnittenen dreidimensionalen Formeninformationen mit den Hindernispositionsinformationen über das identifizierte Objekt verknüpft sind. In diesem Fall, wie vorstehend beschrieben, sind die dreidimensionalen Formeninformationen, die in der Speichereinheit gespeichert sind, nicht auf die Gestalt der ausgeschnittenen dreidimensionalen Formeninformationen begrenzt, sondern können stattdessen in irgendein Format umgewandelt werden. Somit, wie in 7 gezeigt ist, werden die Identifikationsinformationen, die dreidimensionalen Formeninformationen und die Hindernispositionsinformationen in der Speichereinheit auf solch eine Weise gespeichert, dass diese Elemente von Informationen für jedes der identifizierten Hindernisse miteinander verknüpft sind (S3).
  • In diesem Fall, wenn sich das identifizierte Hindernis innerhalb des Messbereichs befindet, der für den dreidimensionalen Entfernungssensor 2 und den Rundumsensor 3 gemeinsam ist, wird die Position des Hindernisses verfolgt, während die Hindernispositionsinformationen und die dreidimensionalen Formeninformationen über das Hindernis wie vorstehend beschrieben aktualisiert werden. Nachdem sich jedoch das Hindernis aus dem Messbereich des dreidimensionalen Entfernungssensors 2 herausbewegt hat, kann die dreidimensionale Form des Hindernisses nicht gemessen und aktualisiert werden, während die Position des Hindernisses verfolgt werden kann.
  • Wenn bestimmt ist, dass sich das identifizierte Hindernis nicht innerhalb des Messbereichs des dreidimensionalen Entfernungssensors 2 befindet (außerhalb des Messbereichs) (S20: außerhalb des Bereichs), berechnet die dreidimensionale Hindernispositionsspeichereinheit 11 einen Haltungsvariationsbereich des Hindernisses (einen Variationsbereich der dreidimensionalen Form des Hindernisses) basierend auf der Form, die als die dreidimensionale Form des Hindernisses erkannt wird (S23). Speziell, wie in 9 gezeigt ist, berechnet die dreidimensionale Hindernispositionsspeichereinheit 11 eine dreidimensionale Form, die durch Rotieren der dreidimensionalen Formen, die für das Hindernis kumuliert wurden, um eine Achse erhalten werden, die sich von der Position des Hindernisses vertikal aufwärts erstreckt (S4). Mit anderen Worten, eine dreidimensionale Form, die durch Rotieren der kumulierten dreidimensionalen Formen, die durch die kumulierten Informationen über die dreidimensionale Form angegeben sind, um die Achse der Position des Hindernisses erhalten wird. Die dreidimensionale Hindernispositionsspeichereinheit 11 wandelt die berechnete dreidimensionale Form in dreidimensionale Formeninformationen um, die die dreidimensionale Form angeben, und speichert die Informationen in der Speichereinheit als die dreidimensionalen Formeninformationen, die die letzte dreidimensionale Form des Hindernisses außerhalb des Messbereichs angeben, auf solch eine Weise, dass die dreidimensionalen Formeninformationen und die Hindernispositionsinformationen über das Hindernis miteinander verknüpft sind (S24, S25, S5). Die dreidimensionalen Formeninformationen werden kontinuierlich in der Speichereinheit gespeichert, bis das Hindernis in den Messbereich des dreidimensionalen Entfernungssensors 2 wieder eintritt. Weiterhin, wenn das Hindernis wieder in den Messbereich des dreidimensionalen Entfernungssensors 2 eingedrungen ist, speichert die dreidimensionale Hindernispositionsspeichereinheit 11 die ursprünglichen dreidimensionalen Formeninformationen erneut. Alternativ können die dreidimensionalen Formeninformationen durch den Prozess in Schritt S22, der vorstehend beschrieben wurde, aktualisiert werden, anstatt des zwangsweisen erneuten Speicherns der ursprünglichen dreidimensionalen Formeninformationen.
  • Eine beliebige Position in der kumulierten dreidimensionalen Form kann als eine Rotationsachse der dreidimensionalen Form bestimmt werden. Zum Beispiel kann ein Schwerpunkt der dreidimensionalen Form als die Rotationsachse der kumulierten dreidimensionalen Formen bestimmt werden. In diesem Fall werden die Position des Hindernisses und die Rotationsachse durch Kumulieren der dreidimensionalen Formen, so dass die Position des Hindernisses mit dem Schwerpunkt der kumulierten dreidimensionalen Formen übereinstimmt, aufeinander abgestimmt. Alternativ kann zum Beispiel die Mittenposition eines vorbestimmten charakteristischen Abschnitts der dreidimensionalen Form als die Rotationsachse der kumulierten dreidimensionalen Formen bestimmt werden. Wenn das Hindernis zum Beispiel ein Mensch ist, kann die Mittenposition des Kopfs des Menschen als die Rotationsachse bestimmt werden. Ebenso werden in diesem Fall die Position des Hindernisses und die Rotationsachse durch Kumulieren der dreidimensionalen Formen, so dass die Position des Hindernisses und die Mittenposition eines charakteristischen Abschnitts der kumulierten dreidimensionalen Formen übereinstimmen, aufeinander abgestimmt.
  • Die dreidimensionale Form, die durch Rotieren der kumulierten dreidimensionalen Formen erhalten wird, ist eine dreidimensionale Form, die einen geschätzten Bereich darstellt, innerhalb dem das Hindernis aufgrund einer Haltungsvariation (zum Beispiel einer Drehbewegung) des Hindernisses beweglich ist. In dem Fall, in dem das Hindernis zum Beispiel ein Mensch ist, kann die dreidimensionale Form des Menschen, dessen einer Arm gehoben ist, durch den dreidimensionalen Entfernungssensor 2 gemessen werden; wenn jedoch der andere Arm des Menschen gehoben wird, oder sich der Mensch um 180 Grad dreht, während der eine Arm des Menschen gehoben ist, nachdem sich der Mensch aus dem Messbereich des dreidimensionalen Entfernungssensors 2 herausbewegt hat, kann das autonome Fahrzeug 1 ein Herausragen des Arms als die dreidimensionale Form nicht erkennen. Dementsprechend gibt es eine Möglichkeit, dass das autonome Fahrzeug 1 den Menschen kontaktieren wird. Unterdessen wird die dreidimensionale Form, die durch Rotieren der dreidimensionalen Form des erkannten Hindernisses erhalten wird, als die dreidimensionale Form des Hindernisses erkannt, wodurch es ermöglicht wird, den Kontakt mit dem Hindernis zu vermeiden, auch in dem vorstehend erwähnten Fall.
  • Somit, in dem Fall des Planens eines Weges für das autonome Fahrzeug 1, um in die Richtung der Totzone des dreidimensionalen Entfernungssensors 2 zu fahren (außerhalb des Messbereichs), ermöglicht die Verwendung der dreidimensionalen Formeninformationen, die wie vorstehend beschrieben berechnet und gespeichert werden, eine Interferenzbestimmung (Kontaktbestimmung) angesichts von dreidimensionalen Formen in einer Wegeplanung, obwohl die Interferenzbestimmung grob ist. Dies ermöglicht ein autonomes Fahren mit einer hohen Zuverlässigkeit und einer hohen Fahrperformance.
  • In dem vorstehenden Ausführungsbeispiel, wenn sich das Hindernis aus dem Messbereich des dreidimensionalen Entfernungssensors 2 herausbewegt hat, wird eine dreidimensionale Form des Hindernisses inklusive eines Haltungsvariationsbereichs von diesem geschätzt und als die dreidimensionale Form des Hindernisses erkannt. Jedoch können direkt die letzte dreidimensionale Form oder die kumulierten dreidimensionalen Formen verwendet werden, ohne die dreidimensionale Form zu schätzen. Ebenso können mit dieser Struktur Hindernisse durch den Rundumsensor 3 verfolgt werden und kann die Interferenzbestimmung angesichts der dreidimensionalen Formen der Hindernisse vorgenommen werden. Dementsprechend können dreidimensionale Formen von Umgebungsobjekten innerhalb eines breiteren Bereichs erkannt werden. Jedoch wird vorzugsweise, wie vorstehend beschrieben, die dreidimensionale Form eines Hindernisses inklusive des Haltungsvariationsbereichs von diesem als die dreidimensionale Form des Hindernisses geschätzt und erkannt, wodurch es möglich gemacht wird, einen Kontakt mit dem Hindernis zu vermeiden, auch wenn sich das Objekt bewegt hat und sich die dreidimensionale Form des Hindernisses geändert hat.
  • Wie vorstehend beschrieben, in dem autonomen Fahrzeug 1 gemäß diesem Ausführungsbeispiel, wenn sich ein Hindernis (Objekt) innerhalb des Messbereichs des dreidimensionalen Entfernungssensors 2 (dreidimensionale Messeinrichtung) befindet, aktualisiert die Steuerungseinheit 10 die als die dreidimensionale Form des Hindernisses zu erkennende Form basierend auf den dreidimensionalen Formeninformationen, die durch den dreidimensionalen Entfernungssensor 2 erzeugt werden. Weiterhin, auch nachdem sich das Hindernis aus dem Messbereich des dreidimensionalen Entfernungssensors 2 herausbewegt hat, verfolgt die Steuerungseinheit 10 das Hindernis basierend auf den Hindernispositionsinformationen, die durch den Rundumsensor 3 erzeugt werden.
  • Das heißt, der dreidimensionale Entfernungssensor 2 ist ein kostengünstiger Sensor, der nicht die dreidimensionale Form von jedem Hindernis messen kann, aber die Verwendung des dreidimensionalen Entfernungssensors 2 in Kombination mit dem Rundumsensor 3, der dazu in der Lage ist, die Positionen von Hindernissen innerhalb eines breiten Bereichs zu messen, ermöglicht eine Erkennung von Hindernissen in der Totzone des dreidimensionalen Entfernungssensors 2, der die dreidimensionale Form von jedem Hindernis mit einer hohen Genauigkeit messen kann, obwohl der Messbereich des kostengünstigen dreidimensionalen Entfernungssensors 2 eng ist. Deshalb, gemäß diesem Ausführungsbeispiel, können die dreidimensionalen Formen von Umgebungsobjekten innerhalb eines breiten Bereichs kontinuierlich erkannt werden, während eine Erhöhung der Kosten vermieden wird.
  • Wie zum Beispiel in 10 gezeigt ist, gibt es in einem Fall, in dem ein Fahrweg zu planen ist, um Hindernisse zu vermeiden, nur unter Berücksichtigung des Vorhandenseins oder Nichtvorhandenseins von Hindernissen und den Positionen von diesen, ohne die dreidimensionalen Formen von diesen zu berücksichtigen, eine Möglichkeit, dass das autonome Fahrzeug ein überhängendes Hindernis oder Ähnliches kontaktieren wird, und gibt es ebenso eine Möglichkeit, dass das autonome Fahrzeug fehlerhaft bestimmen wird, dass es unmöglich ist, zu fahren, während ein Kontakt mit dem Hindernis vermieden wird, obwohl es tatsächlich möglich ist, zu fahren, während ein Kontakt mit dem Hindernis vermieden wird, mit dem Ergebnis, dass das Fahrzeug einen größeren Umweg um das Hindernis nehmen wird. Gemäß diesem Ausführungsbeispiel jedoch, wie in 11 gezeigt ist, auch wenn das autonome Fahrzeug 1 in der Nähe eines Hindernisses in der Totzone des dreidimensionalen Entfernungssensors 2 fährt, wird die dreidimensionale Form des Hindernisses verfolgt und erkannt, so dass mit hoher Genauigkeit erkannt werden kann, ob das Fahrzeug fahren kann oder nicht, während ein Kontakt mit dem Hindernis vermieden wird. Auch in einem Fall zum Beispiel, in dem das autonome Fahrzeug 1 einen Roboterarm besitzt und der Roboterarm hervorsteht, kann ein Fahrweg mit einer hohen Fahreffizienz angemessen geplant werden, während verhindert wird, dass der Roboterarm das Hindernis kontaktiert, unter Berücksichtigung der dreidimensionalen Form des Hindernisses.
  • Weiterhin schätzt in dem autonomen Fahrzeug 1 gemäß diesem Ausführungsbeispiel die Steuerungseinheit 10 für jedes Hindernis, das sich aus dem Messbereich des dreidimensionalen Entfernungssensors 2 herausbewegt hat, eine dreidimensionale Form inklusive eines Bereichs, innerhalb dem das Hindernis zu ändern ist, basierend auf der Form, die als die dreidimensionale Form des Hindernisses erhalten wird, und erkennt die geschätzte dreidimensionale Form als die dreidimensionale Form des Objekts, das sich aus dem Messbereich des dreidimensionalen Entfernungssensors 2 herausbewegt hat.
  • Gemäß dieser Struktur, auch wenn das Hindernis ein bewegliches Objekt ist und sich die dreidimensionale Form des Hindernisses ändert, können mögliche dreidimensionale Formen des Hindernisses angemessen erkannt werden. Zum Beispiel, wie vorstehend beschrieben, kann die dreidimensionale Form von jedem Hindernis erkannt werden, wenn die dreidimensionale Form des Hindernisses geändert wird, nachdem sich das Hindernis aus dem Messbereich des dreidimensionalen Entfernungssensors 2 herausbewegt hat. Dementsprechend kann die dreidimensionale Form von jedem Hindernis durch das autonome Fahrzeug 1, das fährt, während es Hindernisse vermeidet, angemessen erkannt werden.
  • Obwohl in diesem Ausführungsbeispiel die dreidimensionale Form, die den Haltungsvariationsbereich des Hindernisses darstellt, durch Rotieren der kumulierten dreidimensionalen Formen geschätzt wird, ist das Verfahren des Schätzens der dreidimensionalen Formen nicht darauf begrenzt. Zum Beispiel kann die dreidimensionale Form, die den Haltungsvariationsbereich des Hindernisses darstellt, durch Rotieren der letzten dreidimensionalen Form des Hindernisses um die Position des Hindernisses geschätzt werden, ohne eine Kumulierung der dreidimensionalen Formen separat durchzuführen. Vorzugsweise jedoch kann die dreidimensionale Form inklusive des gesamten Haltungsvariationsbereichs des Hindernisses durch Schätzen der dreidimensionalen Form, die den Haltungsvariationsbereich des Hindernisses darstellt, durch Rotieren der kumulierten dreidimensionalen Formen geschätzt werden, so dass das Fahrzeug einen Kontakt mit dem Hindernis vermeiden kann.
  • <Andere Ausführungsbeispiele der Erfindung>
  • In dem vorstehenden Ausführungsbeispiel wird unter der Annahme, dass der Haltungsvariationsbereich von jedem Hindernis unbekannt ist, die dreidimensionale Form von jedem Hindernis basierend auf Messergebnissen nach Bedarf aktualisiert, und der Haltungsvariationsbereich von jedem Hindernis, das sich aus dem gemeinsamen Messbereich der zwei Sensoren (der dreidimensionale Entfernungssensor 2 und der Rundumsensor 3) herausbewegt hat, wird durch Rotieren der dreidimensionalen Form des Hindernisses geschätzt, und dann wird die geschätzte dreidimensionale Form verwendet.
  • Jedoch können die identifizierten Hindernisse durch Analysieren der Messergebnisse von zumindest einem der zwei Sensoren kategorisiert werden und die dreidimensionale Form des Hindernisses innerhalb eines detaillierten Haltungsvariationsbereichs kann gemäß der Kategorie des Hindernisses spezifiziert werden.
  • Speziell, wenn ein charakteristisches Messmuster von dem Messergebnis (der letzten dreidimensionalen Form oder den kumulierten dreidimensionalen Formen) des Sensors erhalten werden kann und die Kategorie, in der das Hindernis vorhanden ist, bestimmt werden kann, könnte die vorbereitete dreidimensionale Form des Haltungsvariationsbereichs des Hindernisses in der Kategorie als die dreidimensionale Form des Haltungsvariationsbereichs des Hindernisses verwendet werden.
  • Wenn das Hindernis zum Beispiel basierend auf den Sensormessergebnissen als ein Mensch kategorisiert wird, können die dreidimensionalen Formeninformationen, die die dreidimensionale Form des Haltungsvariationsbereichs des Menschen angeben, die in der Speichereinheit im Voraus gespeichert sind, in der Speichereinheit als die dreidimensionalen Formeninformationen gespeichert werden, die die letzte dreidimensionale Form des Hindernisses angeben. Genauer werden für verschiedene Kategorien, Messmusterinformationen, die ein Messmuster angeben, das in jedem Hindernis in den Kategorien umfasst ist, und dreidimensionale Formeninformationen über jedes Hindernis in den Kategorien in der Speichereinheit im Voraus gespeichert. Wenn ein Messmuster, das identisch oder ähnlich zu dem Messmuster ist, das durch die Messmusterinformationen angegeben wird, die in der Speichereinheit gespeichert sind, in zumindest einem der Messergebnisse (der Hindernisposition, der letzten dreidimensionalen Form und der kumulierten dreidimensionalen Form) des dreidimensionalen Entfernungssensors 2 und des Rundumsensors 3 erfasst wird, spezifiziert die dreidimensionale Hindernispositionsspeichereinheit 11 die dreidimensionalen Formeninformationen entsprechend den Messmusterinformationen als die dreidimensionalen Formeninformationen, die die dreidimensionale Form des Hindernisses angeben.
  • Mit dieser Struktur kann die dreidimensionale Form von jedem Hindernis angemessen erkannt werden. Außerdem kann eine dreidimensionale Kontaktbestimmung bei einer Wegeplanung genauer vorgenommen werden, und somit kann eine zuverlässigere autonome Fahrt mit einer hohen Fahrperformance erreicht werden.
  • Es sei angemerkt, dass die vorliegende Erfindung nicht auf die vorstehenden Ausführungsbeispiele beschränkt ist und nach Bedarf modifiziert werden kann, ohne sich vom Umfang der Erfindung zu entfernen.
  • Während in den vorstehenden Ausführungsbeispielen die letzte dreidimensionale Form, die durch den dreidimensionalen Entfernungssensor 2 beschafft wird, als die letzte dreidimensionale Form von jedem Hindernis erkannt wird, ist die letzte dreidimensionale Form nicht darauf beschränkt. Zum Beispiel können die kumulierten dreidimensionalen Formen als die letzte dreidimensionale Form von jedem Hindernis erkannt werden. Vorzugsweise wird jedoch die letzte dreidimensionale Form, die durch den dreidimensionalen Entfernungssensor 2 beschafft wird, als die letzte dreidimensionale Form von jedem Hindernis erkannt, wie in den vorstehenden Ausführungsbeispielen. Gemäß dieser Struktur, wenn sich ein Hindernis innerhalb des Messbereichs des dreidimensionalen Entfernungssensors 2 befindet, kann eine Wegeplanung unter Berücksichtigung von nur der dreidimensionalen Form des Hindernisses, das tatsächlich sichtbar ist, durchgeführt werden. Folglich kann ein Fahrweg mit einer hohen Fahreffizienz geplant werden, ohne dass das autonome Fahrzeug 1 einen unnötigen Umweg vornehmen muss.
  • Die Vorrichtung zur Erkennung einer dreidimensionalen Form kann den dreidimensionalen Entfernungssensor 2, den Rundumsensor 3 und die dreidimensionale Hindernispositionsspeichereinheit 11 (Steuerungseinheit 10) umfassen. Die Vorrichtung zur Erkennung einer dreidimensionalen Form ist nicht auf das autonome Fahrzeug 1 begrenzt, sondern kann stattdessen auf verschiedene Einrichtungen angewendet werden, die irgendeine Steuerung unter Verwendung der dreidimensionalen Formen von Umgebungshindernissen (Objekten), die durch die Vorrichtung zur Erkennung einer dreidimensionalen Form erkannt werden, durchführen.
  • Diese Anmeldung basiert auf und beansprucht den Vorteil der Priorität der japanischen Patentanmeldung Nr. 2013-188267 , eingereicht am 11. September 2013, deren Offenbarung hierin in ihrer Gesamtheit durch Bezugnahme mit eingeschlossen ist.
  • Bezugszeichenliste
  • 1
    Autonomes Fahrzeug
    2
    dreidimensionaler Entfernungssensor
    3
    Rundumsensor
    4
    Hauptgehäuse
    5a, 5b
    Rad
    10
    Steuerungseinheit
    11
    dreidimensionale Hindernispositionsspeichereinheit
    12
    Wegplanungseinheit
    13
    Fahrzeugantriebssteuerungseinheit
    14a, 14b
    Stellglied

Claims (7)

  1. Vorrichtung zur Erkennung eines dreidimensionalen Objekts, mit: einem Rundumsensor, der Umgebungsobjekte in alle Richtungen misst und Positionsinformationen, die dazu in der Lage sind, eine Position von jedem der Objekte zu spezifizieren, als ein Ergebnis der Messung erzeugt; einer dreidimensionalen Messeinrichtung, die ein Objekt innerhalb eines bestimmten Messbereichs unter den Umgebungsobjekten misst, und dreidimensionale Formeninformationen, die dazu in der Lage sind, eine dreidimensionale Form des Objekts zu spezifizieren, als ein Ergebnis der Messung erzeugt; und einer Steuerungseinheit, die eine als die dreidimensionale Form des Objekts zu erkennende Form basierend auf den dreidimensionalen Formeninformationen, die durch die dreidimensionale Messeinrichtung erzeugt werden, wenn sich das Fahrzeug innerhalb des Messbereichs der dreidimensionalen Messeinrichtung befindet, aktualisiert, wobei die Steuerungseinheit das Objekt basierend auf den Positionsinformationen, die durch den Rundumsensor erzeugt werden, verfolgt, auch nachdem sich das Objekt aus dem Messbereich der dreidimensionalen Messeinrichtung herausbewegt hat.
  2. Vorrichtung zur Erkennung eines dreidimensionalen Objekts gemäß Anspruch 1, wobei die Steuerungseinheit eine dreidimensionale Form eines Objekts außerhalb des Messbereichs der dreidimensionalen Messeinrichtung schätzt, basierend auf einer Form, die als die dreidimensionale Form des Objekts erkannt wird, wobei die dreidimensionale Form einen Variationsbereich des Objekts umfasst, und die Steuerungseinheit die geschätzte dreidimensionale Form als die dreidimensionale Form des Objekts außerhalb des Messbereichs der dreidimensionalen Messeinrichtung erkennt.
  3. Vorrichtung zur Erkennung eines dreidimensionalen Objekts gemäß Anspruch 2, wobei die Steuerungseinheit als eine Form inklusive eines Variationsbereichs des Objekts eine Form berechnet, die durch Rotieren der dreidimensionalen Form, die als die Form des Objekts erkannt wird, erhalten wird.
  4. Vorrichtung zur Erkennung eines dreidimensionalen Objekts gemäß Anspruch 2 oder 3, wobei die dreidimensionale Form, die als die Form des Objekts erkannt wird, eine Form ist, die durch Kumulieren von dreidimensionalen Formen des Objekts, die basierend auf den dreidimensionalen Formeninformationen spezifiziert sind, die durch die dreidimensionale Messeinrichtung erzeugt werden, erhalten wird.
  5. Vorrichtung zur Erkennung eines dreidimensionalen Objekts gemäß einem der Ansprüche 1 bis 4, weiterhin mit einer Speichereinheit, die dreidimensionale Formeninformationen, die eine Form angeben, die als die dreidimensionale Form des Objekts erkannt wird, und Positionsinformationen, die eine Position des Objekts angeben, auf solch eine Weise speichert, dass die dreidimensionalen Formeninformationen und die Positionsinformationen miteinander verknüpft sind, wobei die Steuerungseinheit die als die dreidimensionale Form des Objekts zu erkennende Form durch Aktualisieren der dreidimensionalen Form, die durch die dreidimensionalen Formeninformationen angegeben wird, die in der Speichereinheit gespeichert sind, basierend auf den dreidimensionalen Formeninformationen, die durch die dreidimensionale Messeinrichtung erzeugt werden, aktualisiert und das Objekt durch Aktualisieren der Position des Objekts, die durch die Positionsinformationen angegeben wird, die in der Speichereinheit gespeichert sind, basierend auf den Positionsinformationen, die durch den Rundumsensor erzeugt werden, verfolgt.
  6. Verfahren zur Erkennung eines dreidimensionalen Objekts, mit den Schritten: Messen, durch eine dreidimensionale Messeinrichtung, einer dreidimensionalen Form eines Objekts innerhalb eines bestimmten Messbereichs der dreidimensionalen Messeinrichtung unter Umgebungsobjekten, und Aktualisieren einer als die dreidimensionale Form des Objekts zu erkennenden Form innerhalb des Messbereichs der dreidimensionalen Messeinrichtung basierend auf einem Ergebnis der Messung; und Messen, durch einen Rundumsensor, von Positionen der Umgebungsobjekte in alle Richtungen, und Verfolgen, basierend auf einem Ergebnis der Messung, eines Objekts, das sich aus dem Messbereich der dreidimensionalen Messeinrichtung herausbewegt hat.
  7. Fahrzeug, mit: einem Rundumsensor, der Umgebungsobjekte in alle Richtungen misst und Positionsinformationen, die dazu in der Lage sind, eine Position von jedem der Objekte zu spezifizieren, als ein Ergebnis der Messung erzeugt; einer dreidimensionalen Messeinrichtung, die ein Objekt innerhalb eines bestimmten Messbereichs unter den Umgebungsobjekten misst, und dreidimensionale Formeninformationen, die dazu in der Lage sind, eine dreidimensionale Form des Objekts zu spezifizieren, als ein Ergebnis der Messung erzeugt; und einer Steuerungseinheit, die eine als die dreidimensionale Form des Objekts zu erkennende Form basierend auf den dreidimensionalen Formeninformationen, die durch die dreidimensionale Messeinrichtung erzeugt werden, wenn sich das Objekt innerhalb des Messbereichs der dreidimensionalen Messeinrichtung befindet, aktualisiert, einen Fahrweg plant, um einen Kontakt mit dem Hindernis zu vermeiden, basierend auf der erkannten dreidimensionalen Form des Objekts, und das Fahrzeug steuert, um entlang dem geplanten Fahrweg zu fahren, wobei die Steuerungseinheit das Objekt basierend auf den Positionsinformationen, die durch den Rundumsensor erzeugt werden, verfolgt, auch nachdem sich das Objekt aus dem Messbereich der dreidimensionalen Messeinrichtung herausbewegt hat.
DE112014004163.7T 2013-09-11 2014-09-09 Vorrichtung zur Erkennung eines dreidimensionalen Objekts, Verfahren zur Erkennung eines dreidimensionalen Objekts und Fahrzeug Expired - Fee Related DE112014004163B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013188267A JP6032163B2 (ja) 2013-09-11 2013-09-11 三次元物体認識装置、三次元物体認識方法、及び移動体
JP2013-188267 2013-09-11
PCT/JP2014/004618 WO2015037222A1 (ja) 2013-09-11 2014-09-09 三次元物体認識装置、三次元物体認識方法、及び移動体

Publications (2)

Publication Number Publication Date
DE112014004163T5 true DE112014004163T5 (de) 2016-05-25
DE112014004163B4 DE112014004163B4 (de) 2021-10-07

Family

ID=52665353

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112014004163.7T Expired - Fee Related DE112014004163B4 (de) 2013-09-11 2014-09-09 Vorrichtung zur Erkennung eines dreidimensionalen Objekts, Verfahren zur Erkennung eines dreidimensionalen Objekts und Fahrzeug

Country Status (5)

Country Link
US (1) US9633438B2 (de)
JP (1) JP6032163B2 (de)
KR (1) KR101971317B1 (de)
DE (1) DE112014004163B4 (de)
WO (1) WO2015037222A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019202511A1 (de) * 2019-02-25 2020-08-27 Kuka Deutschland Gmbh Autonomes Fahrzeug mit einer Sensoreinrichtung

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9625582B2 (en) * 2015-03-25 2017-04-18 Google Inc. Vehicle with multiple light detection and ranging devices (LIDARs)
US9888174B2 (en) 2015-10-15 2018-02-06 Microsoft Technology Licensing, Llc Omnidirectional camera with movement detection
US10277858B2 (en) * 2015-10-29 2019-04-30 Microsoft Technology Licensing, Llc Tracking object of interest in an omnidirectional video
JP6473685B2 (ja) * 2015-11-19 2019-02-20 日立建機株式会社 車両制御装置及び作業機械
US10204274B2 (en) * 2016-06-29 2019-02-12 Cellular South, Inc. Video to data
JP2018045482A (ja) * 2016-09-15 2018-03-22 ソニー株式会社 撮像装置、信号処理装置、及び、車両制御システム
JP6773503B2 (ja) * 2016-09-27 2020-10-21 株式会社トプコン レーザスキャナシステム及び点群データのレジストレーション方法
US10386856B2 (en) 2017-06-29 2019-08-20 Uber Technologies, Inc. Autonomous vehicle collision mitigation systems and methods
US10065638B1 (en) 2017-08-03 2018-09-04 Uber Technologies, Inc. Multi-model switching on a collision mitigation system
CN108008409B (zh) 2017-11-28 2019-12-10 深圳市杉川机器人有限公司 区域轮廓绘制方法及装置
DE102018114293A1 (de) * 2018-06-14 2019-12-19 Helga Sommer Computerimplementiertes Verfahren für die Erstellung einer Route für Transport und Durchführung von Transport
JP7199984B2 (ja) * 2019-02-01 2023-01-06 株式会社小松製作所 作業車両の制御システム及び作業車両の制御方法
CN110108231B (zh) * 2019-05-08 2020-10-27 广东嘉腾机器人自动化有限公司 基于角点检测的钜体箱体三维尺寸测量方法及存储介质
EP3748393A1 (de) * 2019-06-04 2020-12-09 Jabil Optics Germany GmbH Bildgebungssystem mit rundumsicht
US20240139945A1 (en) * 2022-10-31 2024-05-02 Omron Corporation Method and apparatus for dynamically modifying a representation of an autonomous robot

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07248817A (ja) * 1994-03-12 1995-09-26 Nec Corp 水中走行機
JPH09331520A (ja) * 1996-06-13 1997-12-22 Nippon Telegr & Teleph Corp <Ntt> 自動追跡システム
JPH11296229A (ja) * 1998-02-13 1999-10-29 Komatsu Ltd 車両の誘導装置
DE10242852A1 (de) * 2002-09-14 2004-03-25 Technische Universität Ilmenau Abteilung Forschungsförderung und Technologietransfer Verfahren zur Minimierung des Einflusses von Störsignalen bei der Formelementeberechnung aus Koordinatenpunkten
JP3760918B2 (ja) * 2003-01-21 2006-03-29 株式会社日立製作所 セキュリティシステム
JP2006039760A (ja) * 2004-07-23 2006-02-09 Victor Co Of Japan Ltd 移動ロボット
JP2006220521A (ja) * 2005-02-10 2006-08-24 Hitachi Ltd 自己位置計測装置及び自己位置計測方法を実行するためのプログラム
JP2009092383A (ja) * 2007-10-03 2009-04-30 Toyota Motor Corp 障害物検知センサ搭載シミュレーション装置、障害物検知センサ搭載シミュレーション方法及び障害物検知センサ搭載シミュレーションプログラム
KR20090062881A (ko) * 2007-12-13 2009-06-17 삼성전자주식회사 이동 로봇 및 그 이동 객체 검출 방법
JP5178276B2 (ja) 2008-03-27 2013-04-10 ダイハツ工業株式会社 画像認識装置
US9740921B2 (en) * 2009-02-26 2017-08-22 Tko Enterprises, Inc. Image processing sensor systems
JP5462597B2 (ja) 2009-11-12 2014-04-02 株式会社日立情報通信エンジニアリング 物体測定システム及びその方法
JP5430456B2 (ja) * 2010-03-16 2014-02-26 キヤノン株式会社 幾何特徴抽出装置、幾何特徴抽出方法、及びプログラム、三次元計測装置、物体認識装置
JP2011209019A (ja) * 2010-03-29 2011-10-20 Sony Corp ロボット装置及びロボット装置の制御方法
JP5872818B2 (ja) * 2010-08-20 2016-03-01 パナソニック株式会社 測位処理装置、測位処理方法、および画像処理装置
JP5770486B2 (ja) * 2011-02-21 2015-08-26 株式会社トプコン 全周画像計測装置
JP5810296B2 (ja) * 2011-06-07 2015-11-11 パナソニックIpマネジメント株式会社 画像表示装置及び画像表示方法
JP5906028B2 (ja) * 2011-06-22 2016-04-20 キヤノン株式会社 画像処理装置、画像処理方法
JP5874252B2 (ja) * 2011-09-07 2016-03-02 株式会社Ihi 対象物との相対位置計測方法と装置
JP5636014B2 (ja) 2012-03-12 2014-12-03 株式会社三共 遊技機

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019202511A1 (de) * 2019-02-25 2020-08-27 Kuka Deutschland Gmbh Autonomes Fahrzeug mit einer Sensoreinrichtung

Also Published As

Publication number Publication date
DE112014004163B4 (de) 2021-10-07
JP6032163B2 (ja) 2016-11-24
KR20150135505A (ko) 2015-12-02
JP2015055974A (ja) 2015-03-23
US20160063710A1 (en) 2016-03-03
WO2015037222A1 (ja) 2015-03-19
US9633438B2 (en) 2017-04-25
KR101971317B1 (ko) 2019-04-22

Similar Documents

Publication Publication Date Title
DE112014004163B4 (de) Vorrichtung zur Erkennung eines dreidimensionalen Objekts, Verfahren zur Erkennung eines dreidimensionalen Objekts und Fahrzeug
US20220317700A1 (en) Systems and methods for detecting low-height objects in a roadway
EP3161572B1 (de) Wiederfinden eines verlorenen fahrzeuges unter verwendung von assoziierten merkmalspaaren
US9195895B1 (en) Systems and methods for detecting traffic signs
DE102015105248B4 (de) Verfahren und System zum Erzeugen eines Bildes der Umgebung eines Gelenkfahrzeugs
DE112020004931T5 (de) Systeme und verfahren zur bestimmung der verkehrssicherheit
CN109813328A (zh) 一种驾驶路径规划方法、装置及车辆
WO2020216559A1 (de) Verfahren zur erkennung einer funktionsfähigkeit eines umgebungssensors, steuergerät und fahrzeug
DE112015002037T5 (de) Detailliertes Landkartenformat für autonomes Fahren
WO2018141440A1 (de) Verfahren und vorrichtung zur aktualisierung einer digitalen karte
DE112016005700T5 (de) Wendeassistenz auf Grundlage der Manövrierschwierigkeit
DE112016006616T5 (de) Peripherieerkennungseinrichtung, Peripherieerkennungsverfahren und Peripherieerkennungsprogramm
DE102019118210A1 (de) Vorrichtung und Verfahren zur Kompensation eines Richtungswinkels
DE112021002014T5 (de) Regelkreis zum navigieren eines fahrzeugs
DE112016006962T5 (de) Erkennungsregionschätzvorrichtung, Erkennungsregionschätzverfahren und Erkennungsregionschätzprogramm
DE102018112861A1 (de) Systeme und Verfahren zur Erfassung von Induktionsschleifen
EP3867601A1 (de) Verfahren und system zum bestimmen eines umfeldmodells für ein fahrzeug
DE102017120996A1 (de) Verfahren und Vorrichtung zur Kollisionsvermeidung beim Betrieb eines Flurförderzeugs
KR101549165B1 (ko) 차량 자세 추정 장치 및 차량 자세 추정 방법
EP3631779A1 (de) Verfahren, vorrichtungen und computerlesbares speichermedium mit instruktionen zum ermitteln von geltenden verkehrsregeln für ein kraftfahrzeug
DE102015216979A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs, Steuergerät und Fahrzeug
JP2017036945A (ja) 移動体とその障害物検出方法
DE102019132967A1 (de) Verfahren und Vorrichtung zur Ermittlung einer Fahrspur-Hypothese
DE102023103171A1 (de) VERFAHREN UND VORRICHTUNG ZUM BESTIMMEN DER POSITION EINES FUßGÄNGERS
EP3640594A1 (de) System von künstlichen landmarken in einer umgebung zur verwendung für eine sensorgestützte lokalisierung von mobilen plattformen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: TBK, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee