DE102022117085A1 - Objekterkennungsvorrichtung und nicht-flüchtiges aufzeichnungsmedium - Google Patents

Objekterkennungsvorrichtung und nicht-flüchtiges aufzeichnungsmedium Download PDF

Info

Publication number
DE102022117085A1
DE102022117085A1 DE102022117085.3A DE102022117085A DE102022117085A1 DE 102022117085 A1 DE102022117085 A1 DE 102022117085A1 DE 102022117085 A DE102022117085 A DE 102022117085A DE 102022117085 A1 DE102022117085 A1 DE 102022117085A1
Authority
DE
Germany
Prior art keywords
processing
level
estimation process
processing load
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022117085.3A
Other languages
English (en)
Inventor
Tsubasa Ono
Keiichi Watanabe
Yu Yoshida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Publication of DE102022117085A1 publication Critical patent/DE102022117085A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Eine Objekterkennungsvorrichtung (50) umfasst zumindest einen Prozessor (51) und zumindest einen Speicher (53), der mit dem Prozessor (51) kommunikationsfähig verbunden ist. Der Prozessor (51) gibt auf der Basis von Beobachtungsdaten eines Abstandssensors (31S) einen oder mehrere Objektpräsenzbereiche vor, in denen jeweils ein Objekt wahrscheinlich vorhanden ist. Der Prozessor (51) schätzt ein Attribut des Objekts, das in jedem von dem einen oder den mehreren Objektpräsenzbereichen wahrscheinlich vorhanden ist. Der Prozessor (51) gibt auf der Basis des Attributs des Objekts ein Verarbeitungslastniveau, das für die Objekterkennungsverarbeitung aufzuwenden ist, die für jeden von dem einen oder den mehreren Objektpräsenzbereichen auszuführen ist, unter Verwendung zumindest von Bilddaten vor, die von einer Abbildungsvorrichtung erzeugt werden. Der Prozessor (51) führt die Objekterkennungsverarbeitung für jeden von dem einen oder den mehreren Objektpräsenzbereichen entsprechend dem vorgegebenen Verarbeitungslastniveau aus.

Description

  • TECHNISCHER HINTERGRUND
  • 1. Technisches Gebiet
  • Die Erfindung bezieht sich auf eine Objekterkennungsvorrichtung und ein nicht-flüchtiges Aufzeichnungsmedium zur Verwendung bei einem Fahrzeug.
  • 2. Einschlägiger Stand der Technik
  • Eine Technik zur Objekterkennung ist für eine automatisierte Fahrtechnik sowie ein fortschrittliches Fahrerassistenzsystem bei neueren Fahrzeugen entwickelt worden. Die Objekterkennungstechnik verwendet eine Abbildungsvorrichtung, wie z. B. eine monokulare Kamera oder eine Stereokamera, oder einen Abstandssensor, der elektromagnetische Wellen verwendet, wie Light Detection and Ranging (Lichterfassung und Entfernungsbestimmung) oder Laser Imaging Detection and Ranging (LiDAR) (Lichterfassung und Entfernungsbestimmung mittels Laser) oder ein Millimeterwellen-Radar. Es wird zum Beispiel auf die ungeprüften japanischen Patentanmeldungs-Veröffentlichungen JP 2011- 134 119 A , JP 2010- 93 610 A und JP 2010- 86 268 A verwiesen.
  • KURZBESCHREIBUNG
  • Gemäß einem Aspekt der Erfindung wird eine Objekterkennungsvorrichtung angegeben, die einen oder mehrere Prozessoren sowie einen oder mehrere Speicher aufweist. Der eine oder die mehreren Speicher sind mit dem einen oder den mehreren Prozessoren in kommunikationsfähiger Weise verbunden. Der eine oder die mehreren Prozessoren sind dazu ausgebildet, auf der Basis von Beobachtungsdaten eines Abstandssensors einen oder mehrere Objektpräsenzbereiche vorzugeben, in denen jeweils ein Objekt wahrscheinlich vorhanden ist.
  • Der Abstandssensor ist dazu ausgebildet, eine reflektierte Welle einer angewendeten bzw. angelegten elektromagnetischen Welle zu empfangen. Der eine oder die mehreren Prozessoren sind dazu ausgebildet, ein Attribut des Objekts zu schätzen, das in jedem von dem einen oder den mehreren Objektpräsenzbereichen wahrscheinlich vorhanden ist.
  • Der eine oder die mehreren Prozessoren sind dazu ausgebildet, auf der Basis des Attributs des Objekts ein Verarbeitungslastniveau, das für die Objekterkennungsverarbeitung aufgewendet werden soll, die für jeden von dem einen oder den mehreren Objektpräsenzbereichen auszuführen ist, unter Verwendung zumindest von Bilddaten vorzugeben, die von einer Abbildungsvorrichtung erzeugt werden. Der eine oder die mehreren Prozessoren sind dazu ausgebildet, die Objekterkennungsverarbeitung für jeden von dem einen oder den mehreren Objektpräsenzbereichen entsprechend dem vorgegebenen Verarbeitungslastniveau auszuführen.
  • Gemäß einem Aspekt der Erfindung wird eine Objekterkennungsvorrichtung angegeben, die eine Objektpräsenzbereich-Vorgabeeinheit bzw. Einstelleinheit, eine Verarbeitungslastniveau-Einstelleinheit und eine Objekterkennungs-Verarbeitungseinheit aufweist. Die Objektpräsenzbereich-Einstelleinheit ist dazu ausgebildet, einen oder mehrere Obj ektpräsenzb ereiche, in denen jeweils ein Objekt wahrscheinlich vorhanden ist, auf der Basis von Beobachtungsdaten eines Abstandssensors vorzugeben sowie ein Attribut des Objekts zu schätzen, das in jedem von dem einen oder den mehreren Objektpräsenzbereichen wahrscheinlich vorhanden ist.
  • Der Abstandssensor ist dazu ausgebildet, eine reflektierte Welle einer angelegten elektromagnetischen Welle zu empfangen. Die Verarbeitungslastniveau-Einstelleinheit ist dazu ausgebildet, auf der Basis des Attributs des Objekts ein Verarbeitungslastniveau, das für die Objekterkennungsverarbeitung aufgewendet werden soll, die für jeden von dem einen oder den mehreren Objektpräsenz-bereichen auszuführen ist, unter Verwendung zumindest von Bilddaten vorzugeben, die von einer Abbildungsvorrichtung erzeugt werden. Die Objekterkennungsverarbeitungseinheit ist dazu ausgebildet, die Objekterkennungsverarbeitung für jeden von dem einen oder den mehreren Objektpräsenzbereichen entsprechend dem vorgegebenen Niveau der Verarbeitungslast auszuführen.
  • Gemäß einem Aspekt der Erfindung wird ein nicht-flüchtiges Aufzeichnungsmedium angegeben, das ein Computerprogramm enthält. Das Computerprogramm veranlasst, wenn es von einem Prozessor ausgeführt wird, den Prozessor, ein Verfahren zu implementieren. Das Verfahren umfasst folgende Schritte: Vorgeben von einem oder mehreren Objektpräsenzbereichen, in denen jeweils ein Objekt wahrscheinlich vorhanden ist, auf der Basis von Beobachtungsdaten eines Abstandssensors, wobei der Abstandssensor dazu ausgebildet ist, eine reflektierte Welle einer angewendeten bzw. angelegten elektromagnetischen Welle zu empfangen; Schätzen eines Attributs des Objekts, das in jedem von dem einen oder den mehreren Objektpräsenzbereichen wahrscheinlich vorhanden ist; auf der Basis des Attributs des Objekts erfolgendes Vorgeben eines Verarbeitungslastniveaus, das für die Objekterkennungsverarbeitung aufzuwenden ist, die für jeden von dem einen oder den mehreren Objektpräsenzbereichen auszuführen ist, unter Verwendung zumindest von Bilddaten, die von einer Abbildungsvorrichtung erzeugt werden; und Ausführen der Objekterkennungsverarbeitung für jeden von dem einen oder den mehreren Objektpräsenzbereichen entsprechend dem vorgegebenen Verarbeitungslastniveau.
  • Figurenliste
  • Die Begleitzeichnungen sind beigefügt, um ein besseres Verständnis der Erfindung zu vermitteln, und bilden einen integralen Bestandteil der vorliegenden Beschreibung. Die Zeichnungen veranschaulichen exemplarische Ausführungsformen und dienen zusammen mit der Beschreibung zur Erläuterung der Prinzipien der Erfindung. In den Zeichnungen zeigen:
    • 1 eine schematische Darstellung zur Erläuterung einer exemplarischen Konfiguration eines Fahrzeugs mit einer Objekterkennungsvorrichtung gemäß einer exemplarischen Ausführungsform der Erfindung;
    • 2 ein Blockdiagramm zur Erläuterung einer exemplarischen Konfiguration der Objekterkennungsvorrichtung gemäß einer exemplarischen Ausführungsform;
    • 3 eine Darstellung zur Erläuterung einer Objekterkennungsverarbeitung für jedes Verarbeitungslastniveau, die von einer Objekterkennungsverarbeitungseinheit gemäß einer exemplarischen Ausführungsform ausgeführt wird.
    • 4 ein Flussdiagramm zur Erläuterung einer exemplarischen Arbeitsweise der Objekterkennungsvorrichtung gemäß einer exemplarischen Ausführungsform;
    • 5 ein Flussdiagramm zur Erläuterung eines Beispiels der Objekterkennungsverarbeitung gemäß einer exemplarischen Ausführungsform;
    • 6 eine Darstellung zur Erläuterung eines Beispiels einer Ansicht vor dem Fahrzeug;
    • 7 eine Darstellung zur Erläuterung von Objektpräsenzbereichen, die von der Objekterkennungsvorrichtung gemäß einer exemplarischen Ausführungsform vorgegeben werden;
    • 8 eine Darstellung zur Erläuterung eines Verarbeitungslastniveaus, das für den jeweiligen Objektpräsenzbereich von der Objekterkennungsvorrichtung gemäß einer exemplarischen Ausführungsform vorgegeben wird; und
    • 9 eine Darstellung zur Erläuterung eines Beispiels, in dem ein Kennzeichnungsprozess und ein Prozess zur Zuordnung von Information von der Objekterkennungsvorrichtung gemäß einer exemplarischen Ausführungsform ausgeführt worden sind.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Gegenwärtig wird hauptsächlich ein System verwendet, das sich entweder auf eine Abbildungsvorrichtung oder einen Abstandssensor stützt. Es wird erwartet, dass die Verwendung sowohl der Abbildungsvorrichtung als auch des Abstandssensors Folgendes ermöglicht: Duplizieren des Systems, um die Zuverlässigkeit eines Objekterkennungsergebnisses zu erhöhen; Verringern der Rechenverarbeitungslast, um die Hardwarelast zu verringern; und folglich Verbessern der Sicherheit des Systems.
  • Zum Beispiel ist es bei einem System, das sich hinsichtlich der Objekterkennungstechnik stark auf eine Abbildungsvorrichtung stützt, wünschenswert, die Sicherheit zu gewährleisten, indem Prozesse, die Hardware-Ressourcen der Abbildungsvorrichtung nutzen, auf das gesamte menschliche Sehvermögen angewandt werden. Zu den Prozessen gehören zum Beispiel ein Erkennungsprozess, ein Art-Schätzprozess und ein Prozess zum Schätzen der Relativgeschwindigkeit für ein Objekt. Es ist jedoch notwendig, die Hardware-Ressourcen zu steigern, um eine solche Anforderung allein durch die Technik der Abbildungsvorrichtung zu erfüllen.
  • Beispielsweise führt die Abbildungsvorrichtung die vorstehend beschriebenen Prozesse aus, indem sie den gesamten Beobachtungsbereich vor einem Fahrzeug abtastet. Um die vorstehend beschriebenen Prozesse auszuführen, ohne die Hardware-Ressourcen zu erhöhen, ist es notwendig, die Auflösung zu reduzieren, z.B. durch Verringerung der Anzahl der Pixel, was zu einer Verringerung der Zuverlässigkeit führen kann. Dies kann zu einer Einschränkung bei der zukünftigen Implementierung verschiedener Arten von Verarbeitung, Funktionserweiterung und Verbesserung der Systemzuverlässigkeit führen.
  • Es ist wünschenswert, eine Objekterkennungsvorrichtung und ein nicht-flüchtiges Aufzeichnungsmedium bereitzustellen, die es ermöglichen, die Zuverlässigkeit eines Objekterkennungsergebnisses zu verbessern und gleichzeitig die Rechenverarbeitungslast zu verringern.
  • Einige exemplarische Ausführungsformen der Erfindung werden im Folgenden unter Bezugnahme auf die beigefügten Zeichnungen ausführlich beschrieben. Es sei erwähnt, dass die nachfolgende Beschreibung auf der Erläuterung dienende Beispiele der Erfindung gerichtet ist und nicht als die Erfindung einschränkend verstehen ist. Solche Faktoren, wie z.B., jedoch nicht ausschließlich, Zahlenwerte, Formen, Materialien, Komponenten, Positionen der Komponenten und die Art und Weise, in der die Komponenten miteinander verbunden sind, dienen lediglich der Erläuterung und sind nicht als die Erfindung einschränkend zu verstehen.
  • Darüber hinaus sind Elemente in den nachfolgenden exemplarischen Ausführungsformen, die nicht in einem übergeordneten unabhängigen Anspruch der Erfindung genannt sind, optional und können nach Bedarf vorgesehen werden. Die Zeichnungen sind schematischer Art und nicht maßstabsgetreu dargestellt. In der gesamten vorliegenden Beschreibung und den Zeichnungen sind Elemente mit im Wesentlichen der gleichen Funktion und Konfiguration mit den gleichen Bezugszeichen bezeichnet, um jegliche Redundanz in der Beschreibung zu vermeiden.
  • 1. Gesamtkonfiguration des Fahrzeugs
  • Zunächst wird ein Beispiel einer Gesamtkonfiguration eines Fahrzeugs beschrieben, bei dem eine Objekterkennungsvorrichtung gemäß einer exemplarischen Ausführungsform der Erfindung anwendbar ist. In den folgenden exemplarischen Ausführungsformen wird ein Beispiel der Objekterkennungsvorrichtung beschrieben, die ein LiDAR als Beispiel für einen Abstandssensor verwendet.
  • 1 zeigt eine schematische Darstellung zur Erläuterung einer exemplarischen Konfiguration eines Fahrzeugs 1 mit einer Objekterkennungsvorrichtung 50 gemäß der exemplarischen Ausführungsform. Das in 1 dargestellte Fahrzeug 1 kann als Fahrzeug mit Allradantrieb ausgebildet sein, das ein Antriebsdrehmoment auf ein linkes Vorderrad 3LF, ein rechtes Vorderrad 3RF, ein linkes Hinterrad 3LR und ein rechtes Hinterrad 3RR überträgt (im Folgenden kollektiv als „Räder 3“ bezeichnet, sofern nicht zwischen diesen unterschieden werden soll).
  • Das Antriebsdrehmoment wird von einer Antriebskraftquelle 9 abgegeben, die das Antriebsdrehmoment des Fahrzeugs erzeugt. Bei der Antriebskraftquelle 9 kann es sich um einen Verbrennungsmotor oder einen elektrischen Antriebsmotor handeln, oder sie kann sowohl den Verbrennungsmotor als auch den elektrischen Antriebsmotor aufweisen. Nicht einschränkende Beispiele für den Verbrennungsmotor können ein Benzinmotor und ein Dieselmotor sein.
  • Bei dem Fahrzeug 1 kann es sich beispielsweise um ein Elektrofahrzeug mit zwei Antriebsmotoren aus einem Vorderrad-Antriebsmotor und einem Hinterrad-Antriebsmotor oder um ein Elektrofahrzeug mit Antriebsmotoren entsprechend den jeweiligen Rädern 3 handeln. Wenn es sich bei dem Fahrzeug 1 um ein Elektrofahrzeug oder ein Hybrid-Elektrofahrzeug handelt, kann das Fahrzeug 1 mit einer Sekundärbatterie ausgestattet sein, die die dem Antriebsmotor zuzuführende elektrische Energie speichert, sowie mit einem elektrischen Stromgenerator, der elektrische Energie erzeugt, die zum Laden der Batterie verwendet wird. Nicht einschränkende Beispiele für den Stromgenerator können einen Motor und eine Brennstoffzelle umfassen.
  • Das Fahrzeug 1 kann als Ausrüstungen zur Verwendung für die Antriebssteuerung des Fahrzeugs 1 die Antriebskraftquelle 9, ein elektrisches Lenksystem 15 sowie Bremsvorrichtungen 17LF, 17RF, 17LR und 17RR (im Folgenden kollektiv als „Bremsvorrichtungen 17“ bezeichnet, sofern nicht zwischen diesen unterschieden werden soll) aufweisen.
  • Die Antriebskraftquelle 9 kann das Antriebsdrehmoment abgeben, das über ein nicht dargestelltes Getriebe und einen Vorderrad-Differentialmechanismus 7F und einen Hinterrad-Differentialmechanismus 7R auf eine Vorderrad-Antriebswelle 5F und eine Hinterrad-Antriebswelle 5R übertragen wird. Der Antrieb der Antriebskraftquelle 9 und des Getriebes kann durch eine Fahrzeugsteuerungsvorrichtung 41 gesteuert werden, die eine oder mehrere elektronische Steuereinheiten (ECUs) aufweist.
  • Die Vorderrad-Antriebswelle 5F kann mit dem elektrischen Lenksystem 15 ausgestattet sein. Das elektrische Lenksystem 15 kann einen nicht dargestellten Elektromotor und einen nicht dargestellten Getriebemechanismus aufweisen. Das elektrische Lenksystem 15 kann von der Fahrzeugsteuerungsvorrichtung 41 gesteuert werden, um einen Lenkwinkel des linken Vorderrads 3LF und des rechten Vorderrads 3RF einzustellen.
  • Beim manuellen Fahren kann die Fahrzeugsteuerungsvorrichtung 41 das elektrische Lenksystem 15 auf der Basis eines Lenkwinkels eines Lenkrads 13 steuern, das von einem Fahrer betätigt wird, der das Fahrzeug 1 fährt. Beim automatischen Fahren kann die Fahrzeugsteuerungsvorrichtung 41 das elektrische Lenksystem 15 auf der Basis eines Ziellenkwinkels steuern, der in Abhängigkeit von einer geplanten Fahrstrecke eingestellt wird, auf der eine Berührung mit einem Hindernis vermieden werden kann.
  • Die Bremsvorrichtungen 17LF, 17RF, 17LR und 17RR können jeweils eine Bremskraft auf das linke vordere, das rechte vordere, das linke hintere und das rechte hintere Antriebsrad 3LF, 3RF, 3LR und 3RR ausüben. Die Bremsvorrichtung 17 kann z.B. als hydraulische Bremsvorrichtung ausgebildet sein. Der den jeweiligen Bremsvorrichtungen 17 zuzuführende hydraulische Druck kann von der Fahrzeugsteuerungsvorrichtung 41 gesteuert werden, um eine vorbestimmte Bremskraft zu erzeugen. Handelt es sich bei dem Fahrzeug 1 um ein Elektrofahrzeug oder ein Hybrid-Elektrofahrzeug, kann die Bremsvorrichtung 17 in Kombination mit einem regenerativen Bremsvorgang verwendet werden, der von dem Antriebsmotor ausgeführt wird.
  • Die Fahrzeugsteuerungsvorrichtung 41 kann eine oder mehrere elektronische Steuereinheiten aufweisen, die den Betrieb der Antriebskraftquelle 9, des elektrischen Lenksystems 15 und der Bremsvorrichtung 17 steuern. Die Antriebskraftquelle 9 kann das Antriebsdrehmoment für das Fahrzeug 1 abgeben. Das elektrische Lenksystem 15 kann den Lenkwinkel des Lenkrads 13 oder der gelenkten Räder steuern. Die Bremsvorrichtung 17 kann die Bremskraft für das Fahrzeug 1 steuern.
  • Die Fahrzeugsteuerungsvorrichtung 41 kann dazu ausgebildet sein, den Betrieb des Getriebes zu steuern, das eine von der Antriebskraftquelle 9 abgegebene Ausgangsleistung geschwindigkeitsmäßig ändert und die geschwindigkeitsmäßig geänderte Energie auf die Räder 3 überträgt. Die Fahrzeugsteuerungsvorrichtung 41 kann dazu ausgebildet sein, eine automatische Fahrsteuerung und eine Notbremssteuerung für das Fahrzeug 1 unter Verwendung von Information über ein Hindernis auszuführen, das von der Objekterkennungsvorrichtung 50 erkannt wird.
  • Das Fahrzeug 1 kann ein Paar aus einer linken und rechten vorderen Bildaufnahmekamera 31LF und 31RF, ein LiDAR 31S, einen Fahrzeugzustandssensor 35, einen GPS- (Global Positioning System) Sensor 37, eine Mensch-Maschine-Schnittstelle (HMI) 43 und die Objekterkennungsvorrichtung 50 aufweisen. Der Fahrzeugzustandssensor 35, der GPS-Sensor 37, die Mensch-Maschine-Schnittstelle 43 und die Objekterkennungsvorrichtung 50 können mit der Fahrzeugsteuerungsvorrichtung 41 über eine spezielle Leitung oder über ein Kommunikationssystem, wie z.B. ein Controller Area Network (CAN) oder ein lokales Internet (LIN), verbunden sein.
  • Die vorderen Bildaufnahmekameras 31LF und 31RF können einen Bereich vor dem Fahrzeug 1 abbilden, um Bilddaten zu erzeugen. Die vorderen Bildaufnahmekameras 31LF und 31RF können jeweils eine Abbildungsvorrichtung mit einem Bildsensor sein, wie z.B. eine ladungsgekoppelte Vorrichtung (CCD) oder ein komplementärer Metall-Oxid-Halbleiter (CMOS). Die vorderen Bildaufnahmekameras 31LF und 31RF können über ein drahtgebundenes oder drahtloses Kommunikationssystem mit der Objekterkennungsvorrichtung 50 in kommunikationsfähiger Weise verbunden sein. Die vorderen Bildaufnahmekameras 31LF und 31RF können die erzeugten Bilddaten an die Objekterkennungsvorrichtung 50 übermitteln.
  • Bei dem in 1 dargestellten Fahrzeug 1 können die vorderen Bildaufnahmekameras 31LF und 31RF als Stereokamera mit dem Paar aus linker und rechter Kamera ausgebildet sein, es kann sich aber auch um eine monokulare Kamera mit einer Bildaufnahmekamera handeln. Das Fahrzeug 1 kann zusätzlich zu den vorderen Bildaufnahmekameras 31LF und 31RF eine Kamera aufweisen, die einen Bereich im hinteren Teil des Fahrzeugs 1 abbildet, oder eine Kamera, die beispielsweise an einem Seitenspiegel angeordnet ist, um einen linken hinteren Bereich oder einen rechten hinteren Bereich abzubilden.
  • Bei einer Ausführungsform kann das LiDAR 31S als „Abstandssensor“ dienen. Das LiDAR 31S kann Laserlicht, d.h. optische Wellen, in eine Vielzahl von Richtungen vor dem Fahrzeug 1 ausstrahlen und reflektiertes Licht, d.h. reflektierte Wellen, des Laserlichts empfangen. Das LiDAR 31S kann dreidimensionale Positionen von Reflexionspunkten auf der Basis von Daten des empfangenen reflektierten Lichts erkennen. Das Laserlicht kann eine Art elektromagnetische Welle sein.
  • Das LiDAR 31S kann beispielsweise ein Time-of-Flight (ToF)-LiDAR sein, das die dreidimensionale Position jedes Reflexionspunktes auf der Basis von Daten über eine Richtung, aus der das reflektierte Licht empfangen wird, und von Daten über einen Zeitraum zwischen dem Aussenden des Laserlichts und dem Empfang des reflektierten Lichts erfasst. Das LiDAR 31S kann die dreidimensionalen Positionen der Reflexionspunkte ferner auf der Basis der Intensität des reflektierten Lichts erfassen.
  • Bei einem weiteren Beispiel kann das LiDAR 31 S ein LiDAR mit frequenzmodulierter kontinuierlicher Welle (FMCW) sein, das Licht mit linear veränderter Frequenz ausstrahlt und die dreidimensionale Position jedes Reflexionspunktes auf der Basis von Daten über die Richtung, aus der das reflektierte Licht empfangen wird, und Daten über die Phasendifferenz des reflektierten Lichts gegenüber der Frequenz erfasst. Das LiDAR 31S kann z.B. an einem oberen Teil einer Frontscheibe in einem Fahrzeuginnenraum oder an der Vorderseite einer Fahrzeugkarosserie angebracht sein, um das Laserlicht nach vorn richten bzw. abstrahlen zu können.
  • Das LiDAR 31S kann ein sogenanntes Scanning-LiDAR sein, das eine Abtastung in horizontaler oder vertikaler Richtung mit einer Vielzahl von Laserlichtstücken ausführt, die in einer Linie entlang der vertikalen Richtung oder der horizontalen Richtung angeordnet sind. Bei dem LiDAR 31S kann es sich um einen LiDAR-Typ handeln, der Reflexionspunktwolkendaten erzeugt, indem er Laserlicht über einen weiten Bereich aufbringt, das von einem Objekt reflektierte Licht mit einem dreidimensionalen Abstands-Bildsensor abbildet und die dreidimensionalen Positionen der Reflexionspunkte analysiert. Das LiDAR 31S kann über ein drahtgebundenes oder drahtloses Kommunikationssystem mit der Objekterkennungsvorrichtung 50 kommunikationsfähig verbunden sein. Das LiDAR 31S kann die erfassten Reflexionspunktwolkendaten an die Objekterkennungsvorrichtung 50 übermitteln.
  • Es sei erwähnt, dass der Abstandssensor, der elektromagnetische Wellen verwendet, nicht auf das LiDAR 31S beschränkt ist und auch ein Radarsensor, wie z.B. ein Millimeterwellenradar, oder ein anderer Sensor, wie z.B. ein Ultraschallsensor, sein kann.
  • Der Fahrzeugzustandssensor 35 kann einen oder mehrere Sensoren aufweisen, die einen Betriebszustand und ein Verhalten des Fahrzeugs 1 erfassen (im Folgenden auch kollektiv als „Fahrzustand des Fahrzeugs“ bezeichnet). Der Fahrzeugzustandssensor 35 kann zum Beispiel einen oder mehrere von einem Lenkwinkelsensor, einem Gaspedalstellungssensor, einem Bremshubsensor, einem Bremsdrucksensor oder einem Motordrehzahlsensor aufweisen. Der Fahrzeugzustandssensor 35 kann somit den Betriebszustand des Fahrzeugs 1 erfassen, wie z.B. den Lenkwinkel des Lenkrads 13 oder der gelenkten Räder, eine Gaspedalstellung, ein Bremsbetätigungsausmaß oder eine Motordrehzahl.
  • Der Fahrzeugzustandssensor 35 kann beispielsweise einen oder mehrere von einem Fahrzeuggeschwindigkeitssensor, einem Beschleunigungsratensensor oder einem Winkelgeschwindigkeitssensor aufweisen. Der Fahrzeugzustandssensor 35 kann somit das Verhalten des Fahrzeugs erfassen, wie z.B. eine Fahrzeuggeschwindigkeit, eine Längsbeschleunigungsrate, eine Querbeschleunigungsrate oder eine Gierrate. Der Fahrzeugzustandssensor 35 kann ein Sensorsignal mit der erfassten Information an die Fahrzeugsteuerungsvorrichtung 41 übermitteln.
  • Bei der exemplarischen Ausführungsform kann der Fahrzeugzustandssensor 35 zumindest den Fahrzeuggeschwindigkeitssensor aufweisen. Bei dem Fahrzeuggeschwindigkeitssensor kann es sich um einen Encoder handeln, der eine Radgeschwindigkeit erfasst, einen Encoder, der die Anzahl von Umdrehungen des als Antriebskraftquelle 9 dienenden Antriebsmotors erfasst, oder einen Laser-Doppler-Sensor. Bei einem weiteren Beispiel kann es sich bei dem Fahrzeuggeschwindigkeitssensor um ein Geschwindigkeitsschätzmodul handeln, das eine Technik zur Schätzung der eigenen Position durch gleichzeitige Lokalisierung und Kartierung (SLAM) z.B. unter Verwendung eines Abstandssensors oder einer Kamera nutzt.
  • Der GPS-Sensor 37 kann Satellitensignale von GPS-Satelliten empfangen. Der GPS-Sensor 37 kann Positionsinformation des Fahrzeugs 1 auf Kartendaten, die in dem empfangenen Satellitensignal enthalten ist, an die Fahrzeugsteuerungsvorrichtung 41 übermitteln. Anstelle des GPS-Sensors 37 kann eine Antenne zum Empfang von Satellitensignalen von einem anderen Satellitensystem vorgesehen sein, das die Position des Fahrzeugs 1 ermittelt.
  • Die Mensch-Maschine-Schnittstelle bzw. HMI 43 kann von der Fahrzeugsteuerungsvorrichtung 41 angesteuert werden, um einem Insassen des Fahrzeugs 1 verschiedene Informationen zukommen zu lassen, indem beispielsweise ein Bild angezeigt oder ein Ton ausgegeben wird. Die Mensch-Maschine-Schnittstelle 43 kann z.B. eine Anzeige auf einer Instrumententafel und einen Lautsprecher in dem Fahrzeug 1 umfassen. Bei der Anzeige kann es sich um ein Display eines Navigationssystems handeln.
  • 2. Objekterkennungsvorrichtung
  • Als nächstes wird die Objekterkennungsvorrichtung 50 gemäß der exemplarischen Ausführungsform ausführlich beschrieben.
  • 2-1. Exemplarische Konfiguration
  • 2 zeigt ein Blockdiagramm zur Erläuterung einer exemplarischen Konfiguration der Objekterkennungsvorrichtung 50 gemäß der exemplarischen Ausführungsform.
  • Die Objekterkennungsvorrichtung 50 kann einen Controller 51 und einen Speicher 53 aufweisen. Der Controller 51 kann einen oder mehrere Prozessoren enthalten. Nicht einschränkende Beispiele für den einen oder die mehreren Prozessoren können eine zentrale Verarbeitungseinheit (CPU) umfassen. Der Controller 51 kann teilweise oder vollständig aus aktualisierbarer Software, wie z.B. Firmware, oder einem Programmmodul bestehen, das beispielsweise in Reaktion auf einen Befehl von der CPU ausgeführt wird.
  • Der Speicher 53 kann einen oder mehrere Speicher aufweisen, die mit dem Controller 51 kommunikationsfähig verbunden sind. Nicht einschränkende Beispiele für den einen oder die mehreren Speicher können einen Direktzugriffsspeicher (RAM) und einen Festwertspeicher (ROM) umfassen. Es sei erwähnt, dass der Speicher 53 hinsichtlich Anzahl oder Typ keinen besonderen Einschränkungen unterliegt. Der Speicher 53 kann Daten einschließlich eines von dem Controller 51 auszuführenden Computerprogramms, verschiedene bei der Rechenverarbeitung zu verwendende Parameter, Erfassungsdaten und Berechnungsergebnisse enthalten. Darüber hinaus kann die Objekterkennungsvorrichtung 50 eine nicht dargestellte Schnittstelle für die Datenübertragung und den Datenempfang zu und von den vorderen Bildaufnahmekameras 31LF und 31RF, dem LiDAR 31S und der Fahrzeugsteuerungsvorrichtung 41 aufweisen.
  • 2-2. Konfiguration
  • Der Controller 51 der Objekterkennungsvorrichtung 50 kann die Objekterkennungsverarbeitung auf der Basis von Daten ausführen, die von den vorderen Bildaufnahmekameras 31LF und 31RF und dem LiDAR 31S übertragen werden. Bei jeder Ausführungsform der Erfindung kann der Controller 51 auf der Basis von durch das LiDAR 31S erhaltenen Erfassungsdaten einen Objektpräsenzbereich festlegen, in dem ein Objekt wahrscheinlich vorhanden ist, und ein Niveau der für die Objekterkennungsverarbeitung aufzuwendenden Verarbeitungslast vorgeben bzw. einstellen, die für jeden Objektpräsenzbereich auszuführen ist. Der Controller 51 kann für jeden Objektpräsenzbereich die Objekterkennungsverarbeitung entsprechend dem vorgegebenen Verarbeitungslastniveau ausführen.
  • Die Objekterkennungsverarbeitung unter Verwendung von Beobachtungsdaten des LiDAR 31S kann eine geringere Genauigkeit aufweisen als die Objekterkennungsverarbeitung unter Verwendung von Bilddaten, die von der Abbildungsvorrichtung erzeugt werden, kann aber das eigentliche Vorhandensein einiger Objekte mit hoher Genauigkeit schätzen. Dementsprechend kann eine beliebige Ausführungsform der Erfindung derart ausgebildet sein, dass der Objektpräsenzbereich auf der Basis der Beobachtungsdaten des LiDAR 31S vorgegeben wird und die Ressourcen der Objekterkennungsverarbeitung unter Verwendung zumindest der Bilddaten der vorderen Bildaufnahmekameras 31LF und 31RF auf den Objektpräsenzbereich konzentriert werden.
  • In der nachfolgenden Beschreibung kann sich ein „Erfassungsbereich“ des LiDAR 31S auf einen Bereich beziehen, in dem die Objekterkennungsverarbeitung unter Verwendung der durch das LiDAR 31S erhaltenen Erfassungsdaten ausgeführt werden soll. Der „Erfassungsbereich“ kann ein Bereich sein, der durch die Projektion eines Laserlicht-Anwendungsbereichs im realen Raum auf eine zweidimensionale Ebene mit der vertikalen Richtung und der horizontalen Richtung erhalten wird.
  • Die vertikale Richtung und die horizontale Richtung können die vertikale Richtung und die horizontale Richtung für das LiDAR 31S sein und können für das LiDAR 31S vorab vorgegeben bzw. festgelegt werden. Das LiDAR 31S kann derart angebracht sein, dass die vertikale Richtung parallel zu einer Höhenrichtung des Fahrzeugs 1 verläuft und die horizontale Richtung parallel zu einer Ebene rechtwinklig zur Höhenrichtung des Fahrzeugs 1 verläuft. Bei einem weiteren Beispiel können die vertikale Richtung und die horizontale Richtung durch Koordinatenumrechnung eines dreidimensionalen Raums des LiDAR 31S in beliebige Richtungen einstellbar sein.
  • Wie in 2 dargestellt, besitzt der Controller 51 der Objekterkennungsvorrichtung 50 eine Objektpräsenzbereich-Vorgabe- bzw. Einstelleinheit 61, eine Verarbeitungslastniveau-Einstelleinheit 63 und eine Objekterkennungs-Verarbeitungseinheit 65. Die Objektpräsenzbereich-Einstelleinheit 61, die Verarbeitungslastniveaus-Einstelleinheit 63 und die Objekterkennungs-Verarbeitungseinheit 65 können durch Ausführung eines Computerprogramms durch den einen oder die mehreren Prozessoren, wie z.B. die CPU, implementiert werden. Es sei erwähnt, dass ein Teil oder die Gesamtheit der Objektpräsenzbereich-Einstelleinheit 61, der Verarbeitungslastniveau-Einstelleinheit 63 und der Objekterkennungs-Verarbeitungseinheit 65 durch Hardware, wie z.B. eine analoge Schaltung, gebildet sein kann.
  • Obj ektpräsenzbereich-Einstelleinheit
  • Die Objektpräsenzbereich-Einstelleinheit 61 führt einen Prozess zum Vorgeben eines Objektpräsenzbereichs, in dem ein Objekt wahrscheinlich vorhanden ist, auf der Basis der Beobachtungsdaten des LiDAR 31S und einen Prozess zum Schätzen eines Attributs des Objekts, das in jedem Objektpräsenzbereich wahrscheinlich vorhanden ist, aus. Beispielsweise kann die Objektpräsenzbereich-Einstelleinheit 61 von dem LiDAR 31S die Reflexionspunktwolkendaten auf der Basis des von dem LiDAR 31S empfangenen reflektierten Lichts ermitteln und auf der Basis der Reflexionspunktwolkendaten bestimmen, ob ein Objekt vor dem Fahrzeug 1 vorhanden ist. Die Objektpräsenzbereich-Einstelleinheit 61 kann einen Bereich, in dem ein Objekt als vorhanden festgestellt wird, als Objektpräsenzbereich vorgeben.
  • Die Reflexionspunktwolkendaten können Information über die dreidimensionalen Positionen der Reflexionspunkte enthalten. Die dreidimensionale Position jedes Reflexionspunktes kann auf der Basis von Daten über eine Richtung des Reflexionspunktes, wie diese von dem Fahrzeug 1 aus gesehen wird, und von Daten über eine Zeitspanne zwischen dem Aufbringen bzw. Abstrahlen des Laserlichts und dem Empfang des reflektierten Lichts durch das LiDAR 31 S erfasst werden. Die Reflexionspunktwolkendaten können ferner Daten über die Intensität des empfangenen reflektierten Lichts enthalten.
  • Zum Beispiel kann die Objektpräsenzbereich-Einstelleinheit 61 auf der Basis der Information über die dreidimensionalen Positionen der Reflexionspunkte einen Clustering-Prozess ausführen, bei dem Reflexionspunkte gruppiert werden, deren Abstand kürzer als ein vorbestimmter Abstand ist. Danach kann in einem Fall, in dem eine Fläche eines Bereichs, in dem die gruppierte Reflexionspunktwolke vorhanden ist, einen vorab vorbestimmten Bereich überschreitet, die Objektpräsenzbereich-Einstelleinheit 61 den Bereich als Objektpräsenzbereich vorgeben.
  • Die Objektpräsenzbereich-Einstelleinheit 61 schätzt ferner das Attribut des Objekts, das in dem jeweiligen Objektpräsenzbereich wahrscheinlich vorhanden ist. Das Attribut des Objekts kann Information über den Abstand von dem Fahrzeug 1 zu dem Objekt, die Größe des Objekts und die Bewegungsgeschwindigkeit des Objekts enthalten. Bei der Information über die Bewegungsgeschwindigkeit des Objekts kann es sich um Information über eine relative Geschwindigkeit zwischen dem Fahrzeug 1 und dem Objekt handeln.
  • Die Objektpräsenzbereich-Einstelleinheit 61 kann den Abstand zu dem Objekt aus einer Position eines jeweiligen Objektpräsenzbereichs in dem Erfassungsbereich des LiDAR 31S berechnen. Die Objektpräsenzbereich-Einstelleinheit 61 kann die Größe des Objekts, wie dieses von dem Fahrzeug 1 aus gesehen wird, auf der Basis der Größe einer äußeren Form der Reflexionspunktwolke, die in dem Erfassungsbereich des LiDAR 31S gruppiert ist, und der Entfernung zu dem Objekt berechnen. Bei einem weiteren Beispiel kann in einem Fall, in dem die Dichte des von dem LiDAR 31S aufgebrachten Laserlichts gleichmäßig ist, die Objektpräsenzbereich-Einstelleinheit 61 die Größe des Objekts, wie dieses von dem Fahrzeug 1 aus zu sehen ist, auf der Basis der Anzahl der gruppierten Reflexionspunkte berechnen.
  • Die Objektpräsenzbereich-Einstelleinheit 61 kann auf der Basis einer in Zeitreihen berechneten zeitlichen Änderung des Abstands zu dem Objekt die Relativgeschwindigkeit zwischen dem Fahrzeug 1 und dem Objekt in einer eine Fahrtrichtung des Fahrzeugs 1 kreuzenden Richtung berechnen. Die Objektpräsenzbereich-Einstelleinheit 61 kann auf der Basis der zeitlichen Änderung des Abstands zu dem Objekt oder einer zeitlichen Änderung der Größe des Objekts die Relativgeschwindigkeit zwischen dem Fahrzeug 1 und dem Objekt in Fahrtrichtung des Fahrzeugs 1 berechnen.
  • Darüber hinaus kann die Objektpräsenzbereich-Einstelleinheit 61 die Bewegungsgeschwindigkeit des Objekts in der jeweiligen die Fahrtrichtung des Fahrzeugs 1 kreuzenden Richtung und in der Fahrtrichtung des Fahrzeugs 1 auf der Basis der Relativgeschwindigkeit des Objekts in der entsprechenden Richtung und einer Bewegungsgeschwindigkeit des Fahrzeugs 1 in der entsprechenden Richtung berechnen.
  • Die zeitliche Änderung bei dem Abstand zu dem Objekt oder der Größe des Objekts kann z.B. durch Vergleichen eines Einzelbilds des Erfassungsbereichs, das durch einen Abtastvorgang des LiDAR 31S erzeugt wird, mit einem Einzelbild 2 bis 30 Einzelbilder früher berechnet werden. Die Intervallzahl der Einzelbilder kann beispielsweise auf der Basis des Grades der Zuverlässigkeit des LiDAR 31S oder der Intensität des reflektierten Lichts geeignet vorgegeben werden.
  • Es sei erwähnt, dass der Inhalt des Prozesses zum Vorgeben bzw. Einstellen des Objektpräsenzbereichs durch die Objektpräsenzbereich-Einstelleinheit 61 nicht auf das vorstehend beschriebene Beispiel beschränkt ist. Zum Beispiel kann die Objektpräsenzbereich-Einstelleinheit 61 den Objektpräsenzbereich entlang eines Rands der ermittelten Reflexionspunktwolke vorgeben. Bei einem weiteren Beispiel kann die Objektpräsenzbereich-Einstelleinheit 61 einen Bereich als Objektpräsenzbereich vorgeben, der über den Rand hinaus um eine vorbestimmte Größe erweitert ist. Auch der Inhalt des Prozesses zum Schätzen des Objektattributs durch die Objektpräsenzbereich-Einstelleinheit 61 ist nicht auf das vorstehend beschriebene Beispiel beschränkt.
  • Verarbeitungslastniveau-Einstelleinheit
  • Auf der Basis des Attributs des Objekts, das von der Objektpräsenzbereich-Einstelleinheit 61 berechnet wird, führt die Verarbeitungslastniveau-Einstelleinheit 63 für den Objektpräsenzbereich einen Prozess zum Einstellen bzw. Vorgeben eines Verarbeitungslastniveaus, das von der auszuführenden Objekterkennungsverarbeitung aufzuwenden ist, unter Verwendung zumindest der von den vorderen Bildaufnahmekameras 31LF und 31RF erzeugten Bilddaten aus. Bei dem Verarbeitungslastniveau kann es sich um Information handeln, die eine zulässige Obergrenze für eine Menge von Ressourcen des Controllers 51 angibt, die zur Ausführung der Objekterkennungsverarbeitung verwendet werden.
  • Das Niveau der Verarbeitungslast, d.h. ein Verarbeitungslastniveau, kann in Abhängigkeit von einem Kontaktrisiko des Objekts vorgegeben werden und kann auf ein höheres Niveau gesetzt werden, wenn das Kontaktrisiko größer ist. Das Kontaktrisiko kann anhand des Attributs des Objekts geschätzt werden, das in dem jeweiligen Objektpräsenzbereich wahrscheinlich vorhanden ist. Bei dem Kontaktrisiko kann es sich um ein Konzept handeln, das die Möglichkeit eines Kontakts zwischen dem Objekt und dem Fahrzeug 1 oder das Ausmaß der bei einem Kontakt anzunehmenden Schäden darstellt.
  • Bei der exemplarischen Ausführungsform kann die Verarbeitungslastniveau-Einstelleinheit 63 das Verarbeitungslastniveau auf eines von einem regulären Verarbeitungsniveau, bei dem die Verarbeitungslast niedrig ist, oder einem Präzisions-Verarbeitungsniveau, bei dem die Verarbeitungslast höher ist als bei dem regulären Verarbeitungsniveau, einstellen. Das Präzisions-Verarbeitungsniveau kann weiter unterteilt werden in ein Niedrigpräzisions-Verarbeitungsniveau, bei dem die Verarbeitungslast relativ niedrig ist, und ein Hochpräzisions-Verarbeitungsniveau, bei dem die Verarbeitungslast relativ hoch ist.
  • Bei der exemplarischen Ausführungsform kann die Verarbeitungslastniveau-Einstelleinheit 63 Punkte für jedes von dem berechneten Abstand zu dem Objekt, der Größe des Objekts und der Relativgeschwindigkeit oder Bewegungsgeschwindigkeit des Objekts zuteilen und das Verarbeitungslastniveau in Abhängigkeit von der Summe der Punkte vorgeben. Die Tabelle 1 veranschaulicht ein Beispiel für die Zuteilung von Punkten in Abhängigkeit von der Entfernung zu dem Objekt, der Größe des Objekts und der Bewegungsgeschwindigkeit des Objekts. Die Tabelle 2 veranschaulicht ein Beispiel zum Vorgeben des Verarbeitungslastniveaus in Abhängigkeit von der Summe der Punkte. Tabelle 1
    a. Entfernung Weniger als 50 m 50 m oder mehr und weniger als 100 m 100 m oder mehr
    b. Größe 4 m2 oder mehr 2 m2 oder mehr und weniger als 4 m2 Weniger als 2 m2
    c. Geschwindigkeit 50 km/h oder mehr 20 km/h oder mehr und weniger als 50 km/h Weniger als 20 km/h
    Punkte 5 3 1
    Tabelle 2
    Summe der Punkte Verarbeitungslastniveau
    9 Punkte oder mehr Hochpräzisions-Verarbeitungsniveau
    5 Punkte oder mehr und 8 Punkte oder weniger Niedrigpräzisions-Verarbeitungsniveau
    4 Punkte oder weniger Reguläres Verarbeitungsniveau
  • Bei den in Tabelle 1 und Tabelle 2 dargestellten Beispielen können mehr Punkte zugewiesen werden, wenn das Kontaktrisiko höher ist, und es kann ein höherer Verarbeitungsinhalt vorgegeben werden, wenn die Summe der Punkte größer ist. Mit anderen Worten, die Vorgabe kann derart erfolgen, dass die Verarbeitungslast mit zunehmendem Kontaktrisiko erhöht wird, um dadurch die Genauigkeit der Objekterkennungsverarbeitung durch konzentrierten Einsatz von Hardware-Ressourcen zu verbessern.
  • Da das Präzisions-Verarbeitungsniveau in das Niedrigpräzisions-Verarbeitungsniveau und das Hochpräzisions-Verarbeitungsniveau unterteilt ist, ist es möglich, die Objekterkennungsverarbeitung mit der gewünschten Genauigkeit auszuführen, indem angemessene Hardware-Ressourcen in Abhängigkeit von dem Kontaktrisiko eingesetzt werden.
  • Die Verarbeitungslastniveau-Einstelleinheit 63 kann dem Objektpräsenzbereich Punkte für jeden Verarbeitungsprozess zuteilen, der in einem vorbestimmten Zyklus wiederholt wird, und kann das Verarbeitungslastniveau einstellen bzw. vorgeben. Wenn nur sich bewegende Objekte mit Ausnahme eines stillstehenden Objekts erfasst werden, kann die Summe der Punkte für ein Objekt, dessen berechnete Bewegungsgeschwindigkeit Null ist, auf 0 gesetzt werden.
  • Außerdem kann entsprechend einem Kurs des Fahrzeugs 1 ein Objektpräsenzbereich, bei dessen Objekt nicht angenommen wird, dass dieses mit dem Fahrzeug 1 in Kontakt kommt, als nicht vorhanden betrachtet werden. Der Kurs des Fahrzeugs 1 kann aus dem Lenkwinkel des Lenkrads oder der gelenkten Räder des Fahrzeugs 1 geschätzt werden. Dadurch kann die Rechenverarbeitungslast des Controllers 51 verringert werden, ohne dass die Sicherheit gegen einen Kontakt beeinträchtigt wird.
  • Es sei erwähnt, dass die Attribute des Objekts nur Beispiele sind und dass das Verarbeitungslastniveau auf der Basis von anderer Information in Bezug auf das Kontaktrisiko vorgegeben werden kann. Beispielsweise kann die Verarbeitungslastniveau-Einstelleinheit 63 eine Art des Objekts auf der Basis von z.B. der Größe und der Geschwindigkeit des Objekts schätzen und das Verarbeitungslastniveau in Abhängigkeit von der geschätzten Art des Objekts vorgeben. Bei einem Beispiel, bei dem es sich bei der Art des Objekts um eine Person, wie z B. einen Fußgänger handelt, kann das Verarbeitungslastniveau höher vorgegeben werden als bei anderen Objekten, um die Sicherheit für die Person zu erhöhen.
  • Darüber hinaus kann die Verarbeitungslastniveau-Einstelleinheit 63 die kinetische Energie des Objekts auf der Basis des Gewichts und der Geschwindigkeit des Objekts berechnen, die z.B. anhand der Art und der Größe des Objekts geschätzt werden. Die Verarbeitungslastniveau-Einstelleinheit 63 kann eine höhere Punktezahl vergeben, wenn die kinetische Energie größer ist. Die in Tabelle 1 und Tabelle 2 dargestellten Vorgabebeispiele sind lediglich Beispiele; die Schwellenwerte für die Klassifizierung der Entfernung, der Größe, der Geschwindigkeit oder der Relativgeschwindigkeit sowie die Anzahl der zu vergebenden Punkte können nach Bedarf geändert werden. In dem in Tabelle 1 dargestellten Beispiel können für die Entfernung, die Größe und die Geschwindigkeit jeweils die gleichen Punkte auf drei Niveaus vergeben werden, wobei jedoch eine bestimmte Position gewichtet werden kann.
  • Objekterkennungs-Verarbeitungseinheit
  • Die Objekterkennungs-Verarbeitungseinheit 65 führt die Objekterkennungsverarbeitung für jeden von der Objektpräsenzbereich-Einstelleinheit 61 vorgegebenen Objektpräsenzbereich unter Verwendung zumindest der von den vorderen Bildaufnahmekameras 31LF und 31RF erzeugten Bilddaten in Abhängigkeit von dem von der Verarbeitungslastniveau-Einstelleinheit 63 vorgegebenen Verarbeitungslastniveau aus.
  • Die Objekterkennungs-Verarbeitungseinheit 65 kann dazu ausgebildet sein, dreidimensionale Koordinaten eines von dem LiDAR 31S beobachteten Raums und dreidimensionale Koordinaten eines von den vorderen Bildaufnahmekameras 31LF und 31RF beobachteten Raums gegenseitig umzuwandeln. Die Koordinatenumwandlung kann in einem Fall unnötig sein, in dem das LiDAR 31S und die vorderen Bildaufnahmekameras 31LF und 31RF an ausgerichteten Positionen angebracht sind, um die dreidimensionale Koordinate des von dem LiDAR 31 S beobachteten Raums mit der dreidimensionalen Koordinate des von den vorderen Bildaufnahmekameras 31LF und 31RF beobachteten Raums in Übereinstimmung zu bringen.
  • 3 zeigt ein Diagramm zur Erläuterung der Objekterkennungsverarbeitung, die von der Objekterkennungs-Verarbeitungseinheit 65 bei der exemplarischen Ausführungsform für jedes Verarbeitungslastniveau ausgeführt wird.
  • Die Objekterkennungs-Verarbeitungseinheit 65 kann die Anzahl der auszuführenden Prozesse für den Objektpräsenzbereich, der auf dem regulären Verarbeitungsniveau vorgegeben ist, kleiner machen als die Anzahl der auszuführenden Prozesse für die Objektpräsenzbereiche, die auf dem Niedrigpräzisions-Verarbeitungsniveau und dem Hochpräzisions-Verarbeitungsniveau vorgegeben sind. Dies verringert die Hardware-Ressourcen, die für die Objekterkennungsverarbeitung für den Objektpräsenzbereich mit relativ geringer Notwendigkeit aufgewendet werden müssen.
  • Bei der exemplarischen Ausführungsform kann die Objekterkennungs-Verarbeitungseinheit 65 für den Objektpräsenzbereich, der auf dem regulären Verarbeitungsniveau vorgegeben ist, unter Verwendung der Bilddaten einen Prozess zum Schätzen der Art des Objekts und einen Prozess zum Schätzen der Entfernung zu dem Objekt (d.h. einen Entfernungs-Schätzprozess) ausführen. Die Art des Objekts kann durch einen Spurlinien-Erkennungsprozess, einen Bordstein-Erkennungsprozess, einen Schilder-Erkennungsprozess und einen Bewegungserfassungsprozess durch Merkmalsabgleich geschätzt werden.
  • Der Spurlinien-Erkennungsprozess, der Bordstein-Erkennungsprozess und der Schilder-Erkennungsprozess können beispielsweise ausgeführt werden, indem festgestellt wird, ob Bilder, die den Spurlinien-Bilddaten, Bordstein-Bilddaten und Schilder-Bilddaten entsprechen, die vorab in dem Speicher 53 gespeichert worden sind, in dem Objektpräsenzbereich vorhanden sind, der auf das reguläre Verarbeitungsniveau eingestellt ist. Der Spurlinien-Erkennungsprozess, der Bordstein-Erkennungsprozess und der Schilder-Erkennungsprozess können durch ein anderes Verfahren ausgeführt werden.
  • Der Bewegungserfassungsprozess durch Merkmalsabgleich kann ausgeführt werden, indem bestimmt wird, ob ein Bild, das vorab in dem Speicher 53 gespeicherten Bilddaten von mobilen Körpern entspricht, in dem Objektpräsenzbereich vorhanden ist, der auf das reguläre Verarbeitungsniveau eingestellt ist. Beispielsweise kann die Objekterkennungs-Verarbeitungseinheit 65 jeweilige Bilddaten, die von der linken und rechten vorderen Bildaufnahmekamera 31LF und 31RF erzeugt worden sind, mit den in dem Speicher 53 gespeicherten Bilddaten von mobilen Körpern vergleichen, um den entsprechenden mobilen Körper zu identifizieren.
  • In einem Fall, in dem die vordere Bildaufnahmekamera eine monokulare Kamera ist, kann die Objekterkennungs-Verarbeitungseinheit 65 von der monokularen Kamera erzeugte Bilddaten mit Vorlagen-Bilddaten von klassifizierten mobilen Körpern vergleichen, um den entsprechenden mobilen Körper zu identifizieren. Nicht einschränkende Beispiele für den mobilen Körper können ein Nutzfahrzeug, ein vierrädriges Fahrzeug, ein Motorrad, ein Fahrrad und ein Fußgänger sein. Es können auch Daten über andere mobile Körper als die vorstehend genannten einbezogen werden.
  • Der Entfernungs-Schätzprozess kann beispielsweise auf der Basis von Parallaxeninformation ausgeführt werden, die von der linken und der rechten vorderen Bildaufnahmekamera 31LF und 31RF erhalten wird, die ein Ziel abbilden, das durch den Spurlinien-Erkennungsprozess, den Bordstein-Erkennungsprozess, den Schilder-Erkennungsprozess und den Bewegungserfassungsprozess durch Merkmalsabgleich identifiziert wird.
  • Bei dem Prozess zum Schätzen der Art des Objekts durch den Spurlinien-Erkennungsprozess, den Bordstein-Erkennungsprozess, den Schilder-Erkennungsprozess und den Bewegungserfassungsprozess durch Merkmalsabgleich sowie den Prozess zum Schätzen der Entfernung zu dem Objekt kann es sich um Rechenverarbeitung mit relativ niedriger Last handeln.
  • Mit anderen Worten, es können für einen Objektpräsenzbereich, in dem ein Objekt als vorhanden eingeschätzt wird, aber ein geringes Kontaktrisiko besteht, die Art des Objekts und die Entfernung zu dem Objekt durch ein Rechenverarbeitungsverfahren mit geringer Verarbeitungslast geschätzt werden, während die Bewegungsgeschwindigkeit, die Größe und die kinetische Energie des Objekts nicht geschätzt werden können.
  • Für die Objektpräsenzbereiche, die auf dem Niedrigpräzisions-Verarbeitungsniveau und dem Hochpräzisions-Verarbeitungsniveau vorgegeben sind, kann die Objekterkennungs-Verarbeitungseinheit 65 einen Prozess zum Erfassen eines Rands bzw. einer Kante oder eines Umrisses des Objekts aus den Bilddaten ausführen (d.h. einen Kanten-Erfassungsprozess). Die Objekterkennungs-Verarbeitungseinheit 65 kann auch einen Prozess zum Schätzen der Art des Objekts auf der Basis des extrahierten Rands oder Umrisses (d.h. einen Art-Schätzprozess), den Prozess zum Schätzen der Entfernung zu dem Objekt (d.h. den Entfernungs-Schätzprozess) und einen Prozess zum Schätzen der Geschwindigkeit des Objekts (d.h. einen Geschwindigkeits-Schätzprozess) ausführen.
  • Darüber hinaus kann die Objekterkennungs-Verarbeitungseinheit 65 für die Objektpräsenzbereiche, die auf dem Niedrigpräzisions-Verarbeitungsniveau und dem Hochpräzisions-Verarbeitungsniveau vorgegeben sind, einen Prozess zum Schätzen der Größe des Objekts (d.h. einen Größen-Schätzprozess) und einen Prozess zum Schätzen der kinetischen Energie, die das Objekt besitzt (d.h. einen Energie-Schätzprozess), auf der Basis von Information über die geschätzte Art des Objekts, die Entfernung zu dem Objekt sowie die Geschwindigkeit des Objekts ausführen.
  • Bei der Ausführung des Art-Schätzprozesses, des Entfernungs-Schätzprozesses, des Geschwindigkeits-Schätzprozesses, des Größen-Schätzprozesses und des Energie-Schätzprozesses können bei der Verarbeitung mit niedriger Last bzw. Niedriglast-Verarbeitung ein Niedriglast-Verarbeitungsverfahren und bei der Verarbeitung mit hoher Last bzw. Hochlast-Verarbeitung ein Hochlast-Verarbeitungsverfahren ausgewählt werden.
  • Zum Beispiel kann die Objekterkennungs-Verarbeitungseinheit 65 für den Objektpräsenzbereich, der auf dem Niedrigpräzisions-Verarbeitungsniveau vorgeben ist, den Prozess zum Erfassen des Rands oder des Umrisses aus den Bilddaten ausführen und einen Prozess zum Extrahieren eines für jedes Objekt vorgegebenen Formmerkmals auf der Basis der extrahierten Rand- oder Umrissdaten ausführen, um die Art des Objekts zu schätzen.
  • Bei einem weiteren Beispiel kann die Objekterkennungs-Verarbeitungseinheit 65 für den Objektpräsenzbereich, der auf dem Niedrigpräzisions-Verarbeitungsniveau vorgegeben ist, den Prozess zum Erfassen des Rands oder des Umrisses aus den Bilddaten ausführen und einen Abgleichprozess mit einem für jedes Objekt vorgegebenen Formmuster auf der Basis der extrahierten Rand- oder Umrissdaten ausführen, um die Art des Objekts zu schätzen. Der Prozess zum Schätzen der Art des Objekts durch Extrahieren des Rands oder des Umrisses des Objekts kann eine Rechenverarbeitung mit höherer Last sein als der Spurlinien-Erkennungsprozess, der Bordstein-Erkennungsprozess, der Schilder-Erkennungsprozess und der Bewegungserfassungsprozess durch Merkmalsabgleich, die auf dem regulären Verarbeitungsniveau ausgeführt werden.
  • Für den Objektpräsenzbereich, der auf dem Hochpräzisions-Verarbeitungsniveau vorgegeben ist, kann die Objekterkennungs-Verarbeitungseinheit 65 den Prozess zum Erfassen des Rands oder des Umrisses aus den Bilddaten ausführen, und einen Prozess zum Schätzen der Art des Objekts durch maschinelles Lernen zusammen mit dem Prozess zum Extrahieren des für jedes Objekt vorgegebenen Formmerkmals auf der Basis der extrahierten Rand- oder Umrissdaten ausführen. Der Prozess zum Schätzen der Art des Objekts durch maschinelles Lernen kann durch Eingabe der extrahierten Rand- oder Umrissdaten in ein Objekt-Kantenmodell bzw. Randmodell und durch Erhalt von ausgegebener Information über die Art des Objekts ausgeführt werden.
  • Das Objekt-Kantenmodell kann durch maschinelles Lernen vorab erzeugt werden, indem als Lerndaten zu erlernende Rand- oder Umrissdaten eines mobilen Körpers und Daten über eine Art des mobilen Körpers verwendet werden. Ein maschinelles Lernmodell kann ein Berechnungsmodell sein, das zum Beispiel eine Support-Vektor-Maschine, eine Nachbarschaftsmethode, ein neuronales Netzwerk, wie z B. Deep Learning oder ein Bayes'sches Netzwerk verwendet. Die zusätzliche Ausführung des Prozesses zum Schätzen der Art des Objekts durch maschinelles Lernen ermöglicht es, die Genauigkeit beim Schätzen der Art des Objekts zu erhöhen.
  • Darüber hinaus kann die Objekterkennungs-Verarbeitungseinheit 65 für die Objektpräsenzbereiche, die auf dem Niedrigpräzisions-Verarbeitungsniveau und dem Hochpräzisions-Verarbeitungsniveau vorgegeben sind, den Geschwindigkeits-Schätzprozess auf der Basis einer zeitlichen Änderung eines Bewegungsabstands des extrahierten Rands oder Umrisses ausführen. Die zeitliche Änderung der Bewegungsdistanz des Rands oder Umrisses kann durch Vergleichen von Einzelbildern berechnet werden, die in Zeitreihen erzeugt werden.
  • Darüber hinaus kann die Objekterkennungs-Verarbeitungseinheit 65 für die Objektpräsenzbereiche, die auf dem Niedrigpräzisions-Verarbeitungsniveau und dem Hochpräzisions-Verarbeitungsniveau vorgegeben sind, den Prozess zum Schätzen der Größe des Objekts und den Prozess zum Schätzen der kinetischen Energie, die das Objekt besitzt, ausführen. Die kinetische Energie des Objekts (W = Fs = 1/2 × mv2) kann einen Einfluss auf das Ausmaß des Schadens haben, der durch den Kontakt mit dem Fahrzeug 1 angenommen wird.
  • Die kinetische Energie kann einen größeren Wert annehmen, wenn eine Masse m des Objekts größer ist und die Bewegungsgeschwindigkeit v des Objekts schneller ist. Bei der Schätzung ist die Genauigkeit beim Schätzen der Art des Objekts bei dem Hochpräzisions-Verarbeitungsniveau höher als bei dem Niedrigpräzisions-Verarbeitungsniveau, was dementsprechend die Genauigkeit beim Schätzen der Größe des Objekts und der kinetischen Energie des zu schätzenden Objekts erhöht.
  • Die Objekterkennungs-Verarbeitungseinheit 65 kann derart eingestellt werden, dass sie die Objekterkennungsverarbeitung in der Reihenfolge einer größeren Summe von Punkten ausführt, d.h. in der Reihenfolge des Hochpräzisions-Verarbeitungsniveaus, des Niedrigpräzisions-Verarbeitungsniveaus und des regulären Verarbeitungsniveaus. So wird dem Hochpräzisions-Verarbeitungsniveau softwaretechnisch eine höhere Priorität eingeräumt als dem Niedrigpräzisions-Verarbeitungsniveau, was eine schnellere und genauere Berechnung von Information über ein Objekt mit hohem Kontaktrisiko ermöglicht.
  • Darüber hinaus kann die Objekterkennungs-Verarbeitungseinheit 65 für ein einmal erfasstes Objekt einen Kennzeichnungsprozess ausführen, d.h. einen Prozess zur Zuordnung eines Kennzeichens, und den Prozess zum Schätzen der Art und der Größe des Objekts überspringen, indem ein Prozess zur Verfolgung des Objekts unter Verwendung der vorderen Bildaufnahmekameras 31LF und 31RF oder des LiDAR 31 S ausgeführt wird. Dies ermöglicht es, die Rechenverarbeitung slast der Objekterkennungsvorrichtung 50 weiter zu reduzieren.
  • In einem Fall, in dem kein Objektpräsenzbereich auf dem Hochpräzisions-Verarbeitungsniveau vorgegeben ist oder kein Objektpräsenzbereich auf dem Hochpräzisions-Verarbeitungsniveau und dem Niedrigpräzisions-Verarbeitungsniveau vorgegeben ist, kann die Objekterkennungs-Verarbeitungseinheit 65 für den Objektpräsenzbereich, der auf dem regulären Verarbeitungsniveau vorgegeben ist, einen Teil oder den gesamten Verarbeitungsinhalt ausführen, der auf dem Präzisions-Verarbeitungsniveau auszuführen ist.
  • Auf diese Weise ist es möglich, zusammen mit der Objekterkennungsverarbeitung unter Verwendung des LiDAR 31S ein dupliziertes System zu realisieren. Dies ermöglicht die Erkennung von Information, die von dem LiDAR 31 S nicht erfasst wird, und trägt somit zu einer Verringerung des Kontaktrisikos bei.
  • Es sei erwähnt, dass es sich bei den Inhalten der Objekterkennungsverarbeitung, die dem in 3 dargestellten Verarbeitungslastniveau entsprechen, lediglich um Beispiele handelt und die Inhalte nicht darauf beschränkt sind.
  • Darüber hinaus kann die Objekterkennungs-Verarbeitungseinheit 65 das Risiko eines Kontakts mit dem Fahrzeug 1 auf der Basis von Information über die geschätzte Art des Objekts, die Entfernung zu dem Objekt, die Geschwindigkeit des Objekts, die Größe des Objekts und die kinetische Energie, die das Objekt besitzt, berechnen. Die Objekterkennungs-Verarbeitungseinheit 65 kann die berechnete Information über das Objekt an die Fahrzeugsteuerungsvorrichtung 41 übermitteln.
  • Bei Erhalt der Information über das Objekt kann die Fahrzeugsteuerungsvorrichtung 41 die automatische Fahrsteuerung ausführen, während sie den Kontakt mit dem Objekt vermeidet, sowie die Notbremssteuerung oder Notlenksteuerung ausführen, um den Kontakt mit dem Objekt zu vermeiden oder den Aufprall bei Kontakt zu vermindern.
  • 2-3. Arbeitsweise der Objekterkennungsvorrichtung
  • Im Folgenden wird anhand von Flussdiagrammen ein Beispiel für die Arbeitsweise der Objekterkennungsvorrichtung 50 gemäß der exemplarischen Ausführungsform beschrieben. 4 und 5 zeigen Flussdiagramme zur Erläuterung der Verarbeitung, die von der Objekterkennungsvorrichtung 50 ausgeführt wird.
  • Zunächst kann die Objektpräsenzbereich-Einstelleinheit 61 des Controllers 51 beim Hochfahren eines bordeigenen Systems, das die Objekterkennungsvorrichtung 50 enthält (Schritt S 11), gemessene Reflexionspunktwolkendaten ermitteln, die von dem LiDAR 31S übertragen werden (Schritt S13). Danach kann die Objektpräsenzbereich-Einstelleinheit 61 den Objektpräsenzbereich in dem Erfassungsbereich des LiDAR 31S auf der Basis der ermittelten Reflexionspunktwolkendaten vorgeben (Schritt S 15).
  • Bei einem Beispiel kann die Objektpräsenzbereich-Einstelleinheit 61 den Clustering-Prozess zum Gruppieren von Reflexionspunkten ausführen, zwischen denen der Abstand kürzer als der vorbestimmte Abstand ist. Danach kann in einem Fall, in dem ein Bereich einer Region, in der die gruppierte Reflexionspunktwolke vorhanden ist, den vorher festgelegten vorbestimmten Bereich überschreitet, die Objektpräsenzbereich-Einstelleinheit 61 die Region als Objektpräsenzbereich vorgeben.
  • Anschließend kann die Objektpräsenzbereich-Einstelleinheit 61 das Attribut des Objekts schätzen, das in dem jeweiligen vorgegebenen Objektpräsenzbereich wahrscheinlich vorhanden ist (Schritt S17). Wie vorstehend beschrieben, kann die Objektpräsenzbereich-Einstelleinheit 61 auf der Basis der von dem LiDAR 31S erfassten Reflexionspunktwolkendaten Information über die Entfernung von dem Fahrzeug 1 bis zu dem Objekt, die Größe des Objekts und die Bewegungsgeschwindigkeit oder Relativgeschwindigkeit des Objekts berechnen.
  • Danach kann die Verarbeitungslastniveau-Einstelleinheit 63 des Controllers 51 auf der Basis des Attributs des Objekts, das von der Objektpräsenzbereich-Einstelleinheit 61 geschätzt wird, für jeden Objektpräsenzbereich das Verarbeitungslastniveau einstellen, das für die auszuführende Objekterkennungsverarbeitung aufgewendet werden soll, und zwar unter Verwendung zumindest der von den vorderen Bildaufnahmekameras 31LF und 31RF erzeugten Bilddaten (Schritt S19). Das Verarbeitungslastniveau kann in Abhängigkeit von dem Kontaktrisiko des Objekts vorgegeben werden und kann auf ein höheres Niveau gesetzt werden, wenn das Kontaktrisiko größer ist.
  • Das Kontaktrisiko kann anhand des Attributs des Objekts geschätzt werden, das in dem jeweiligen Objektpräsenzbereich wahrscheinlich vorhanden ist. Bei der exemplarischen Ausführungsform kann die Verarbeitungslastniveau-Einstelleinheit 63 das Niveau der Verarbeitungslast auf eines von dem regulären Verarbeitungslastniveau, bei dem die Verarbeitungslast niedrig ist, oder dem Niedrigpräzisions-Verarbeitungsniveau oder dem Hochpräzisions-Verarbeitungsniveau einstellen, bei denen die Verarbeitungslast höher ist als bei dem regulären Verarbeitungsniveau.
  • Unter Bezugnahme auf die 6 bis 8 wird ein Beispiel für die Verarbeitung von der Vorgabe des Objektpräsenzbereichs bis zur Vorgabe des Verarbeitungslastniveaus beschrieben. 6 zeigt ein Beispiel für eine Ansicht vor dem Fahrzeug 1. Bei dem in 6 dargestellten Beispiel können ein erstes vorausfahrendes Fahrzeug 101, ein zweites vorausfahrendes Fahrzeug 103 und ein drittes vorausfahrendes Fahrzeug 105 in der gleichen Richtung vor dem Fahrzeug 1 fahren, und zwar in der Reihenfolge von der nahen Seite in Fahrtrichtung. Ein Motorrad 107 kann in der gleichen Richtung links von dem zweiten vorausfahrenden Fahrzeug 103 fahren. Ein Fahrrad 109 kann sich am linken Rand der Straße befinden, und ein Fußgänger 113 kann sich am rechten Rand der Straße befinden. Außerdem können auf beiden Seiten der Straße Straßenbäume 111 vorhanden sein.
  • 7 zeigt die Objektpräsenzbereiche, die von der Objektpräsenzbereich-Einstelleinheit 61 vorgegeben werden. Die Objektpräsenzbereich-Einstelleinheit 61 kann den Clustering-Prozess an den von dem LiDAR 31S erfassten Reflexionspunktwolkendaten ausführen und den Objektpräsenzbereich derart vorgegeben, dass er jede gruppierte Reflexionspunktwolke umfasst. Objektpräsenzbereiche 101a, 103a und 105a können jeweils an Positionen vorgegeben werden, an denen sich das erste vorausfahrende Fahrzeug 101, das zweite vorausfahrende Fahrzeug 103 und das dritte vorausfahrende Fahrzeug 105 befinden.
  • Objektpräsenzbereiche 107a, 109a und 113a können jeweils an Positionen vorgegeben werden, an denen sich das Motorrad 107, das Fahrrad 109 und der Fußgänger 113 befinden. Darüber hinaus können Objektpräsenzbereiche 111a jeweils an Positionen vorgegeben werden, an denen Straßenbäume 111 vorhanden sind. Der vorzugebende Objektpräsenzbereich ist nicht auf eine rechteckige Region beschränkt, die die gruppierte Reflexionspunktwolke umfassend vorgegeben ist, sondern kann auch eine kreisförmige oder elliptische Region oder eine Region mit einer anderen geeigneten Form sein.
  • 8 veranschaulicht das Verarbeitungslastniveau, das für jeden Objektpräsenzbereich durch die Verarbeitungslastniveau-Einstelleinheit 63 vorgegeben ist. Wenn beispielsweise die Entfernung zu dem ersten vorausfahrenden Fahrzeug 101 einen Wert von 40 Meter besitzt, die Größe des ersten vorausfahrenden Fahrzeugs 101 von dem Fahrzeug 1 aus gesehen 3 m2 beträgt und die Geschwindigkeit des ersten vorausfahrenden Fahrzeugs 101 einen Wert von 40 km/h besitzt, kann die Verarbeitungslastniveau-Einstelleinheit 63 dem Objektpräsenzbereich 101a, der dem ersten vorausfahrenden Fahrzeug 101 entspricht, 11 (5 + 3 + 3) Punkte zuteilen, wie dies in der vorstehenden Tabelle 1 angegeben ist.
  • Wenn die Entfernung zu dem zweiten vorausfahrenden Fahrzeug 103 einen Wert von 60 Meter besitzt, die Größe des zweiten vorausfahrenden Fahrzeugs 103 von Fahrzeug 1 aus gesehen 3 m2 beträgt und die Geschwindigkeit des zweiten vorausfahrenden Fahrzeugs 103 einen Wert von 40 km/h besitzt, kann die Verarbeitungslastniveau-Einstelleinheit 63 dem Objektpräsenzbereich 103a, der dem zweiten vorausfahrenden Fahrzeug 103 entspricht, gemäß der vorstehenden Tabelle 1, 9 (3 + 3 + 3) Punkte zuteilen.
  • Wenn die Entfernung zu dem dritten vorausfahrenden Fahrzeug 105 einen Wert von 100 Meter besitzt, die Größe des dritten vorausfahrenden Fahrzeugs 105 von dem Fahrzeug 1 aus gesehen 3 m2 beträgt und die Geschwindigkeit des dritten vorausfahrenden Fahrzeugs 105 einen Wert von 40 km/h besitzt, kann die Verarbeitungslastniveau-Einstelleinheit 63 dem Objektpräsenzbereich 105a, der dem dritten vorausfahrenden Fahrzeug 105 entspricht, gemäß der vorstehenden Tabelle 1, einen Anzahl von 7 (1 + 3 + 3) Punkten zuteilen. Wenn die Entfernung zu dem Motorrad 107 einen Wert von 60 Meter besitzt, die Größe des Motorrads 107 von dem Fahrzeug 1 aus gesehen 1,5 m2 beträgt und die Geschwindigkeit des Motorrads 107 einen Wert von 40 km/h besitzt, kann die Verarbeitungslastniveau-Einstelleinheit 63 dem Objektpräsenzbereich 107a, der dem Motorrad 107 entspricht, gemäß der vorstehenden Tabelle 1, eine Anzahl von 7 (3 + 1 + 3) Punkten zuteilen.
  • Wenn die Entfernung zu dem Fahrrad 109 einen Wert von 50 Meter besitzt, die Größe des Fahrrads 109 von dem Fahrzeug 1 aus gesehen 1 m2 beträgt und die Geschwindigkeit des Fahrrads 109 einen Wert von 5 km/h besitzt, kann die Verarbeitungslastniveau-Einstelleinheit 63 dem Objektpräsenzbereich 109a, der dem Fahrrad 109 entspricht, gemäß der vorstehenden Tabelle 1, eine Anzahl von 5 (3 + 1 + 1) Punkten zuteilen.
  • Wenn die Entfernung zu dem Fußgänger 113 einen Wert von 50 Meter besitzt, die Größe des Fußgängers 113 von dem Fahrzeug 1 aus gesehen 0,8 m2 beträgt und die Geschwindigkeit des Fußgängers 113 einen Wert von 2 km/h besitzt, kann die Verarbeitungslastniveau-Einstelleinheit 63 dem Objektpräsenzbereich 113a, der dem Fußgänger 113 entspricht, gemäß der vorstehenden Tabelle 5, eine Anzahl von (3 + 1 + 1) Punkten zuteilen.
  • Die berechnete Geschwindigkeit des Straßenbaums 111 kann 0 km/h betragen, und die Verarbeitungslastniveau-Einstelleinheit 63 kann dementsprechend die Summe der Punkte des Objektpräsenzbereichs 111a, der dem Straßenbaum 111 entspricht, auf 0 setzen. Dies ermöglicht es, das Verarbeitungslastniveau für den Objektpräsenzbereich, in dem die Bewegungsgeschwindigkeit des geschätzten Objekts Null beträgt, auf das geringste Verarbeitungslastniveau einzustellen.
  • Auf der Basis der Summe der zugeteilten Punkte kann die Verarbeitungslastniveau-Einstelleinheit 63 das Verarbeitungslastniveau für den jeweiligen Objektpräsenzbereich gemäß Tabelle 2 einstellen bzw. vorgeben. In dem in 8 dargestellten Beispiel kann die Verarbeitungslastniveau-Einstelleinheit 63 die Objektpräsenzbereiche 101a und 103a, die dem ersten vorausfahrenden Fahrzeug 101 und dem zweiten vorausfahrenden Fahrzeug 103 entsprechen, auf das Hochpräzisions-Verarbeitungslastniveau einstellen.
  • Die Verarbeitungslastniveau-Einstelleinheit 63 kann die Objektpräsenzbereiche 105a, 107a, 109a und 113a, die dem dritten vorausfahrenden Fahrzeug 105, dem Motorrad 107, dem Fahrrad 109 und dem Fußgänger 113 entsprechen, auf das Niedrigpräzisions-Verarbeitungsniveau einstellen. Die Verarbeitungslastniveau-Einstelleinheit 63 kann den Objektpräsenzbereich 111a, der dem Straßenbaum 111 entspricht, dessen Bewegungsgeschwindigkeit Null ist und die Summe der Punkte auf 0 gesetzt ist, auf das reguläre Verarbeitungsniveau setzen, bei dem die Verarbeitungslast am geringsten ist.
  • Wie unter erneuter Bezugnahme auf das Flussdiagramm der 4 zu erkennen ist, kann die Objekterkennungs-Verarbeitungseinheit 65 des Controllers 51, nachdem das Verarbeitungslastniveau von jedem Objektpräsenzbereich im Schritt S19 eingestellt ist, die von den vorderen Bildaufnahmekameras 31LF und 31RF erzeugten Bilddaten ermitteln (Schritt S21). Danach kann die Objekterkennungs-Verarbeitungseinheit 65 für jeden Objektpräsenzbereich die Objekterkennungsverarbeitung in Abhängigkeit von dem von der Verarbeitungslaststufen-Einstelleinheit 63 vorgegebenen Verarbeitungslastniveau ausführen (Schritt S23).
  • 5 zeigt ein Flussdiagramm zur Erläuterung der Objekterkennungsverarbeitung.
  • Zunächst kann die Objekterkennungs-Verarbeitungseinheit 65 feststellen, ob ein Objektpräsenzbereich auf dem Hochpräzisions-Verarbeitungsniveau vorgegeben ist (Schritt S31). Wenn auf dem Hochpräzisions-Verarbeitungsniveau kein vorgegebener Objektpräsenzbereich vorhanden ist (Schritt S31: Nein), kann die Objekterkennungs-Verarbeitungseinheit 65 den Ablauf veranlassen, mit einem Schritt S35 fortzufahren.
  • Wenn auf dem Hochpräzisions-Verarbeitungsniveau ein vorgegebener Objektpräsenzbereichen vorhanden ist (Schritt S31: Ja), kann die Objekterkennungs-Verarbeitungseinheit 65 für den entsprechenden Objektpräsenzbereich eine Verarbeitung ausführen, die für die Verarbeitung von Inhalten auf dem Hochpräzisions-Verarbeitungsniveau vorgegeben ist, d.h. eine Hochlast-Verarbeitung (Schritt S33). Bei dem vorstehend beschriebenen Beispiel kann die Objekterkennungs-Verarbeitungseinheit 65 die Hochlast-Verarbeitung für die Objektpräsenzbereiche 101a und 103a ausführen, die dem ersten vorausfahrenden Fahrzeug 101 und dem zweiten vorausfahrenden Fahrzeug 103 entsprechen (siehe 3).
  • Anschließend kann die Objekterkennungs-Verarbeitungseinheit 65 feststellen, ob es einen auf dem Niedrigpräzisions-Verarbeitungsniveau vorgegebenen Objektpräsenzbereich gibt (Schritt S35). Wenn es keinen auf dem Niedrigpräzisions-Verarbeitungsniveau vorgegebenen Objektpräsenzbereich gibt (Schritt S35: Nein), kann die Objekterkennungs-Verarbeitungseinheit 65 den Ablauf zum Fortfahren mit einem Schritt S39 veranlassen.
  • Wenn es einen auf dem Niedrigpräzisions-Verarbeitungsniveau vorgegebenen Objektpräsenzbereich gibt (Schritt S35: Ja), kann die Objekterkennungs-Verarbeitungseinheit 65 für den entsprechenden Objektpräsenzbereich eine Verarbeitung ausführen, die für die Verarbeitung von Inhalten auf dem Niedrigpräzisions-Verarbeitungsniveau vorgegeben ist, d.h. eine Niedriglast-Verarbeitung (Schritt S37). Bei dem vorstehend beschriebenen Beispiel kann die Objekterkennungs-Verarbeitungseinheit 65 die Niedriglast-Verarbeitung für die Objektpräsenzbereiche 105a, 107a, 109a und 113a ausführen, die dem dritten vorausfahrenden Fahrzeug 105, dem Motorrad 107, dem Fahrrad 109 und dem Fußgänger 113 entsprechen (siehe 3).
  • Danach kann die Objekterkennungs-Verarbeitungseinheit 65 für den Objektpräsenzbereich, der auf dem regulären Verarbeitungsniveau vorgegeben ist, eine Verarbeitung ausführen, die für die Verarbeitung von Inhalten auf dem regulären Verarbeitungsniveau vorgegeben ist, d.h. die reguläre Verarbeitung (Schritt S39). Bei dem vorstehend beschriebenen Beispiel kann die Objekterkennungs-Verarbeitungseinheit 65 die reguläre Verarbeitung für den Objektpräsenzbereich 111a ausführen, der dem Straßenbaum 111 entspricht (siehe 3).
  • Bei der in 5 dargestellten Objekterkennungsverarbeitung kann die Objekterkennungsverarbeitung in der Reihenfolge der Hochlast-Verarbeitung, der Niedriglast-Verarbeitung und der regulären Verarbeitung ausgeführt werden. Dadurch erhält die Verarbeitung für einen Bereich mit hoher Bedeutung eine hohe Priorität, was eine schnellere und genauere Berechnung von Information über ein Objekt mit hohem Kontaktrisiko ermöglicht.
  • Bei der exemplarischen Ausführungsform kann bei der Ausführung der Objekterkennungsverarbeitung der Kennzeichnungsprozess, d.h. der Prozess der Zuordnung einer Kennzeichnung, für das in einem früheren Verarbeitungsprozess erfasste Objekt ausgeführt werden. Dementsprechend kann für ein einmal erfasstes Objekt der Prozess zum Schätzen der Art und Größe des Objekts übersprungen werden, indem der Prozess der Verfolgung des Objekts unter Verwendung der vorderen Bildaufnahmekameras 31LF und 31RF oder des LiDAR 31S ausgeführt wird. Dies ermöglicht es, die Rechenverarbeitungslast der Objekterkennungsvorrichtung 50 weiter zu verringern.
  • In einem Fall, in dem kein Objektpräsenzbereich auf dem Hochpräzisions-Verarbeitungsniveau vorgegeben ist oder kein Objektpräsenzbereich auf dem Hochpräzisions-Verarbeitungsniveau und dem Niedrigpräzisions-Verarbeitungsniveau vorgegeben ist, kann ein Teil oder der gesamte auf dem Präzision-Verarbeitungsniveau auszuführende Verarbeitungsinhalt für den auf dem regulären Verarbeitungsniveau vorgegebenen Objektpräsenzbereich ausgeführt werden. Auf diese Weise ist es möglich, zusammen mit der Objekterkennungsverarbeitung unter Verwendung des LiDAR 31S ein dupliziertes System zu realisieren. Dies ermöglicht die Erkennung von nicht von dem LiDAR 31S erfasster Information, was zu einer Verringerung des Kontaktrisikos beiträgt.
  • Wie unter erneuter Bezugnahme auf 4 zu sehen ist, kann die Objekterkennungs-Verarbeitungseinheit 65, nachdem die Objekterkennungsverarbeitung entsprechend dem Verarbeitungslastniveau ausgeführt worden ist, für das erfasste Objekt den Bezeichnungs- bzw. Kennzeichnungsprozess und den Prozess zur Zuordnung von Information ausführen (Schritt S25).
  • 9 zeigt ein Beispiel, in dem der Kennzeichnungsprozess und der Prozess zur Zuordnung von Information ausgeführt worden sind.
  • Bei dem in 9 dargestellten Beispiel können das erste vorausfahrende Fahrzeug 101 und das zweite vorausfahrende Fahrzeug 103, die den Objektpräsenzbereichen 101a und 103a entsprechen, die der Hochlast-Verarbeitung unterzogen worden sind, mit Information über die Art des Objekts, z.B. als Auto, gekennzeichnet und mit Information über die kinetische Energie, die das Objekt besitzt, versehen werden.
  • Dem dritten vorausfahrenden Fahrzeug 105, dem Motorrad 107, dem Fahrrad 109 und dem Fußgänger 113, die den Objektpräsenzbereichen 105a, 107a, 109a und 113a entsprechen, die der Niedriglastverarbeitung unterzogen worden sind, kann Information über die kinetische Energie des Objekts zugeordnet werden. Im Gegensatz dazu kann dem Straßenbaum 111, der dem Objektpräsenzbereich 111a entspricht, der der regulären Verarbeitung unterzogen wurde, nur Information zugeordnet werden, die den Objektpräsenzbereich angibt.
  • Wie unter erneuter Bezugnahme auf das Flussdiagramm der 4 zu sehen ist, kann die Objekterkennungs-Verarbeitungseinheit 65 nach der Ausführung des Kennzeichnungsprozesses und des Informationszuordnungsprozesses feststellen, ob das fahrzeuginterne System gestoppt hat (Schritt S27). Wenn das fahrzeuginterne System gestoppt hat (Schritt S27: Ja), kann der Controller 51 die Abfolge der Prozesse beenden. Wenn das fahrzeuginterne System nicht gestoppt hat (Schritt S27: Nein), kann der Controller 51 den Ablauf zum Zurückspringen zu dem Schritt S13 sowie zur wiederholten Ausführung der Prozesse der jeweiligen vorstehend beschriebenen Schritte veranlassen.
  • Auf diese Weise gibt die Objekterkennungsvorrichtung 50 gemäß der exemplarischen Ausführungsform den Objektpräsenzbereich auf der Basis der von dem LiDAR 31S erhaltenen Beobachtungsdaten vor, die einen relativ geringeren Zuverlässigkeitsgrad als die Abbildungsvorrichtung aufweisen. Die Objekterkennungsvorrichtung 50 schätzt das Attribut des Objekts, das in dem jeweiligen Objektpräsenzbereich wahrscheinlich vorhanden ist.
  • Auf der Basis des Attributs des Objekts gibt die Objekterkennungsvorrichtung 50 das Verarbeitungslastniveau, das für die auszuführende Objekterkennungsverarbeitung aufzuwenden ist, unter Verwendung der von den vorderen Bildaufnahmekameras 31LF und 31RF erzeugten Bilddaten vor. Die Objekterkennungsvorrichtung 50 führt für jeden Objektpräsenzbereich die Objekterkennungsverarbeitung entsprechend dem vorgegebenen Verarbeitungslastniveau aus.
  • Dadurch ist es möglich, Ressourcen der Objekterkennungsverarbeitung unter Verwendung der Bilddaten der vorderen Bildaufnahmekameras 31LF und 31RF auf den Objektpräsenzbereich zu konzentrieren, der ein hohes Risiko eines Kontakts mit dem Fahrzeug 1 aufweist. Dadurch wird die Genauigkeit bei der Erkennung eines Objekts bei hohem Risiko eines Kontakts mit dem Fahrzeug 1 gewährleistet, während die Rechenverarbeitungslast bei einem bestehenden System, das sich auf eine bildgebende Vorrichtung stützt, verringert wird. Auf diese Weise kann die Zuverlässigkeit eines Objekterkennungsergebnisses verbessert werden.
  • Es ist möglich, Ressourcen der Objekterkennungsverarbeitung auf einen Bereich mit hoher Notwendigkeit zu konzentrieren, was es ermöglicht, Ressourcen für zukünftige verschiedene Arten der Verarbeitung zu behalten, was auch eine Anpassung an eine Funktionserweiterung der Objekterkennungsvorrichtung 50 ermöglicht.
  • In der vorstehenden Beschreibung sind einige exemplarische Ausführungsformen und Modifikationsbeispiele der Erfindung unter Bezugnahme auf die beigefügten Zeichnungen ausführlich beschrieben. Es ist jedoch darauf hinzuweisen, dass die vorstehend beschriebenen, exemplarischen Ausführungsformen der Erfindung lediglich der Erläuterung dienen und nicht einschränkend sind und den Umfang der Erfindung nicht einschränken sollen.
  • Ferner versteht es sich auch, dass verschiedene Weglassungen, Ersetzungen und Modifikationen bei den vorstehend beschriebenen exemplarischen Ausführungsformen vorgenommen werden können, ohne dass man den Umfang der Erfindung verlässt. Die Erfindung soll derartige Modifikationen und Änderungen mit einschließen, soweit sie im Umfang der beigefügten Ansprüche oder deren Äquivalenten liegen.
  • Zum Beispiel kann die Objekterkennungs-Verarbeitungseinheit 65 eine Auflösung in einem Fall der Ausführung der Rechenverarbeitung als Verarbeitung auf dem Niedrigpräzisions-Verarbeitungsniveau niedriger machen als eine Auflösung im Fall der Ausführung der Rechenverarbeitung als Verarbeitung auf dem Hochpräzisions-Verarbeitungsniveau. Bei einem Beispiel kann die Objekterkennungs-Verarbeitungseinheit 65 veranlassen, dass ein durch das LiDAR 31S zu bestrahlender Bereich mit einer Auflösung bestrahlt wird, die man durch Multiplizieren der maximalen Auflösung, mit der das LiDAR 31S Laserlicht aufbringen kann, mit einem Faktor erhält.
  • Beispielsweise kann bei einem LiDAR mit einer ursprünglichen Auflösung von 200 × 200 Pixeln, d.h. 40K Pixeln, reflektiertes Licht bei Aufbringen von Laserlicht im Verhältnis von eins zu vier empfangen werden, indem die Auflösung mit dem Faktor 0,25 eingestellt wird. Auf diese Weise ist es möglich, eine Differenz in der räumlichen Auflösung vorzunehmen.
  • Auf diese Weise ist es möglich, die Hardware-Ressourcen zu verringern, die für den Objektpräsenzbereich mit relativ geringer Notwendigkeit aufgewendet werden müssen, so dass die Rechenverarbeitungslast an der Objekterkennungsvorrichtung 50 verringert werden kann. Es ist auch möglich, mehr Hardware-Ressourcen auf dem Objektpräsenzbereich mit relativ hoher Notwendigkeit aufzuwenden, so dass die Zuverlässigkeit des Objekterkennungsergebnisses für den Bereich weiter verbessert werden kann.
  • Bei einem weiteren Beispiel kann die Objekterkennungs-Verarbeitungseinheit 65 die Häufigkeit der Ausführung der Rechenverarbeitung als Verarbeitung auf dem Niedrigpräzisions-Verarbeitungsniveau niedriger ansetzen als die Häufigkeit der Ausführung der Rechenverarbeitung als Verarbeitung auf dem Hochpräzisions-Verarbeitungsniveau. Zum Beispiel kann in einem Verarbeitungsprozess, der in vorbestimmten Intervallen wiederholt wird, die Verarbeitung auf dem Hochpräzisions-Verarbeitungsniveau jedes Mal ausgeführt werden, während die Verarbeitung auf dem Niedrigpräzisions-Verarbeitungsniveau jedes zweite Mal ausgeführt werden kann.
  • Hierdurch ist es möglich, die Hardware-Ressourcen zu verringern, die für den Objektpräsenzbereich mit relativ geringer Notwendigkeit aufgewendet werden müssen, so dass es möglich ist, die Rechenverarbeitungslast an der Objekterkennungsvorrichtung 50 zu verringern. Es ist auch möglich, mehr Hardware-Ressourcen für den Objektpräsenzbereich mit relativ hoher Notwendigkeit aufzuwenden, so dass die Zuverlässigkeit des Objekterkennungsergebnisses für den Bereich weiter verbessert werden kann.
  • Es versteht sich von selbst, dass in diesem Fall die Objekterkennungsverarbeitung auf dem Hochpräzisions-Verarbeitungsniveau ausgeführt werden kann, wenn der Objektpräsenzbereich, der im vorherigen Verarbeitungsprozess auf das Niedrigpräzisions-Verarbeitungsniveau gesetzt wurde, im aktuellen Verarbeitungsprozess auf das Hochpräzisions-Verarbeitungsniveau gesetzt wird.
  • Die Objektpräsenzbereich-Einstelleinheit 61, die Verarbeitungslastniveau-Einstelleinheit 63 sowie die Objekterkennungs-Verarbeitungseinheit 65, die in 2 dargestellt sind, sind jeweils durch Schaltungseinrichtungen implementierbar, die zumindest eine integrierte Halbleiterschaltung, wie z.B. zumindest einen Prozessor (z.B. eine zentrale Verarbeitungseinheit (CPU)), zumindest eine anwendungsspezifische integrierte Schaltung (ASIC) und/oder zumindest ein feldprogrammierbares Gate-Array (FPGA) aufweisen.
  • Zumindest ein Prozessor kann durch Lesen von Anweisungen von zumindest einem maschinenlesbaren, nicht-flüchtigen, greifbaren Medium zum Ausführen von allen oder einem Teil der Funktionen jeweils der Objektpräsenzbereich-Einstelleinheit 61, der Verarbeitungslastniveau-Einstelleinheit 63 und der Objekterkennungs-Verarbeitungseinheit 65 konfiguriert werden. Ein solches Medium kann in zahlreichen Formen vorliegen, die einen beliebigen Typ eines magnetischen Mediums, wie z.B. eine Festplatte, einen beliebigen Typ eines optischen Mediums, wie z.B. eine CD und eine DVD, einen beliebigen Typ eines Halbleiterspeichers (d.h. eine Halbleiterschaltung), wie z.B. einen flüchtigen Speicher und einen nicht-flüchtigen Speicher beinhalten, jedoch nicht darauf beschränkt sind.
  • Der flüchtige Speicher kann einen DRAM und einen SRAM beinhalten, und der nicht-flüchtige Speicher kann einen ROM und einen NVRAM beinhalten. Bei dem ASIC handelt es sich um eine kundenspezifische integrierte Schaltung (IC) und bei dem FPGA um eine integrierte Schaltung für die Konfiguration nach der Herstellung zum Ausführen von allen oder einem Teil der Funktionen jeweils der Objektpräsenzbereich-Einstelleinheit 61, der Verarbeitungslastniveau-Einstelleinheit 63 sowie der Objekterkennungs-Verarbeitungseinheit 65, die in 2 dargestellt sind.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2011134119 A [0002]
    • JP 201093610 A [0002]
    • JP 201086268 A [0002]

Claims (12)

  1. Objekterkennungsvorrichtung (50), die Folgendes aufweist: - einen oder mehrere Prozessoren (51); und - einen oder mehrere Speicher (53), die mit dem einen oder den mehreren Prozessoren (51) in kommunikationsfähiger Weise verbunden sind, wobei der eine oder die mehreren Prozessoren (51) dazu ausgebildet sind, - einen oder mehrere Objektpräsenzbereiche, in denen jeweils ein Objekt wahrscheinlich vorhanden ist, auf der Basis von Beobachtungsdaten eines Abstandssensors (31S) vorzugeben, wobei der Abstandssensor (31S) dazu ausgebildet ist, eine reflektierte Welle einer angelegten elektromagnetischen Welle zu empfangen, - ein Attribut des Objekts zu schätzen, das in jedem von dem einen oder den mehreren Objektpräsenzbereichen wahrscheinlich vorhanden ist, - auf der Basis des Attributs des Objekts ein Verarbeitungslastniveau, das für die Objekterkennungsverarbeitung aufzuwenden ist, die für jeden von dem einen oder den mehreren Objektpräsenzbereichen auszuführen ist, unter Verwendung zumindest von Bilddaten vorzugeben, die von einer Abbildungsvorrichtung erzeugt werden, und - die Objekterkennungsverarbeitung für jeden von dem einen oder den mehreren Objektpräsenzbereichen entsprechend dem vorgegebenen Verarbeitungslastniveau auszuführen.
  2. Objekterkennungsvorrichtung (50) nach Anspruch 1, wobei der eine oder die mehreren Prozessoren (51) dazu ausgebildet sind, das Verarbeitungslastniveau für jeden von dem einen oder den mehreren Objektpräsenzbereichen in Abhängigkeit von einem Kontaktrisiko des Objekts vorzugeben, wobei das Kontaktrisiko anhand des Attributs des Objekts geschätzt wird.
  3. Objekterkennungsvorrichtung (50) nach Anspruch 1, wobei das Attribut des Objekts Information über eine Bewegungsgeschwindigkeit des Objekts enthält, und wobei der eine oder die mehreren Prozessoren (51) dazu ausgebildet sind, das Verarbeitungslastniveau für einen Objektpräsenzbereich, in dem die geschätzte Bewegungsgeschwindigkeit des Objekts Null ist, von dem einen oder den mehreren Objektpräsenzbereichen auf ein geringstes Verarbeitungslastniveau einstellen.
  4. Objekterkennungsvorrichtung (50) nach Anspruch 1, wobei der eine oder die mehreren Prozessoren (51) dazu ausgebildet sind, das Verarbeitungslastniveau auf eines von einem regulären Verarbeitungsniveau, auf dem die Verarbeitungslast niedrig ist, und einem Präzisions-Verarbeitungsniveau einzustellen, bei dem die Verarbeitungslast höher ist als bei dem regulären Verarbeitungsniveau.
  5. Objekterkennungsvorrichtung (50) nach Anspruch 4, wobei der eine oder die mehreren Prozessoren (51) dazu ausgebildet sind, eine Anzahl von Prozessen, die als Objekterkennungsverarbeitung auf dem regulären Verarbeitungsniveau auszuführen sind, kleiner zu machen als eine Anzahl von Prozessen, die als Verarbeitung auf dem Präzisions-Verarbeitungsniveau auszuführen sind.
  6. Objekterkennungsvorrichtung (50) nach Anspruch 4, wobei der eine oder die mehreren Prozessoren (51) dazu ausgebildet sind, - als Objekterkennungsverarbeitung auf dem regulären Verarbeitungsniveau zumindest einen Abgleichprozess für das Objekt mit vorab vorgegebenen Objektdaten und einen Entfernungs-Schätzprozess für das Objekt auf der Basis der Bilddaten auszuführen, und - als Objekterkennungsverarbeitung auf dem Präzisions-Verarbeitungsniveau zwei oder mehr von einem Kanten-Erkennungsprozess für das Objekt, einem Art-Schätzprozess für das Objekt, einem Geschwindigkeits-Schätzprozess für das Objekt, dem Entfernungs-Schätzprozess für das Objekt, einem Größen-Schätzprozess für das Objekt oder einem Energie-Schätzprozess für das Objekt auszuführen.
  7. Objekterkennungsvorrichtung (50) nach Anspruch 6, wobei das Präzisions-Verarbeitungsniveau ein Niedrigpräzisions-Verarbeitungsniveau, bei dem die Verarbeitungslast relativ gering ist, und ein Hochpräzisions-Verarbeitungsniveau, bei dem die Verarbeitungslast relativ hoch ist, aufweist.
  8. Objekterkennungsvorrichtung (50) nach Anspruch 7, wobei eine Niedriglast-Verarbeitung, die eine relativ niedrige Verarbeitungslast verursacht, und eine Hochlast-Verarbeitung, die eine relativ hohe Verarbeitungslast verursacht, für zumindest einen von dem Kanten-Erfassungsprozess, dem Art-Schätzprozess, dem Geschwindigkeits-Schätzprozess, dem Entfernungs-Schätzprozess, dem Größen-Schätzprozess oder dem Energie-Schätzprozess vorgegeben sind, und wobei der eine oder die mehreren Prozessoren (51) dazu ausgebildet sind, - die Niedriglast-Verarbeitung in einem Fall auszuwählen und auszuführen, wenn als die Objekterkennungsverarbeitung auf dem Niedrigpräzisions-Verarbeitungsniveau einer von dem Kanten-Erfassungsprozess, dem Art-Schätzprozess, dem Geschwindigkeits-Schätzprozess, dem Entfernungs-Schätzprozess, dem Größen-Schätzprozess oder dem Energie-Schätzprozess ausgeführt wird, und - die Hochlast-Verarbeitung in einem Fall auszuwählen und auszuführen, wenn als die Objekterkennungsverarbeitung auf dem Hochpräzisions-Verarbeitungsniveau einer von dem Kanten-Erfassungsprozess, dem Art-Schätzprozess, dem Geschwindigkeits-Schätzprozess, dem Entfernungs-Schätzprozess, dem Größen-Schätzprozess oder dem Energie-Schätzprozess ausgeführt wird.
  9. Objekterkennungsvorrichtung (50) nach Anspruch 7, wobei der eine oder die mehreren Prozessoren (51) dazu ausgebildet sind, in einem Fall, in dem sie den Kanten-Erfassungsprozess, den Art-Schätzprozess, den Geschwindigkeits-Schätzprozess, den Entfernungs-Schätzprozess, den Größen-Schätzprozess oder den Energie-Schätzprozess als Objekterkennungsverarbeitung auf dem Niedrigpräzisions-Verarbeitungsniveau ausführen, eine Auflösung niedriger zu machen als eine Auflösung in einem Fall, in dem sie den Kanten-Erfassungsprozess, den Art-Schätzprozess, den Geschwindigkeits-Schätzprozess, den Entfernungs-Schätzprozess, den Größen-Schätzprozess oder den Energie-Schätzprozess als Objekterkennungsverarbeitung auf dem Hochpräzisions-Verarbeitungsniveau ausführen.
  10. Objekterkennungsvorrichtung (50) nach Anspruch 7, wobei der eine oder die mehreren Prozessoren (51) dazu ausgebildet sind, eine Häufigkeit der Ausführung des Kanten-Erfassungsprozesses, des Art-Schätzprozesses, des Geschwindigkeits-Schätzprozesses, des Entfernungs-Schätzprozesses, des Größen-Schätzprozesses oder des Energie-Schätzprozesses als Objekterkennungsverarbeitung auf dem Niedrigpräzisions-Verarbeitungsniveau niedriger vorzugeben als eine Häufigkeit der Ausführung des Kanten-Erfassungsprozesses, des Art-Schätzprozesses, des Geschwindigkeits-Schätzprozesses, des Entfernungs-Schätzprozesses, des Größen-Schätzprozesses oder des Energie-Schätzprozesses als Objekterkennungsverarbeitung auf dem Hochpräzisions-Verarbeitungsniveau.
  11. Objekterkennungsvorrichtung (50), die Folgendes aufweist: - eine Objektpräsenzbereich-Einstelleinheit (61), die dazu ausgebildet ist, einen oder mehrere Objektpräsenzbereiche, in denen jeweils ein Objekt wahrscheinlich vorhanden ist, auf der Basis von Beobachtungsdaten eines Abstandssensors (31S) vorzugeben und ein Attribut des Objekts zu schätzen, das in jedem von dem einen oder den mehreren Objektpräsenzbereichen wahrscheinlich vorhanden ist, wobei der Abstandssensor (31S) dazu ausgebildet ist, eine reflektierte Welle einer angelegten elektromagnetischen Welle zu empfangen; - eine Verarbeitungslastniveau-Einstelleinheit (63), die dazu ausgebildet ist, auf der Basis des Attributs des Objekts ein Verarbeitungslastniveau, das für die Objekterkennungsverarbeitung aufzuwenden ist, die für jeden von dem einen oder den mehreren Objektpräsenzbereichen auszuführen ist, unter Verwendung zumindest von Bilddaten vorzugeben, die von einer Abbildungsvorrichtung erzeugt werden; und - eine Objekterkennungs-Verarbeitungseinheit (65), die dazu ausgebildet ist, die Objekterkennungsverarbeitung für jeden von dem einen oder den mehreren Objektpräsenzbereichen entsprechend dem vorgegebenen Verarbeitungslastniveau auszuführen.
  12. Nicht-flüchtiges Aufzeichnungsmedium, das ein Computerprogramm enthält, wobei das Computerprogramm, wenn es von einem Prozessor ausgeführt wird, den Prozessor veranlasst, ein Verfahren zu implementieren, wobei das Verfahren die folgenden Schritte aufweist: - Vorgeben von einem oder mehreren Objektpräsenzbereichen, in denen jeweils ein Objekt wahrscheinlich vorhanden ist, auf der Basis von Beobachtungsdaten eines Abstandssensors (31S), wobei der Abstandssensor (31S) dazu ausgebildet ist, eine reflektierte Welle einer angelegten elektromagnetischen Welle zu empfangen; - Schätzen eines Attributs des Objekts, das in jedem von dem einen oder den mehreren Objektpräsenzbereichen wahrscheinlich vorhanden ist; - auf der Basis des Attributs des Objekts erfolgendes Vorgeben eines Verarbeitungslastniveaus, das für die Objekterkennungsverarbeitung aufzuwenden ist, die für jeden von dem einen oder den mehreren Objektpräsenzbereichen auszuführen ist, unter Verwendung zumindest von Bilddaten, die von einer Abbildungsvorrichtung erzeugt werden; und - Ausführen der Objekterkennungsverarbeitung für jeden von dem einen oder den mehreren Objektpräsenzbereichen entsprechend dem vorgegebenen Verarbeitungslastniveau.
DE102022117085.3A 2021-08-03 2022-07-08 Objekterkennungsvorrichtung und nicht-flüchtiges aufzeichnungsmedium Pending DE102022117085A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021127281A JP2023022415A (ja) 2021-08-03 2021-08-03 物体認識装置、コンピュータプログラム及び記録媒体
JP2021-127281 2021-08-03

Publications (1)

Publication Number Publication Date
DE102022117085A1 true DE102022117085A1 (de) 2023-02-09

Family

ID=84975386

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022117085.3A Pending DE102022117085A1 (de) 2021-08-03 2022-07-08 Objekterkennungsvorrichtung und nicht-flüchtiges aufzeichnungsmedium

Country Status (4)

Country Link
US (1) US20230045897A1 (de)
JP (1) JP2023022415A (de)
CN (1) CN115704907A (de)
DE (1) DE102022117085A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240096107A1 (en) * 2022-09-19 2024-03-21 Velios Inc. Situational awareness systems and methods and micromobility platform

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086268A (ja) 2008-09-30 2010-04-15 Mazda Motor Corp 車両用表示体認識装置
JP2010093610A (ja) 2008-10-09 2010-04-22 Hitachi Automotive Systems Ltd 自動車の外界認識装置及び外界認識方法
JP2011134119A (ja) 2009-12-24 2011-07-07 Honda Motor Co Ltd 車両周辺監視装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086268A (ja) 2008-09-30 2010-04-15 Mazda Motor Corp 車両用表示体認識装置
JP2010093610A (ja) 2008-10-09 2010-04-22 Hitachi Automotive Systems Ltd 自動車の外界認識装置及び外界認識方法
JP2011134119A (ja) 2009-12-24 2011-07-07 Honda Motor Co Ltd 車両周辺監視装置

Also Published As

Publication number Publication date
JP2023022415A (ja) 2023-02-15
CN115704907A (zh) 2023-02-17
US20230045897A1 (en) 2023-02-16

Similar Documents

Publication Publication Date Title
DE102018116108B4 (de) Kalibrierungsprüfverfahren für den betrieb von autonomen fahrzeugen sowie fahrzeug mit einer steuerung zur ausführung des verfahrens
DE102018105140A1 (de) Objektverfolgung
DE102018107754A1 (de) Objektverfolgung
DE102018121597A1 (de) Boden-referenzbestimmung für den betrieb von autonomen fahrzeugen
DE102019133703A1 (de) Verfahren und systeme zur herstellung und lokalisierung für ein fahrzeug
DE102018112115A1 (de) Verfahren und Systeme zum Ermitteln der Geschwindigkeit von sich bewegenden Objekten
DE102019111414A1 (de) Steuerungssysteme, steuerungsverfahren und steuerungen für ein autonomes fahrzeug
DE102017128619B4 (de) Fahrzeugsteuersystem, damit ausgerüstetes Fahrzeug sowie Verfahren zum Steuern mindestens einer Funktion eines Fahrzeugs
DE102018129295A1 (de) Systeme und Verfahren zum Abbilden von Fahrbahnstörobjekten in autonomen Fahrzeugen
DE102018116107A1 (de) Kalibrierungsverfahren für den betrieb von autonomen fahrzeugen
DE112017001322T5 (de) Signalverarbeitungsvorrichtung und Signalverarbeitungsverfahren
DE102017105215A1 (de) Umgebungsrisiko-anzeigevorrichtung
DE102018129057A1 (de) Systeme und verfahren zum bestimmen der geschwindigkeit von lidar-punkten
DE102018123467A1 (de) Verfahren und systeme zur radar-lokalisierung in autonomen fahrzeugen
DE102019111485A1 (de) Fahrzeugfahrsteuervorrichtung
DE102018103473A1 (de) Wirksamer rollradius
DE102021103370A1 (de) Objekterkennung mittels low-level-kamera-radar-fusion
DE102019114578A1 (de) Wahrnehmungsunsicherheitsmodellierung aus tatsächlichen wahrnehmungssystemen für autonomes fahren
DE102022117085A1 (de) Objekterkennungsvorrichtung und nicht-flüchtiges aufzeichnungsmedium
DE102019133708A1 (de) Verfahren und vorrichtung zum erfassen von statischen und dynamischen informationen auf spurniveau
DE102021106694A1 (de) Dynamische lidar-zu-kamera-ausrichtung
WO2021219353A1 (de) Autonomes und/oder assistiertes kuppeln eines anhängers unter berücksichtigung des höhenprofils des untergrunds
DE102020127205A1 (de) Verfahren und vorrichtung zur ampelpositionierung und -kartierung unter verwendung von durch menschenmengen (crowd-sensed) erfassten daten
DE102020106469A1 (de) Verfahren und systeme für die verwaltung automatisierter fahrfunktionen
DE102020106673A1 (de) Verfahren und systeme zur erzeugung von radarkarten