DE102017202891B4 - Objekterkennungsvorrichtung und Objekterkennungsverfahren - Google Patents

Objekterkennungsvorrichtung und Objekterkennungsverfahren Download PDF

Info

Publication number
DE102017202891B4
DE102017202891B4 DE102017202891.2A DE102017202891A DE102017202891B4 DE 102017202891 B4 DE102017202891 B4 DE 102017202891B4 DE 102017202891 A DE102017202891 A DE 102017202891A DE 102017202891 B4 DE102017202891 B4 DE 102017202891B4
Authority
DE
Germany
Prior art keywords
high illuminance
detection
unit
vehicle
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017202891.2A
Other languages
English (en)
Other versions
DE102017202891A1 (de
Inventor
Yasuhiro Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE102017202891A1 publication Critical patent/DE102017202891A1/de
Application granted granted Critical
Publication of DE102017202891B4 publication Critical patent/DE102017202891B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

Objekterkennungsvorrichtung (1), welche an einem Fahrzeug (9) anordenbar ist, wobei die Objekterkennungsvorrichtung (1) aufweist:eine Lichtausstrahlungs-Einheit (11) zur Ausstrahlung von Laserlicht;eine Lichtempfangs-Einheit (13) zum Empfang von reflektierten Wellen, wobei die reflektierten Wellen auf der Reflektion des Laserlichts von entsprechenden Entfernungsmesspunkten auf einem zu erkennenden Objekt basieren;eine Entfernungsberechnungs-Einheit (15a1), welche auf Basis der entsprechenden der reflektierten Wellen die Entfernung zu jedem der Entfernungsmesspunkte berechnet;eine Richtungsabschätzungs-Einheit (15a2), welche auf Basis der reflektierten Wellen die Richtung eines jeden Entfernungsmesspunktes bezüglich des Fahrzeugs (9) abschätzt;eine Objekterkennungs-Einheit (37), welche auf Basis der Entfernungsmesspunkte einen zuvor festgelegten Erkennungsbereich des zu erkennenden Objekts erkennt;eine Erfassungs-Einheit (39) für die Richtung mit hoher Beleuchtungsstärke, welche als Bereich der Richtung mit hoher Beleuchtungsstärke einen Bereich mit zumindest einer Richtung mit hoher Beleuchtungsstärke erlangt, wobei die zumindest eine Richtung mit hoher Beleuchtungsstärke eine Richtung ist, aus welcher eine durch die Lichtempfangs-Einheit (13) empfangene Lichtintensität gleich oder größer als ein zuvor festgelegter Schwellenwert ist, während keine reflektierten Wellen durch die Lichtempfangs-Einheit (13) empfangen werden; undeine Korrektur-Einheit (41), welche eine Korrekturaufgabe zur Korrektur eines Erkennungsbereichs des Objekts ausführt, sodass aus Sicht des Fahrzeugs (9) ein korrigierter Erkennungsbereich des Objekts zumindest einen Teil des Bereichs der Richtung mit hoher Beleuchtungsstärke aufweist, unter der Bedingung, dass:der Erkennungsbereich des Objekts und der Bereich der Richtung mit hoher Beleuchtungsstärke eine zuvor festgelegte Positionsbeziehung zueinander haben.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich auf eine Objekterkennungsvorrichtung und ein Objekterkennungsverfahren.
  • STAND DER TECHNIK
  • Die folgende Art einer Objekterkennungsvorrichtung ist im Stand der Technik bekannt. Die Objekterkennungsvorrichtung misst zunächst die Entfernung zur Oberfläche eines Objektes durch Verwendung einer Laserradarvorrichtung, wobei die Entfernungen als Entfernungsmesspunkte erlangt werden. Die Objekterkennungsvorrichtung führt dann eine Erkennung des Objekts durch Bündelung der Entfernungsmesspunkte durch. Solch eine Objekterkennungsvorrichtung ist aus der JP 2011- 191 227 A bekannt.
  • Solch ein Laserradar kann keine Entfernungsmesspunkte aus Richtungen erlangen, in welchen Störlicht mit hoher Beleuchtungsstärke auftritt, wie z. B. Licht von Fahrzeugscheinwerfern. Aus diesem Grund kann das Laserradar keine Entfernungsmesspunkte von einem Teil des Objektes erlangen, nämlich von dem Teil des Objekts, welcher sich in einem Bereich mit hoher Beleuchtungsstärke befindet. Dies kann dazu führen, dass die Größe des Objektes, welche auf Basis der Entfernungsmesspunkte durch die Verwendung des Laserradars erlangt wurde, kleiner ist als die tatsächliche Größe des Objekts.
  • Aus der DE 10 2011 078 685 A1 sind ferner ein Straßenseitenerfassungssystem, das einen Ort eines Endabschnitts einer vom Fahrzeug befahrenen Straße erfasst, sowie ein Fahrerassistenzsystem und ein Straßenseitenerfassungsverfahren bekannt. Eine Abstandsmessvorrichtung sowie ein Abstandsmessprogramm sind in der JP 2013-092 459 A offenbart.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Es ist Aufgabe der vorliegenden Erfindung, eine Objekterkennungsvorrichtung und ein Objekterkennungsverfahren bereitzustellen, mit denen Objekte mit einer höheren Genauigkeit erkennbar sind, während die nachteiligen Effekte einer optischen Störung mit hoher Beleuchtungsstärke, wie z. B. Störlicht mit hoher Beleuchtungsstärke, verringert werden.
  • Die Aufgabe wird durch die Gegenstände der unabhängigen Ansprüche gelöst. Vorteilhafte Weiterbildungen sind in den abhängigen Ansprüchen angegeben.
  • Gemäß einem ersten beispielhaften Aspekt der vorliegenden Erfindung, wird eine Objekterkennungsvorrichtung bereitgestellt, welche an einem Fahrzeug angeordnet werden kann. Die Objekterkennungsvorrichtung umfasst eine Lichtausstrahlungs-Einheit zur Ausstrahlung von Laserlicht und eine Lichtempfangs-Einheit zum Empfang von reflektierten Wellen, wobei die reflektierten Wellen auf der Reflektion des Laserlichts von entsprechenden Entfernungsmesspunkten auf einem zu erkennenden Objekt basieren. Die Objekterkennungsvorrichtung umfasst eine Entfernungsberechnungs-Einheit, welche die Entfernung zu jedem der Entfernungsmesspunkte berechnet, auf Basis einer entsprechenden der reflektieren Wellen und eine Richtungsabschätzungs-Einheit, welche die Richtung eines jeden Entfernungsmesspunktes in Bezug auf das Fahrzeug schätzt, auf Basis einer entsprechenden der reflektierten Wellen. Die Objekterkennungsvorrichtung beinhaltet eine Objekterkennungs-Einheit, welche einen zuvor festgelegten Erkennungsbereich des zu erkennenden Objektes erkennt, auf Basis der Entfernungsmesspunkte, und einer Erfassungs-Einheit für die Richtung mit hoher Beleuchtungsstärke, welche als Bereich der Richtung mit hoher Beleuchtungsstärke einen Bereich mit mindestens einer Richtung mit hoher Beleuchtungsstärke erlangt. Diese mindestens eine Richtung mit hoher Beleuchtungsstärke ist eine Richtung, aus welcher eine Lichtintensität, die durch die Lichtempfangs-Einheit empfangen wurde, ohne dass die reflektierten Wellen durch die Lichtempfangseinheit empfangen wurden, gleich oder größer als ein zuvor festgelegter Schwellenwert ist. Die Objekterkennungsvorrichtung umfasst eine Korrektur-Einheit, welche eine Korrekturaufgabe zur Korrektur des Erkennungsbereichs des Objekts so durchführt, dass, aus Fahrzeugsicht, ein korrigierter Erkennungsbereich des Objekts mindestens einen Teil des Bereichs der Richtung mit hohen Beleuchtungsstärke aufweist, unter der Bedingung, dass der Erkennungsbereich des Objekts und der Bereich der Richtung mit hoher Beleuchtungsstärke eine zuvor festgelegte Positionsbeziehung zueinander haben.
  • Gemäß einem zweiten beispielhaften Aspekt der vorliegenden Erfindung wird ein Objekterkennungsverfahren bereitgestellt, welches aufweist:
    • (1) Ausstrahlung von Laserlicht unter Verwendung einer Lichtausstrahlungs-Einheit
    • (2) Empfang von reflektierten Wellen, die reflektierten Wellen basierend auf der Reflektion des Laserlichtes von den entsprechenden Entfernungspunkten auf dem zu erkennenden Objekt
    • (3) Berechnung der Entfernung zu jedem der Entfernungsmesspunkte, auf Basis von, zum Beispiel, einer entsprechenden der reflektierten Wellen
    • (4) Schätzung der Richtung eines jeden Entfernungsmesspunktes in Bezug auf das Fahrzeug, auf Basis von, zum Beispiel, einer entsprechenden der reflektierten Wellen
    • (5) Erkennung eines zuvor festgelegten Erkennungsbereichs des zu erkennenden Objektes, auf Basis der Entfernungsmesspunkte.
    • (6) Erlangung, als Bereich der Richtung mit hoher Beleuchtungsstärke, eines Bereichs mit mindestens einer Richtung mit hoher Beleuchtungsstärke, wobei die mindestens eine Richtung mit hoher Beleuchtungsstärke eine Richtung ist, in welche die Lichtintensität, welche durch die Lichtempfangseinheit empfangen wurde, ohne dass die reflektierten Wellen durch die Lichtempfangseinheit empfangen wurden, gleich oder größer als ein zuvor festgelegter Schwellenwert ist
    • (7) Korrektur des Erkennungsbereichs des Objekts so, dass, aus Fahrersicht, ein korrigierter Erkennungsbereich des Objekts mindestens einen Teil des Bereichs der Richtung mit hoher Beleuchtungsstärke aufweist, unter der Bedingung, dass der Erkennungsbereich des Objektes und der Bereich der Richtung mit hoher Beleuchtungsstärke eine zuvor festgelegte Positionsbeziehung zueinander haben.
  • Diese Konfiguration von jedem, dem ersten und dem zweiten, beispielhaften Aspekt der vorliegenden Offenbarung macht es möglich, zu verhindern, dass die Größe des Erkennungsbereichs des Objekts kleiner ist, als die tatsächliche Größe des Objekts, auch wenn es einen Bereich der Richtung mit hoher Beleuchtungsstärke gibt. Das heißt, jeder der beispielhaften Aspekte, der erste und der zweite, der vorliegenden Offenbarung erkennt Objekte mit einer höheren Genauigkeit, während die nachteiligen Effekte einer optischen Störung mit hoher Beleuchtungsstärke, wie z. B. Störlicht mit hoher Beleuchtungsstärke, verringert werden.
  • KURZBESCHREIBUNG DER ZEICHNUNG
  • Weitere Aspekte der vorliegenden Offenbarung ergeben sich aus der folgenden Beschreibung der Ausführungsbeispiele unter Bezugnahme auf die zugehörige Zeichnung, in welcher:
    • 1 ein Blockdiagramm ist, welches schematisch ein Beispiel der Konfiguration einer Objekterkennungsvorrichtung entsprechend einem bevorzugten Ausführungsbeispiel der vorliegenden Offenbarung zeigt;
    • 2 eine Seitenansicht ist, welche schematisch zeigt, wie jedes in 1 gezeigte Laserradar in einem Trägerfahrzeug entsprechend einem bevorzugten Ausführungsbeispiel angeordnet ist;
    • 3 ein Schaltplan einer Lichtaustrahlungs-Einheit eines Laserradars ist;
    • 4 ein erläuterndes Schaubild ist, welches ein Beispiel des Aufbaus einer Lichtempfangs-Einheit in einem Laserradar zeigt;
    • 5 eine Draufsicht ist, welche schematisch den Suchbereich und die Teilgebiete des Suchbereichs entsprechend dem vorliegenden Ausführungsbeispiel zeigt;
    • 6 ein Blockdiagramm ist, welches schematisch ein Bespiel der funktionellen Konfiguration der Steuereinheit, welche in 1 gezeigt wird, zeigt;
    • 7 ein Flussdiagramm ist, welches schematisch eine Objekterkennungsroutine zeigt, welche durch die Objekterkennungsvorrichtung ausgeführt wird;
    • 8 ein erläuterndes Schaubild ist, welches schematisch ein Beispiel von Entfernungsmesspunkten und ein Beispiel eines Bereichs der Richtung mit hoher Beleuchtungsstärke entsprechend dem vorliegenden Ausführungsbeispiel zeigt;
    • 9 ein erläuterndes Schaubild ist, welches schematisch ein Beispiel einer Positionsbeziehung zwischen dem Erkennungsobjekt-Bereich, welcher auf den Entfernungsmesspunkten basiert und dem Bereich der Richtung mit hoher Beleuchtungsstärke, welcher in 8 gezeigt wird, zeigt;
    • 10 ein erläuterndes Schaubild ist, welches schematisch zeigt, wie der Erkennungsobjekt-Bereich entsprechend dem vorliegenden Ausführungsbeispiel korrigiert wird;
    • 11 ein Flussdiagramm ist, welches schematisch ein Unterprogramm zeigt, das die Korrekturaufgabe in Schritt 8 der Objekterkennungsroutine darstellt;
    • 12 ein erläuterndes Schaubild ist, welches schematisch ein Beispiel zeigt, wie ein Erkennungsobjekt-Bereich um einen zuvor festgelegten Betrag in Richtung der Breite des Trägerfahrzeugs vergrößert wird;
    • 13 ein erläuterndes Schaubild ist, welches schematisch ein Beispiel zeigt, wie ein Erkennungsobjekt-Bereich, welcher in Breitenrichtung des Trägerfahrzeugs vergrö-ßert wurde, weiterhin um einen zuvor festgelegten Betrag in Fahrtrichtung des Trägerfahrzeugs erweitert wird;
    • 14A ein erläuterndes Schaubild ist, welches schematisch eine Positionsbeziehung zwischen einem ersten Erkennungsobjekt-Bereich, einem zweiten Erkennungsobjekt-Bereich und einem Bereich der Richtung mit hoher Beleuchtungsstärke zeigt; und
    • 14B ein erläuterndes Schaubild ist, welches schematisch eine Positionsbeziehung zwischen einem ersten Erkennungsobjekt-Bereich und einem zusätzlichen Bereich der Richtung mit hoher Beleuchtungsstärke zeigt.
  • DETAILLIERTE BESCHREIBUNG DER AUSFÜHRUNGSBEISPIELE
  • Nachfolgend wird ein bevorzugtes Ausführungsbeispiel der vorliegenden Erfindung unter Bezugnahme auf die zugehörige Zeichnung erläutert.
  • (1) Gesamtkonfiguration einer Objekterkennungsvorrichtung 1
  • Im Folgenden wird ein Beispiel der Gesamtkonfiguration der Objekterkennungsvorrichtung 1 entsprechend dem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung unter Bezugnahme auf die 1 bis 6 beschrieben.
  • Die Objekterkennungsvorrichtung 1 ist an einem Fahrzeug 9 angeordnet, welches nachfolgend als Trägerfahrzeug 9 bezeichnet wird. Wie in 1 gezeigt, weißt die Objekterkennungsvorrichtung 1 beispielsweise ein Laserradar-Paar 3, eine Steuereinheit 5 und einen Beleuchtungsstärkensensor 7 auf.
  • (2) Konfiguration des Laserradars 3
  • Wie in 2 gezeigt, ist jedes der Laserradare 3 an der entsprechenden Oberfläche, rechts oder links, am vorderen Ende der Fahrzeugkarosserie des Trägerfahrzeugs 9 angeordnet. Wie in 1 gezeigt, weist jeder der Laserradare 3 eine Lichtausstrahlungs-Einheit 11, eine Lichtempfangs-Einheit 13 und eine Entfernungsmess-Einheit 15 auf.
  • Die Lichtausstrahlungs-Einheit 11 entspricht beispielsweise einer Lichausstrahlungs-Einheit, die Lichtempfangs-Einheit 13 entspricht beispielsweise einer Lichtausstrahlungs-Einheit.
  • Wie in 3 gezeigt, weist die Lichtausstrahlungs-Einheit 11 einen Steuerkreis 17, ein Lichtausstrahlungs-Element 19 und einen Kollimator 21 auf. Der Steuerkreis 17 treibt das Lichtausstrahlungs-Element 19 gemäß einem Lichtemissions-Steuersignal SC an, welches die Übertragungszeitpunkte des Laserlichtes, welche später beschrieben werden, vom Lichtausstrahlungs-Element 19 angibt. Wie nachfolgend beschrieben, wird das Lichtemissions-Steuersignal SC von der Entfernungsmess-Einheit 15 ausgegeben.
  • Das Lichtausstrahlungs-Element 19 wird vom Steuerkreis 17 angetrieben, um z. B. pulsierendes Laserlicht gemäß dem Lichtemissions-Steuersignal SC auszustrahlen.
  • Der Kollimator 21 stellt einen Suchbereich, d. h. ein Suchfeld SF des vom Lichtausstrahlungs-Element 19 ausgestrahlten Laserlichts ein. Wie in 5 gezeigt, dehnt sich der Suchbereich SF jedes der Laserradare 3 horizontal aus, um einen wesentlichen Sektor oder eine substanzielle halbkreisförmige Form zu haben, wodurch die maßgebliche Umgebung des Trägerfahrzeugs 9, nicht die Bereiche vor und hinter dem Trägerfahrzeug 9, eingeschlossen wird. Die obige Konfiguration ermöglicht es der Lichtausstrahlungs-Einheit 11 pulsierendes Laserlicht in den Suchbereich SF gemäß dem Lichtemissions-Steuersignal SC auszustrahlen.
  • Wie in 4 gezeigt, weist die Lichtempfangs-Einheit einen Kondensor 23, eine Lichtempfangsschaltung 25 und eine Verstärkerschaltung 27 auf.
  • Der Kondensor 23 sammelt reflektiertes Licht, welches aus dem Suchbereich SF kommt.
  • Die Lichtempfangsschaltung 25 besteht hauptsächlich aus einer Vielzahl von Lichtempfangs-Elementen 29. Jedes der Lichtempfangs-Elemente 29 erzeugt ein Lichtempfangs-Signal mit einem Spannungswert, welcher der Intensität des reflektierten Lichts entspricht, das über den Kondensor 23 empfangen wurde. Die Anzahl N der Lichtempfangs-Elemente 29 (wobei N eine natürliche Zahl ist) ist gleich der Anzahl der Bereiche aus einer Reihe von Teilbereichen A1 bis AN, was nachfolgend beschrieben wird. Jedes der N Lichtempfangs-Elemente 29 gibt das entsprechende der Lichtempfangs-Signale R1 bis RN aus.
  • Die N Lichtempfangs-Elemente 29 sind in Richtung der Fahrzeugbreite in einer Reihe entlang dem Trägerfahrzeug 9 angeordnet. Jedes der N Lichtempfangs-Elemente 29 empfängt nur ein reflektiertes Wellensignal, ein reflektiertes Echo, welches aus einem beliebig ausgewählten Teilbereich A1 bis AN kommt. Die Teilbereiche A1 bis AN werden durch die Teilung des Suchbereichs SF in N Bereiche gebildet. Das Lichtempfangs-Signal, welches durch ein reflektiertes Wellensignal, das aus dem Teilbereich Ai kommt, generiert wird, wird nachfolgend als Ri bezeichnet, wobei i eine beliebige natürliche Zahl innerhalb des Bereichs 1 bis N ist.
  • Das reflektierte Wellensignal basiert auf Laserlicht, welches von einem Objekt reflektiert wurde. In der nachfolgenden Beschreibung wird die Bezeichnung „Entfernungsmesspunkt“ für einen Punkt auf einem Objekt verwendet, von welchem aus der Laserstrahl reflektiert wird. Das reflektierte Wellensignal eines Entfernungsmesspunktes kommt an der Lichtempfangs-Einheit 13 aus Richtung des Entfernungsmesspunktes an.
  • Infolgedessen existiert die folgende Korrespondenzbeziehung zwischen der Richtung des Entfernungsmesspunktes in Bezug auf die Lichtempfangs-Einheit 13, der Ankunftsrichtung des reflektierten Wellensignals vom Entfernungsmesspunkt und dem einen Lichtempfangs-Signal aus R1 bis RN, welches dadurch erzeugt wird: Sobald die Richtung des Entfernungsmesspunktes mit Bezug zur Lichtempfangs-Einheit 13 innerhalb des Teilbereichs Ai liegt, kommt ein reflektiertes Wellensignal aus dem Teilbereich Ai bei der Lichtempfangs-Einheit 13 an und ein Lichtempfangssignal Ri wird generiert, wobei i eine beliebige natürliche Zahl im Bereich von 1 bis N ist.
  • In der obigen Konfiguration empfängt die Lichtempfangs-Einheit 13 ein reflektiertes Wellensignal von einem Entfernungsmesspunkt, dessen Richtung der der Teilbereiche A1 bis AN entspricht und wandelt das reflektierte Wellensignal in ein entsprechendes der Lichtempfangssignale R1 bis RN um, in Übereinstimmung mit der empfangenen Lichtintensität.
  • Das heißt, die Lichtempfangs-Einheit 13 erhält eines der Lichtempfangs-Signale R1 bis RN entsprechend der Richtung des entsprechenden Entfernungsmesspunktes mit Bezug auf die Lichtempfangs-Einheit 13.
  • Die Entfernungsmess-Einheit 15 versorgt die Lichtausstrahlungs-Einheit 11 innerhalb jeder der zuvor festgelegten Erfassungsperioden mit dem Lichtemissions-Steuersignal SC. Die Entfernungsmess-Einheit 15 misst ebenso die Stärken der durch die Lichtempfangs-Einheit 13 bereitgestellten Lichtempfangs-Signale R1 bis RN. Basierend auf dem Ausstrahlungszeitpunkt des Laserlichts, spezifiziert durch das Lichtemissions-Steuersignal SC und die Lichtempfangs-Zeitpunkte der reflektierten Wellen, welche von den entsprechenden Lichtempfangs-Signalen R1 bis RN festgelegt werden, misst die Entfernungsmess-Einheit 15 für jedes der Lichtempfangssignale R1 bis RN die vom Laserlicht benötigte Zeit, um zum entsprechenden Entfernungsmesspunkt und zurück zum Laserradar 3 zu kommen.
  • Die Entfernungsmess-Einheit 15 dient, als Entfernungsberechnungs-Einheit 15a1, zur Berechnung der Entfernung des Laserradars 3 zu jedem Entfernungsmesspunkt (nachfolgend als Messpunktentfernung bezeichnet), unter Verwendung der Zeit, welche das Laserlicht benötigt, um zum entsprechenden Entfernungsmesspunkt und zurück zum Laserradar 3 zu kommen.
  • Die Entfernungsmess-Einheit 15 dient ebenso, als eine Richtungsabschätzungs-Einheit 15a2 zur Abschätzung der Richtung eines Entfernungsmesspunkts in Bezug auf den Laserradar 3 (nachfolgend als Messpunktrichtung bezeichnet), auf Basis des einen Lichtempfangs-Signals aus R1 bis RN, welches dem Entfernungsmesspunkt entspricht. Die Entfernungsmess-Einheit 15 gibt Daten (nachfolgend als Entfernungsmessdaten bezeichnet) an die Steuereinheit 5, welche die Messpunktentfernungen und die Messpunktrichtungen enthalten.
  • Es ist zu beachten, dass, wie oben beschrieben, die Entfernungsmess-Einheit 15 für jedes Lichtempfangssignal R1 bis RN die Zeit misst auf Basis der Lichtempfangs-Zeitpunkte der reflektierten Wellen, welche das Laserlicht benötigt, zu einem entsprechenden Entfernungsmesspunkt und zurück zum Laserradar 3 zu kommen. Die Entfernungsmess-Einheit 15 kann jeden der Lichtempfangs-Zeitpunkte der reflektierten Wellen auf Basis von, zum Beispiel, einer Änderung des entsprechenden Lichtempfangs-Signals aus R1 bis RN, festlegen.
  • Aus diesem Grund kann die Entfernungsmess-Einheit 15 nicht mindestens einen Lichtempfangs-Zeitpunkt entsprechend mindestens einem Lichtempfangssignal aus R1 bis RN festlegen, weil es eine geringe Änderung in dem entsprechenden mindestens einem der Lichtempfangs-Zeitpunkte aus R1 bis RN durch z. B. ein Störlicht mit hoher Beleuchtungsstärke um den entsprechenden Messpunkt geben kann.
  • Aus diesem Grund, wenn es kein Störlicht mit hoher Beleuchtungsstärke um jeden der Messpunkte gibt, enthalten die Entfernungsmessdaten für jedes Lichtempfangs-Signal aus R1 bis RN die Messpunktentfernung und die Messpunktrichtung des entsprechenden Messpunktes, welcher durch die Entfernungsmess-Einheit 15 festgelegt wurde.
  • Wenn es jedoch ein Störlicht mit hoher Beleuchtungsstärke um mindestens einen Messpunkt gibt, kann die Entfernungsmess-Einheit 15 den Lichtempfangs-Zeitpunkt nicht festlegen, welcher diesem mindestens einen Messpunkt entspricht, d. h. mindestens einen Messpunkt nicht festlegen. Dies führt dazu, dass die Entfernungsmessdaten keine Messpunktentfernung und keine Messpunktrichtung für mindestens eines der Lichtempfangssignale R1 bis RN aufweisen, entsprechend dem mindestens einen nicht festgelegten Messpunkt.
  • (3) Konfiguration der Steuereinheit 5
  • Die Steuereinheit 15 ist hauptsächlich aus einer bekannten Art eines Mikrocomputers konfiguriert, welcher eine CPU 31 und einen Halbleiterspeicher (nachfolgend als Speicher 33 bezeichnet) sowie einen RAM, ROM, Flash-Speicher, etc. aufweist. Beispielsweise enthält der Speicher 33 ein nicht-flüchtiges Speichermedium.
  • Auf dem Speicher 33, beispielsweise dem nicht-flüchtigen Speichermedium, gespeicherte Programme erlauben es oder veranlassen die CPU 31 verschiedene Funktionen der Steuereinheit 5 auszuführen. Mit anderen Worten: Die CPU 31 führt die auf dem Speicher 33 gespeicherten Programme aus, um die verschiedenen Funktionen entsprechend den Anweisungen der Programme auszuführen.
  • Zusätzlich ermöglicht die Ausführung von mindestens einem der Programme ein Verfahren, welches mindestens einem der auszuführenden Programme entspricht. Die Steuereinheit 5 kann aus einem oder einer Vielzahl von Mikrocomputern konfiguriert sein.
  • Wie in 6 gezeigt, weist die Steuereinheit 5 die folgenden Funktionen auf: eine Entfernungsmessdaten-Erfassungseinheit 35, eine Objekterkennungs-Einheit 37, eine Erfassungs-Einheit für die Richtung mit hoher Beleuchtungsstärke 39, eine Korrektur-Einheit 41, eine Beleuchtungsstärken-Erfassungseinheit 43, eine Seitenbestimmungs-Einheit 45, eine Objektabschätzungs-Einheit 47, eine Verfolgungs-Einheit 48, und eine Datenausgabe-Einheit 52. Wie oben beschrieben, führt die CPU 31 ein oder mehrere Programme aus, um die Funktionsmodule 35, 37, 39, 41, 43, 45, 47, 48 und 52 auszuführen, welche jeweils operativ miteinander verbunden sind.
  • Das vorliegende Ausführungsbeispiel setzt die Funktionsmodule auf Basis von Software, d. h. durch Programme, um, kann aber alle oder Teile der Funktionsmodule auch auf Basis einer Hardware-Struktur umsetzten, welche aus Logikschaltungen, Analogschaltungen oder anderen Hardwaremodulen besteht, die miteinander kombiniert sind.
  • Detaillierte Beschreibungen der Funktionsmodule 35, 37, 39, 41, 43, 45, 47, 48 und 52 werden später dargelegt.
  • Zusätzlich ist die Steuereinheit 5 in der Lage, mit einer Fahrunterstützungs-Einheit 51 über ein fahrzeugeigenes Controller Area Network (CAN), welches eine eingetragene Marke ist, zu kommunizieren.
  • (4) Konfiguration des Beleuchtungsstärkensensors 7
  • Wie in 2 gezeigt, ist der Beleuchtungsstärkensensor 7 im Fahrzeuginnenraum des Trägerfahrzeugs 9 nahe der Windschutzscheibe 53 angeordnet. Der Beleuchtungsstärkensensor 7 erfasst die Umgebungsbeleuchtungsstärke des Trägerfahrzeugs 9 und sendet die Erfassungsergebnisse an die Steuereinheit 5.
  • 2. Objekterkennungsroutine
  • Im Folgenden wird eine Objekterkennungsroutine für jedes der Laserradare 3 beschrieben, welche durch die Objekterkennungsvorrichtung 1 unter Bezugnahme auf die 7 bis 14 in zuvor festgelegten Zeitintervallen wiederholt ausgeführt wird.
  • Insbesondere wird die Objekterkennungsroutine durch die Steuereinheit 5 ausgeführt.
  • In Schritt 1 (S1) des aktuellen Zyklus der Objekterkennungsroutine, welcher in 7 gezeigt wird, erlangt die Entfernungsmessdaten-Erfassungseinheit 35 Entfernungsmessdaten von jedem der Laserradare 3, welche Messpunktentfernungen und Messpunktrichtungen aufweisen. Beispielsweise empfängt die Entfernungsmessdaten-Erfassungseinheit 35 Entfernungsmessdaten vom Laserradar 3, welche wiederholt vom Laserradar 3 gesendet werden oder veranlassen jedes der Laserradare 3 wiederholt Entfernungsmessdaten zu erhalten und die Entfernungsmessdaten an die Steuereinheit 5 zu senden.
  • In Schritt 2 entscheidet die Entfernungsmessdaten-Erfassungseinheit 35, ob die Entfernungsmessdaten, welche in Schritt 1 erlangt wurden, einen zuvor festgelegten Bereich umfassen, welcher eine zuvor festgelegte Anzahl der Teilbereiche von A1 bis AN aufweist.
  • Wenn festgestellt wurde, dass die in Schritt 1 erlangten Entfernungsmessdaten, den zuvor festgelegten Bereich umfassen, welcher eine zuvor festgelegte Anzahl an Teilbereichen von A1 bis AN aufweist, wird die Objekterkennungsroutine mit Schritt 3 fortgesetzt.
  • Andernfalls wird bei der Feststellung, dass die in Schritt 1 erfassen Entfernungsmessdaten nicht den zuvor festgelegten Bereich umfassen, welcher eine zuvor festgelegte Anzahl an Teilbereichen von A1 bis AN aufweist (NEIN in Schritt 2), wird die Objekterkennungsroutine mit Schritt 11 fortgesetzt.
  • Das heißt, wie oben beschrieben, wenn es ein Störlicht mit hoher Beleuchtungsstärke um mindestens einen Messpunkt gibt, kann die Entfernungsmess-Einheit 15 den Lichtempfangs-Zeitpunkt nicht festlegen, welcher diesem mindestens einen Messpunkt entspricht, d.h. mindestens einen Messpunkt nicht festlegen. Dies führt dazu, dass die Entfernungsmessdaten keine Messpunktentfernung und keine Messpunktrichtung für mindestens eines der Lichtempfangssingale R1 bis RN, entsprechend dem mindestens einen Messpunkt, aufweisen.
  • In Schritt 3 führt die Objekterkennungs-Einheit 37 eine Erkennungs-Aufgabe durch, um ein Objekt zu erkennen, welches Entfernungsmesspunkte aufweist, wobei die Entfernungsmesspunkte, d. h. deren Messpunktentfernungen und Messpunktrichtungen verwendet werden, welche die in Schritt 1 erhaltenen Entfernungsmessdaten aufweisen. Zum Beispiel führt die Objekterkennungs-Einheit 37 eine Erkennungs-Aufgabe durch, mit den Aufgaben:
    • (1) Erzeugung mindestens eines Clusters, welches Entfernungsmesspunkte aufweist, wobei deren gegenseitige Abstände kleiner als ein Schwellenwert sind
    • (2) Erkennung des mindestens einen Clusters als Objekt, d. h. Erkennung, zum Beispiel, eines horizontal rechteckigen Bereichs als Objekt.
  • Das heißt, der Bereich, welcher durch die Erkennungs-Aufgabe als Objekt erkannt wurde, hat eine zuvor festgelegte Form, ähnlich der tatsächlichen horizontalen Form des Objekts. Beispielsweise hat der Bereich, welcher durch die Erkennungs-Aufgabe als Objekt erkannt wurde, eine horizontal rechteckige Form mit einer Länge parallel zur Fahrtrichtung des Trägerfahrzeugs 9, einer Breite senkrecht zur Längsrichtung und ein Paar Kanten, d. h. Seitenkanten, welche einander in Längsrichtung gegenüber liegen
  • Die 8 und 9 zeigen schematisch ein Beispiel, wie die Erkennungs-Aufgabe ausgeführt werden kann.
  • Wie in 8 gezeigt, wird angenommen, dass es eine Vielzahl an Entfernungsmesspunkten P gibt, welche Abstände zueinander haben, die kleiner als der Schwellenwert sind. Unter dieser Annahme, wie in 9 gezeigt, kombiniert die Erkennungs-Aufgabe die Vielzahl der Entfernungsmesspunkte P in ein Cluster und erkennt das Cluster als Objekt 55, d. h. ein horizontaler rechteckiger Objektbereich 55, auf Basis der Entfernungsmesspunkte P. Das Beispiel der 8 und 9 zeigt, dass eine Vielzahl an Entfernungsmesspunkten P auf der Oberfläche des Zielfahrzeugs 54 als Objektbereich 55 erkannt wurde.
  • Es ist zu beachten, dass in 8 und einigen weiteren Figuren die L-Richtung die Fahrtrichtung des Trägerfahrzeugs 9 bezeichnet, und die W-Richtung die Richtung angibt, welche sich in Breitenrichtung des Trägerfahrzeugs 9 erstreckt und vom Trägerfahrzeug 9 weggerichtet ist.
  • Zurück zu 7, in Schritt 4 erlangt die Beleuchtungsstärken-Erfassungseinheit 43 die Umgebungsbeleuchtungsstärke um das Trägerfahrzeug 9 herum, durch Verwendung des Beleuchtungsstärkensensors 7. Als nächstes entscheidet die Beleuchtungsstärken-Erfassungseinheit 43, ob die erlangte Umgebungsbeleuchtungsstärke gleich oder kleiner als ein zuvor festgelegter Schwellenwert ist. Wenn die Umgebungsbeleuchtungsstärke gleich oder kleiner als ein Schwellenwert bestimmt wird, wird die Objekterkennungsroutine mit Schritt 5 fortgesetzt. Anderenfalls, wenn die Umgebungsbeleuchtungsstärke so bestimmt wird, dass sie einen Schwellenwert überschreitet, wird die Objekterkennungsroutine mit Schritt 9 fortgesetzt.
  • In Schritt 5 erlangt die Erfassungs-Einheit für die Richtung mit hoher Beleuchtungsstärke 39 die Lichtempfangssingale R1 bis RN vom Laserradar 3, während das Lichtausstrahlungs-Element 19 nicht aktiviert wird. Der Zustand, in welchem das Lichtausstrahlungs-Element 19 nicht angetrieben oder aktiviert wird entspricht dem Zustand, in welchem die Lichtempfangs-Einheit 13 keine reflektierten Wellen des Laserlichtes empfängt.
  • In Schritt 5 bestimmt die Erfassungs-Einheit für die Richtung mit hoher Beleuchtungsstärke 39, ob es ein oder mehrere Signale zwischen den Lichtempfangs-Signalen R1 bis RN gibt; das eine oder die Signale, welche eine Signalstärke aufweisen, die einen Schwellenwert überschreitet.
  • Nach der Bestimmung in Schritt 5, dass es ein oder mehrere Signale gibt, sucht die Erfassungs-Einheit für die Richtung mit hoher Beleuchtungsstärke 39 das eine oder mehrere Signale aus den Lichtempfangs-Signalen R1 bis RN als das eine oder mehrere Hohe-Beleuchtungsstärke-Signale aus.
  • Die Erfassungs-Einheit für die Richtung mit hoher Beleuchtungsstärke 39 erkennt die Richtung eines oder mehrerer Bereiche aus den Teilbereichen A1 bis AN als Bereich der Richtung mit hoher Beleuchtungsstärke Q; eines oder mehrere Bereiche entsprechen jeweils dem einen oder den ausgewählten Signalen. Das heißt, der Bereich der Richtung mit hoher Beleuchtungsstärke Q besteht aus den Richtungen eines oder mehrerer Bereiche aus den Teilbereichen A1 bis AN. Beispielsweise erkennt die Erfassungs-Einheit für die Richtung mit hoher Beleuchtungsstärke 39 den Gesamtbereich auf Basis eines oder mehrerer Bereiche jeweils entsprechend dem einen oder mehrerer Hohe-Beleuchtungsstärke-Signale als Bereich der Richtung mit hoher Beleuchtungsstärke Q.
  • Die 8 und 9 zeigen ein Beispiel für solch einen Bereich der Richtung mit hoher Beleuchtungsstärke Q.
  • Die 8 und 9 zeigen ein Beispiel, bei dem der Bereich der Richtung mit hoher Beleuchtungsstärke Q ein Bereich der Richtung ist, in welchem sich die Scheinwerfer 56 des Zielfahrzeugs 54 befinden.
  • In Schritt 6 legt die Korrektur-Einheit 41 fest, ob ein Bereich der Richtung mit hoher Beleuchtungsstärke Q in Schritt 5 erlangt worden ist.
  • Wenn festgelegt wird, dass ein Bereich der Richtung mit hoher Beleuchtungsstärke Q erlangt worden ist (JA in Schritt 6), wird die Objekterkennungsroutine mit Schritt 7 fortgesetzt. Andernfalls, wenn festgelegt wird, dass in Schritt 5 kein Bereich der Richtung mit hoher Beleuchtungsstärke Q erlangt worden ist (NEIN in Schritt 5), wird die Objekterkennungsroutine mit Schritt 9 fortgesetzt.
  • In Schritt 7 legt die Korrektur-Einheit 41 fest, ob der Winkel Θ zwischen der Richtung der näheren Kante des in Schritt 3 erkannten Objektbereichs und dem in Schritt 5 erlangten Bereich der Richtung mit hoher Beleuchtungsstärke Q kleiner als ein zuvor festgelegter Schwellenwert-Winkel ist. Der Zustand, in welchem der Winkel θ kleiner ist als ein zuvor festgelegter Schwellenwert-Winkel stellt zum Beispiel die Tatsache dar, dass die Richtung der näheren Kante des in Schritt 3 erkannten Objektbereichs und dem Bereich der Richtung mit hoher Beleuchtungsstärke Q eine zuvor festgelegte Positionsbeziehung zueinander haben. Das in Schritt 3 erkannte Objekt oder der Objektbereich wird der Einfachheit halber ebenso als Erkennungsobjekt oder Erkennungsobjekt-Bereich bezeichnet. Der Erkennungsobjekt-Bereich entspricht beispielsweise dem Erkennungsbereich des Objekts.
  • Die Richtung der näheren Kante des in Schritt 3 erkannten Objektbereichs ist die Richtung einer Kante des Erkennungsobjekt-Bereichs, welche mit Bezug zum Laserradar 3 näher am Bereich der Richtung mit hoher Beleuchtungsstärke Q liegt.
  • Wenn der in Schritt 3 erkannte Objektbereich eine Länge entlang der Ausdehnungsrichtung des Suchbereichs SF hat, gibt es eine Vielzahl an EntfernungsMesspunkten P entlang des Suchbereichs SF (siehe 8). In diesem Fall entspricht einer der Entfernungs-Messpunkte P, welcher dem Bereich der Richtung mit hoher Beleuchtungsstärke Q am nächsten liegt, der näheren Kante des Erkennungsobjekt-Bereichs; die Richtung der näheren Kante des Erkennungsobjekt-Bereichs stellt die Richtung einer näheren Kante des Erkennungsobjekt-Bereichs 55 mit Bezug zum Laserradar 3 aus 8 dar, welche dem Bereich der Richtung mit hoher Beleuchtungsstärke Q näher liegt, als die andere, gegenüberliegende Kante des Erkennungsobjekt-Bereichs 55.
  • In diesem Fall ist der Winkel θ definiert als Winkel zwischen dem Bereich der Richtung mit hoher Beleuchtungsstärke Q und der Richtung der näheren Kante des Erkennungsobjekt-Bereichs 55, welche näher zum Bereich der Richtung mit hoher Beleuchtungsstärke Q liegt.
  • Wenn der Bereich der Richtung mit hoher Beleuchtungsstärke Q aus vielen Bereichen der Teilbereiche A1 bis AN besteht, hat der Bereich der Richtung mit hoher Beleuchtungsstärke Q eine Länge entlang des Suchbereichs SF (siehe 8). In diesem Fall hat der Bereich der Richtung mit hoher Beleuchtungsstärke Q eine Kante, welche dem Erkennungsobjekt-Bereich am nächsten ist (siehe Erkennungsobjekt-Bereich 55 in 8). In diesem Fall ist der Winkel θ definiert als Winkel zwischen der nächstliegenden Kante des Bereichs der Richtung mit hoher Beleuchtungsstärke Q und der näheren Kante in Richtung des Erkennungsobjekt-Bereichs.
  • Wenn festgestellt wurde, dass der Winkel θ kleiner ist als ein zuvor festgelegter Schwellenwert-Winkel (JA in Schritt 8) fährt die Objekterkennungsroutine mit Schritt 8 fort. Andernfalls, wenn festgestellt wurde, dass der Winkel θ gleich oder größer als der zuvor festgelegte Schwellenwert-Winkel ist (JA in Schritt 8), fährt die Objekterkennungsroutine mit Schritt 9 fort.
  • In Schritt 8 führt eine Korrekturkomponente, bestehend aus der Korrektur-Einheit 41 und der Seitenbestimmungs-Einheit 45 eine Korrekturaufgabe durch, um den Bereich des in Schritt 3 erkannten Objektbereichs zu korrigieren.
  • Wie in 10 gezeigt, ist die Korrekturaufgabe konfiguriert, um den Erkennungsobjekt-Bereich 55 zu korrigieren, d. h. zu erweitern, sodass der korrigierte, d. h. erweiterte Bereich eines Objektes 57, vom Laserradar 3 aus gesehen den Bereich der Richtung mit hoher Beleuchtungsstärke Q einschließt, d. h. enthält. Da das Laserradar 3 auf dem Trägerfahrzeug 9 montiert ist, entspricht die Tatsache, dass das korrigierte Objekt, d. h. der korrigierte Objektbereich 57 vom Laserradar 3 aus betrachtet den Bereich der Richtung mit hoher Beleuchtungsstärke Q einschließt der Tatsache, dass der korrigierte Objektbereich 57 den Bereich der Richtung mit hoher Beleuchtungsstärke Q aus Sicht des Trägerfahrzeugs 9 einschließt.
  • Es ist zu beachten, dass der korrigierte (erweiterte) Objektbereich vom Laserradar 3 aus betrachtet den Bereich der Richtung mit hoher Beleuchtungsstärke Q einschließt, d. h. enthält, was bedeutet, dass der Bereich der Richtung mit hoher Beleuchtungsstärke Q durch den korrigierten Objektbereich verläuft, d h. mit dem korrigierten Objektbereich überlappt; von der vertikalen Richtung des Trägerfahrzeugs 9 aus gesehen (siehe den korrigierten Objektbereich 57 in 10).
  • Die obig genannte Korrekturaufgabe aus Schritt 8 wird als Unterprogramm mit Bezug auf die 11 bis 13 detaillierter beschrieben.
  • In Schritt 21 der 11 legt die Seitenbestimmungs-Einheit 45 fest, ob der in Schritt 3 erkannte Objektbereich und der in Schritt 5 erlangte Bereich der Richtung mit hoher Beleuchtungsstärke Q jeweils die folgenden Bedingungen J1 und J2 erfüllen:
    • J1. Der in Schritt 3 erkannte Objektbereich ist, in Bezug auf das Trägerfahrzeug 9, seitlich positioniert.
    • J2. Der in Schritt 5 erlangte Bereich der Richtung mit hoher Beleuchtungsstärke Q ist weiter als der erkannte Objektbereich aus Schritt 3, entlang der Fahrtrichtung L des Trägerfahrzeugs 9.
  • Es ist zu beachten, dass Positionen, welche in Bezug auf das Trägerfahrzeug 9 in seitlicher Richtung sind, nicht nur Positionen aufweisen, welche in Bezug auf eine Seitenfläche des Trägerfahrzeugs 9 direkt seitlich sind, sondern ebenso Positionen, welche schräg nach hinten und Positionen, welche in Bezug auf eine Seitenfläche des Trägerfahrzeugs 9 diagonal vorne sind.
  • Das Unterprogramm fährt mit Schritt 22 fort, wenn festgelegt wurde, dass beide Bedingungen, J1 und J2, erfüllt werden (JA in Schritt 21). Andernfalls fährt das Unterprogramm mit Schritt 25 fort, wenn festgestellt wurde, dass mindestens eine der Bedingungen J1 und J2 nicht erfüllt wird (NEIN in Schritt 21).
  • In Schritt 22 erweitert die Korrektur-Einheit 41 den in Schritt 3 erkannten Objektbereich in der oben beschriebenen W-Richtung. Zum Beispiel, wie in 12 gezeigt, erweitert die Korrektur-Einheit 41 den Objektbereich 55A, welcher in Schritt 3 in W-Richtung erkannt wurde, d. h. die Richtung entlang der Breitenrichtung des Trägerfahrzeugs 9 und vom Trägerfahrzeug 9 weggerichtet. Die Erweiterung in W-Richtung entspricht der Korrektur des in Schritt 3 erkannten Objektbereichs 55 oder 55A. Das korrigierte Objekt, d. h. der korrigierte Objektbereich, wird in 12 mit dem Bezugszeichen 57A dargestellt.
  • Der Erweiterungs-Betrag ΔW in W-Richtung ist der kleinere aus:
    • (1) Der minimale Erweiterungs-Betrag, welcher notwendig ist, um sicher zu stellen, dass der gesamte Bereich der Richtung mit hoher Beleuchtungsstärke Q aus Sicht des Laserradars 3 in den korrigierten Objektbereich eingeschlossen ist (siehe Bezugszeichen 57 in 10 oder 57A in 12).
    • (2) Der Erweiterungs-Betrag, um den die Breite des korrigierten Objektbereichs 57 oder 57A in W-Richtung erweitert wurde, 2,5 m beträgt.
  • Es ist zu beachten, dass 2,5 m die maximale Breite für die gängigen Fahrzeugausführungen ist, welche durch das japanische Straßen-Transport-Gesetz zugelassen sind, entsprechend, beispielsweise einem zuvor festgelegten ersten oberen Grenzwert. Ein anderer Wert für gängige Fahrzeugausführungen, welcher durch ein Straßenfahrzeug-Gesetz oder ähnliche Regularien in einem der entsprechenden Länder, in welchen die vorliegende Anmeldung eingereicht werden soll, kann als zuvor festgelegter erster oberer Grenzwert verwendet werden.
  • In Schritt 23 entscheidet die Korrektur-Einheit 41, ob aus Sicht des Laserradars 3 der gesamte Bereich der Richtung mit hoher Beleuchtungsstärke von dem korrigierten Objektbereich 57 oder 57A eingeschlossen ist; als Ergebnis der Korrektur von Schritt 22.
  • Wenn festgestellt wird, dass der gesamte Bereich der Richtung mit hoher Beleuchtungsstärke von dem korrigierten Objektbereich 57 oder 57A eingeschlossen ist, endet die Objekterkennungsroutine. Andernfalls, wenn festgestellt wird, dass ein Teil des Bereichs der Richtung mit hoher Beleuchtungsstärke nicht vom korrigierten Objektbereich 57 oder 57A eingeschlossen wird, fährt das Unterprogramm mit Schritt 24 fort.
  • In Schritt 24 korrigiert die Korrektur-Einheit 41 außerdem den Objektbereich 57A, welcher in Schritt 22 korrigiert wurde, durch Erweiterung des korrigierten Objektbereichs 57A in oben beschriebene L-Richtung. Zum Beispiel, wie in 13 gezeigt, erweitert die Korrektur-Einheit 41 den korrigierten Objektbereich 57A in L-Richtung, d. h. in Fahrtrichtung des Trägerfahrzeugs 9. Der weiterkorrigierte Objektbereich wird in 13 mit dem Bezugszeichen 57B dargestellt.
  • Der Erweiterungs-Betrag ΔL in L-Richtung ist der kleinere aus:
    • (1) Der minimale Erweiterungs-Betrag, welcher notwendig ist, um sicher zu stellen, dass aus Sicht des Laserradars 3 der gesamte Bereich der Richtung mit hoher Beleuchtungsstärke Q in den weiterkorrigierten Objektbereich eingeschlossen ist (siehe Bezugszeichen 57B in 13)
    • (2) Der Erweiterungs-Betrag, um den die Länge in Längsrichtung des weiterkorrigierten Objektbereichs 57B in L-Richtung erweitert wurde, 12 m beträgt.
  • Es ist zu beachten, dass 12 m die maximale Länge für die gängigen Fahrzeugausführungen ist, welche durch das japanische Straßen-Transport-Gesetz zugelassen sind, entsprechend beispielsweise einem zuvor festgelegten zweiten oberen Grenzwert. Ein anderer Wert für gängige Fahrzeugausführungen, welcher durch ein Straßen-Fahrzeug-Gesetz oder ähnliche Regularien in einem der entsprechenden Länder, in welchen die vorliegende Anmeldung eingereicht werden soll, kann als zuvor festgelegter zweiter oberer Grenzwert verwendet werden.
  • Wenn der Erweiterung-Vorgang aus Schritt 24 abgeschlossen ist, beendet die Korrektur-Einheit 41 das Unterprogramm, d. h. die Korrekturaufgabe aus Schritt 8, sodass die Objekterkennungsroutine mit Schritt 9 fortfährt.
  • Wie oben beschrieben, fährt das Unterprogramm mit Schritt 25 fort, wenn festgestellt wird, dass mindestens eine der Bedingungen J1 und J2 nicht erfüllt wird (NEIN in Schritt 21).
  • In Schritt 25 erweitert die Korrektur-Einheit 41 den in Schritt 3 erkannten Objektbereich in Richtung des Bereichs der Richtung mit hoher Beleuchtungsstärke Q, sodass der erweiterte Objektbereich aus Sicht des Laserradars 3 den gesamten Bereich der Richtung mit hoher Beleuchtungsstärke Q umfasst. Wenn der Erweiterungsvorgang aus Schritt 25 abgeschlossen ist, beendet die Korrektur-Einheit 41 das Unterprogramm, d. h. die Korrekturaufgabe aus Schritt 8, sodass das Unterprogramm mit Schritt 9 fortfährt.
  • In Schritt 3 kann die Objekterkennungs-Einheit 37 viele Objektbereiche erkennen, welche jeweils entsprechende Entfernungsmesspunkte mit gegenseitigen Abstände aufweisen, die kleiner als der Schwellenwert aus Schritt 3 sind. In diesem Fall führt die Steuereinheit 5 die Vorgänge aus den Schritten 5 bis 7 für jeden der vielen erkannten Objektbereiche aus und stellt auf diese Weise fest, ob der Winkel 9 zwischen der Richtung der näheren Kante eines jeden der vielen in Schritt 3 erkannten Objektbereiche und dem Bereich der Richtung mit hoher Beleuchtungsstärke Q, welcher entsprechend dem jeweiligen der vielen Objektbereiche erlangt wird, kleiner ist als der zuvor festgelegte Schwellenwert-Winkel.
  • Zu diesem Zeitpunkt, wenn festgestellt wird, dass der Winkel 8 zwischen der Richtung der näheren Kante eines jeden der vielen in Schritt 3 erkannten Objektbereiche und dem Bereich der Richtung mit hoher Beleuchtungsstärke Q, welcher entsprechend dem jeweiligen aus den vielen Objektbereichen in Schritt 5 erlangt wurde, kleiner als der zuvor festgelegte Schwellenwert-Winkel ist, ist die Korrektur-Einheit 41 so konfiguriert, dass sie einen der vielen Objektbereiche als Korrekturziel in Schritt 8 wie folgt auswählt.
  • Zum Beispiel, wie in 14A gezeigt, wird bestimmt, dass
    • (1) Der Winkel θ1 zwischen der Richtung der näheren Kante eines in Schritt 3 erlangten ersten Objektbereichs 55C1 und einem Bereich der Richtung mit hoher Beleuchtungsstärke Q1, welcher in Schritt 5 erlangt wurde, kleiner als der zuvor festgelegte Schwellenwert-Winkel ist
    • (2) Der Winkel θ2 zwischen der Richtung der näheren Kante eines in Schritt 3 erlangten zweiten Objektbereichs 55C2 und demselben Bereich der Richtung mit hoher Beleuchtungsstärke Q1 kleiner als der zuvor festgelegte Schwellenwert-Winkel ist
    • (3) Der erste Objektbereich 55C1 in Fahrtrichtung des Trägerfahrzeugs 9 weiter vorne ist als der Bereich der Richtung mit hoher Beleuchtungsstärke Q1 und der zweite Objektbereich 55C2 in Fahrtrichtung des Trägerfahrzeugs weniger weit vorne ist als der Bereich der Richtung mit hoher Beleuchtungsstärke Q1.
  • In diesem Fall, welcher in 14A gezeigt ist, ist die Korrektur-Einheit 41 konfiguriert zur
    • (1) Auswahl des zweiten Objektbereichs 55C2 als Korrekturziel in Schritt 8, weil der zweite Objektbereich 55C2 in Fahrtrichtung des Trägerfahrzeugs 9 weniger weit vorgerückt ist als der Bereich der Richtung mit hoher Beleuchtungsstärke Q1
    • (2) Korrektur, d. h. Erweiterung des ausgewählten zweiten Objektbereichs 55C2, sodass ein erweiterter zweiter Objektbereich 57C2 den Bereich der Richtung mit hoher Beleuchtungsstärke Q1 einschließt, ohne den ersten Objektbereich 55C1 zu korrigieren.
  • Das liegt daran, dass es beispielsweise eine höhere Wahrscheinlichkeit gibt, dass der erste Bereich der Richtung mit hoher Beleuchtungsstärke Q1 auf den Scheinwerfern des zweiten Objektbereichs 57C2 basiert.
  • Zusätzlich ist die Korrektur-Einheit 41 konfiguriert zur
    • (1) Bestimmung, ob es einen zusätzlichen Bereich der Richtung mit hoher Beleuchtungsstärke Q2 gibt, welcher in Fahrtrichtung des Trägerfahrzeugs 9 weiter vorgerückt ist als der erste Objektbereich 55C1.
    • (2) Korrektur, d. h. Erweiterung des ersten Objektbereichs 55C1, sodass ein erweiterter zweiter Objektbereich 57C1 den Bereich der Richtung mit hoher Beleuchtungsstärke Q2 nach der Bestimmung, dass es einen zusätzlichen Bereich der Richtung mit hoher Beleuchtungsstärke Q2 gibt, welcher in Fahrtrichtung des Trägerfahrzeugs 9 weiter vorgerückt ist als der erste Objektbereich 55C1, einschließt (siehe 14B).
  • Das liegt daran, dass es beispielsweise wahrscheinlich ist, dass der Bereich der Richtung mit hoher Beleuchtungsstärke Q2 auf den Scheinwerfern des ersten Objektbereichs 57C1 basiert.
  • Wenn der Erweiterungsvorgang aus Schritt 24 oder Schritt 25 abgeschlossen wurde, beendet die Objekterkennungsroutine das Unterprogramm und fährt mit Schritt 9 fort.
  • In Schritt 9 führt die Verfolgungs-Einheit 48 einen Prozess der Verfolgung aus, d. h. Verknüpfen des in Schritt 3 erkannten Objektbereichs oder des in Schritt 8 korrigierten Objektbereichs des aktuellen Zyklus der Objekterkennungsroutine mit einem zuvor erkannten oder korrigierten Objektbereich aus einem vorherigen Zyklus der Objekterkennungsroutine, wie dem unmittelbar vorhergehenden Zyklus der Objekterkennungsroutine. Der Verknüpfungs-Prozess wird als Verfolgungs-Prozess bezeichnet.
  • Wenn der Verfolgungs-Prozess aus Schritt 9 abgeschlossen ist, fährt die Objekterkennungsroutine mit Schritt 10 fort.
  • Andererseits, wenn bestimmt wird, dass die in Schritt 1 erlangten Entfernungsmessdaten den zuvor festgelegten Bereich einschließlich der zuvor festgelegten Anzahl an Teilbereichen aus A1 bis AN (NEIN in Schritt 2) nicht umfassen, fährt die Objekterkennungsroutine mit Schritt 11 fort.
  • In Schritt 11 erhält die Erfassungs-Einheit für die Richtung mit hoher Beleuchtungsstärke 39 einen Bereich der Richtung mit hoher Beleuchtungsstärke Q in der gleichen Vorgehensweise wie der Vorgang in Schritt 5.
  • Dann, in Schritt 12, bestimmt die Erfassungs-Einheit für die Richtung mit hoher Beleuchtungsstärke 39, ob der gesamte Suchbereich SF mit dem in Schritt 1 erlangten Bereich der Richtung mit hoher Beleuchtungsstärke Q übereinstimmt. In anderen Worten: die Erfassungs-Einheit für die Richtung mit hoher Beleuchtungsstärke 39 bestimmt, ob die in Schritt 1 erlangten Entfernungsmessdaten keine Entfernungsmesspunkte enthalten.
  • Wenn festgestellt wird, dass der gesamte Suchbereich SF im Wesentlichen mit dem in Schritt 11 erlangten Bereich der Richtung mit hoher Beleuchtungsstärke Q übereinstimmt, d. h. die in Schritt 1 erlangten Entfernungsmessdaten keine Entfernungsmesspunkte enthalten (JA in Schritt 12), fährt die Objekterkennungsroutine mit Schritt 13 fort. Andernfalls, wenn festgestellt wird, dass der gesamte Suchbereich SF nicht mit dem in Schritt 11 erlangten Bereich der Richtung mit hoher Beleuchtungsstärke Q übereinstimmt (NEIN in Schritt 12), beendet die Steuereinheit 5 die Objekterkennungsroutine.
  • In Schritt 13 schätzt die Objektabschätzungs-Einheit 47, dass ein Objekt, d. h. ein Objektbereich in zumindest einem Teil des Bereichs der Richtung mit hoher Beleuchtungsstärke Q, d. h. der Suchbereiche SF und danach existiert, anschließend fährt die Objekterkennungsroutine mit Schritt 10 fort.
  • Im Anschluss an den Vorgang aus Schritt 9 oder Schritt 10 gibt die Datenausgabe-Einheit 52 Daten an die Fahrunterstützungs-Einheit 51 aus; die an die Fahrunterstützungs-Einheit 51 auszugebenden Daten weisen die folgenden Inhalte auf:
    • (i) Die Position und Größe des in Schritt 3 erkannten Objekts 55, wenn in Schritt 8 keine Korrektur des erkannten Objekts 55 ausgeführt wird
    • (ii) Die Position und Größe des in Schritt 8 korrigierten Objekts 57, wenn die Korrektur des erkannten Objekts 55 in Schritt 8 ausgeführt wird
    • (iii) Das Ergebnis des zuvor beschriebenen Verfolgungs-Prozesses, welcher in Schritt 9 ausgeführt wird
    • (iv) Das Schätz-Ergebnis aus Schritt 13, wenn geschätzt wird, dass das Objekt in einem Teil des Suchbereichs SF existiert.
  • Beim Empfang der von der Ausgabe-Einheit 52 der Steuereinheit 5 ausgegebenen Daten ist die Fahrunterstützungs-Einheit 51 in der Lage, verschiedene Arten von Fahrunterstützungsaufgaben unter Verwendung der empfangenen Daten auszuführen.
  • Beispielsweise ist die Fahrunterstützungs-Einheit 51 zur Ausführung von zumindest einem der Folgenden in der Lage:
    • (1) Lenkung des Trägerfahrzeugs 9, um eine Kollision oder eine Annäherung des Trägerfahrzeugs 9 zum erkannten Objekt 55 oder zum korrigierten Objekt 57 zu vermeiden
    • (2) Steuerung der Geschwindigkeit des Trägerfahrzeugs 9, wie die Steuerung der Beschleunigung oder der Abbremsung des Trägerfahrzeugs 9, um mindestens den zuvor festgelegten Abstand zwischen dem Trägerfahrzeug 9 und dem erkannten Objekt 55 oder dem korrigierten Objekt 57 beizubehalten.
  • 3. Vorteilhafte Wirkung der Objekterkennungsvorrichtung 1
  • Wenn es eine optische Störung mit hoher Beleuchtungsstärke, wie ein Störlicht mit hoher Beleuchtungsstärke gibt, z. B. Licht von Fahrzeugscheinwerfern um mindestens einen Messpunkt, kann das Laserradar 3 den mindestens einen Messpunkt des zu erkennenden Objekts nicht erhalten. Dies kann dazu führen, dass die Größe des Objekts, welche durch eine konventionelle Objekterkennungsvorrichtung erkannt wird, die im STAND DER TECHNIK der vorliegenden Beschreibung offenbart wurde, kleiner ist als die tatsächliche Größe des Objekts.
  • Im Gegensatz dazu ist die Objekterkennungsvorrichtung 1 so konfiguriert, dass sie den erkannten Bereich des Objekts 55 korrigiert, sodass der korrigierte Bereich des Objekts 55 aus Sicht des Trägerfahrzeugs 9 zumindest einen Teil des Bereichs der Richtung mit hoher Beleuchtungsstärke Q umschließt, unter den folgenden Bedingungen, dass eine zuvor festgelegte Positionsbeziehung zwischen dem Bereich der Richtung mit hoher Beleuchtungsstärke Q und dem erkannten Bereich des Objekts 55 entstanden ist. Diese Konfiguration verhindert, dass die Größe des erkannten Objekts kleiner ist als die tatsächliche Größe des Objekts. Das heißt, die Objekterkennungsvorrichtung 1 erkennt Objekte mit einer höheren Genauigkeit durch Reduzierung der nachteiligen Effekte von optischen Störungen mit hoher Beleuchtungsstärke, wie z. B. einem Störlicht mit hoher Beleuchtungsstärke.
  • Die Bedingungen für die Objekterkennungsvorrichtung 1 zur Korrektur des erkannten Bereichs des Objekts 55 umfasst beispielsweise, dass der Winkel θ zwischen der Richtung der näheren Kante des Erkennungsobjekt-Bereichs 55 und dem Bereich der Richtung mit hoher Beleuchtungsstärke Q kleiner ist als ein zuvor festgelegter Schwellenwert-Winkel.
  • Dies ermöglicht es der Objekterkennungsvorrichtung 1
    • (1) Den Erkennungsobjekt-Bereich zu korrigieren, wenn eine hohe Wahrscheinlichkeit besteht, dass ein aktuell zu erkennendes Objekt sich zumindest teilweise im Bereich der Richtung mit hoher Beleuchtungsstärke Q befindet
    • (2) Den Erkennungsobjekt-Bereich nicht zu korrigieren, wenn eine hohe Wahrscheinlichkeit besteht, dass das aktuell zu erkennende Objekt sich nicht im Bereich der Richtung mit hoher Beleuchtungsstärke Q befindet.
  • Wenn die Umgebungsbeleuchtungsstärke um das Trägerfahrzeug 9 unterhalb des Schwellenwertes ist, besteht eine hohe Wahrscheinlichkeit, dass die Scheinwerfer eines oder mehrerer Fremdfahrzeuge im Umfeld des Trägerfahrzeugs 9 eingeschaltet werden.
  • Angesichts dieser Umstände umfassen die Bedingungen der Objekterkennungsvorrichtung 1 für die Korrektur des Erkennungsobjekt-Bereichs, beispielsweise, dass die Umgebungsbeleuchtungsstärke um das Trägerfahrzeug 9 kleiner ist als der Schwellenwert.
  • Dies ermöglicht es der Objekterkennungsvorrichtung 1
    • (1) den Erkennungsobjekt-Bereich zu korrigieren, wenn eine hohe Wahrscheinlichkeit besteht, dass das Laserradar 3 nicht mindestens einen Messpunkt von einem zu erkennenden Objekt enthalten kann
    • (2) den Erkennungsobjekt-Bereich nicht zu korrigieren, wenn eine geringe Wahrscheinlichkeit besteht, dass das Laserradar 3 nicht mindestens einen Messpunkt von einem zu erkennenden Objekt enthalten kann.
  • Die Objekterkennungsvorrichtung 1 ist so konfiguriert, dass sie bestimmt, ob der Erkennungsobjekt-Bereich und der Bereich der Richtung mit hoher Beleuchtungsstärke Q jeweils die folgenden Bedingungen J1 und J2 erfüllen:
    • J1. Der Erkennungsobjekt-Bereich ist in Bezug auf das Trägerfahrzeug 9 seitlich positioniert
    • J2. Der Bereich der Richtung mit hoher Beleuchtungsstärke Q geht entlang der Fahrtrichtung L des Trägerfahrzeugs 9 weiter als der Erkennungsobjekt-Bereich
  • Die Situation, in welcher die Bedingungen J1 und J2 erfüllt sind, zeigt eine spezielle Situation, in welcher eine hohe Wahrscheinlichkeit besteht, dass
    • (1) Es ein Fremdfahrzeug gibt, das seitlich des Trägerfahrzeugs 9 fährt, welches als Seiten-Fahrzeug bezeichnet wird
    • (2) Der Bereich der Richtung mit hoher Beleuchtungsstärke Q auf den Scheinwerfern des Seiten-Fahrzeugs basiert.
  • Diese spezielle Situation führt dazu, dass eine Wahrscheinlichkeit besteht, dass das Laserradar 3 aufgrund den Richtungen mit hoher Beleuchtungsstärke Q des Störlichts mit hoher Beleuchtungsstärke von den Scheinwerfern des Seiten-Fahrzeugs nicht mindestens einen Messpunkt von einem Teil des Seiten-Fahrzeugs erhält.
  • Um diese Situation zu lösen, in der die Bedingungen J1 und J2 erfüllt sind, ist die Objekterkennungsvorrichtung 1 konfiguriert zur
    • (1) Bestimmung, ob die Bedingungen J1 und J2 erfüllt sind
    • (2) Korrektur des Erkennungsobjekt-Bereichs, wenn bestimmt wird, dass die Bedingungen J1 und J2 erfüllt sind.
  • Insbesondere ist die Objekterkennungsvorrichtung 1 konfiguriert, um den Erkennungsobjekt-Bereich 55, welcher Teil des Seiten-Fahrzeugs ist, als Korrektur in W-Richtung und in L-Richtung zu erweitern. Diese Konfiguration ermöglicht es der Objekterkennungsvorrichtung 1 das Seiten-Fahrzeug mit höherer Genauigkeit zu erkennen.
  • Die Objekterkennungsvorrichtung 1 ist konfiguriert, um den Erkennungsobjekt-Bereich in jede der Richtungen W und L zu erweitern, sodass der Erweiterungs-Betrag des Erkennungsobjekt-Bereichs gleich oder kleiner dem entsprechenden ersten oder zweiten oberen Grenzwert ist.
  • Diese Konfiguration verhindert eine Erweiterung des Erkennungsobjekt-Bereichs über die tatsächliche Größe des Objekts 55 hinaus.
  • Wenn die Gesamtheit des tatsächlichen Objekts mit dem Bereich der Richtung mit hoher Beleuchtungsstärke Q überlappt, kann die Objekterkennungsvorrichtung 1 keine Entfernungsmesspunkte vom tatsächlichen Objekt erlangen, auch wenn das tatsächliche Objekt um das Trägerfahrzeug 9 herum existiert.
  • Um eine solche Situation zu lösen ist die Objekterkennungsvorrichtung 1 zur Schätzung konfiguriert, dass ein Objektbereich in zumindest einem Teil des Bereichs der Richtung mit hoher Beleuchtungsstärke Q existiert, nach der Bestimmung, dass der gesamte Suchbereich SF mit dem Bereich der Richtung mit hoher Beleuchtungsstärke Q übereinstimmt, d. h. die Entfernungsmessdaten keine Entfernungsmesspunkte enthalten.
  • Diese Konfiguration ermöglicht die Existenz eines zu erkennenden Objekts, obwohl keine Entfernungsmesspunkte von dem Objekt erhalten werden.
  • Abwandlungen
  • Die vorliegende Erfindung ist nicht auf das vorliegende Ausführungsbeispiel beschränkt und kann im Rahmen der vorliegenden Erfindung variabel abgewandelt werden.
  • Die Objekterkennungsvorrichtung 1 kann die Funktion in Schritt 5 nach Beendigung der Funktion aus Schritt 3 jederzeit ausführen. Das heißt, die Objekterkennungsvorrichtung 1 kann die Funktion aus Schritt 3 unabhängig von der Umgebungsbeleuchtungsstärke um das Trägerfahrzeug 9 ausführen.
  • Nach dem Vorgang von Schritt 21 kann die Korrektur-Einheit 41 den in Schritt 3 erkannten Objektbereich in L-Richtung erweitern (siehe Schritt 24). Danach kann die Korrektur-Einheit 41 den korrigierten Objektbereich in W-Richtung erweitern (siehe Schritt 22), wenn bestimmt ist, dass ein Teil des Bereichs der Richtung mit hoher Beleuchtungsstärke Q nicht von dem korrigierten Objektbereich eingeschlossen ist (siehe Schritt 23).
  • In Schritt 12 kann die Erfassungs-Einheit für die Richtung mit hoher Beleuchtungsstärke 39 bestimmen, ob zumindest ein zuvor festgelegter Schwellen-Prozentsatz des Suchbereichs SF mit dem in Schritt 11 erlangten Bereich der Richtung mit hoher Beleuchtungsstärke Q übereinstimmt. Die Erfassungs-Einheit für die Richtung mit hoher Beleuchtungsstärke 39 führt eine bestätigende Bestimmung aus, wenn zumindest ein zuvor festgelegter Prozentsatz des Suchbereichs SF mit dem Bereich der Richtung mit hoher Beleuchtungsstärke Q übereinstimmt und führt eine ablehnende Bestimmung aus, wenn nicht wenigstens ein zuvor festgelegter Prozentsatz des Suchbereichs SF mit dem Bereich der Richtung mit hoher Beleuchtungsstärke Q übereinstimmt.
  • Der Schwellen-Prozentsatz des Suchbereichs SF kann auf 100 Prozent oder einen anderen angemessenen Prozentsatz gesetzt werden.
  • In Schritt 7 kann die Korrektur-Einheit 41 eine von der Bestimmung des vorliegenden Ausführungsbeispiels abweichende Bestimmung ausführen.
  • Insbesondere kann die Korrektur-Einheit 41 bestimmen, ob die Länge einer Linie, welche zwischen einem zuvor festgelegten ersten Punkt der Richtung der näheren Kante des Erkennungsobjekt-Bereichs und einem zuvor festgelegten zweiten Punkt, welcher entgegengesetzt dem ersten Punkt in eine Kantenrichtung des Bereichs der Richtung mit hoher Beleuchtungsstärke Q liegt, welche näher am Erkennungsobjekt-Bereich liegt, kürzer ist als eine zuvor festgelegte Schwellen-Länge.
  • Das heißt, die Korrektur-Einheit 41 führt die Korrekturaufgabe in Schritt 8 aus, wenn bestimmt wird, dass die Linie kürzer als eine zuvor festgelegte Schwellen-Linie ist und sie führt die Korrekturaufgabe in Schritt 8 nicht aus, wenn bestimmt wird, dass die Linie nicht kürzer als die zuvor festgelegte Schwellen-Linie ist.
  • Außerdem kann die Korrektur-Einheit 41 konfiguriert sein zur
    • (1) Verbindung des Erkennungsobjekt-Bereichs mit einem Teil des Bereichs der Richtung mit hoher Beleuchtungsstärke Q; der Teil des Bereichs der Richtung mit hoher Beleuchtungsstärke Q grenzt an den Erkennungsobjekt-Bereich in paralleler Richtung zur Längsrichtung des Trägerfahrzeugs 9 an
    • (2) Bestimmung, ob die Form der verbundenen Form des Erkennungsobjekt-Bereichs und dem Teil des Bereichs der Richtung mit hoher Beleuchtungsstärke Q ähnlich der Form eines zuvor festgelegten Teils eines zuvor festgelegten zu erkennenden Objektes ist, wie beispielsweise der Form eines seitlichen, d. h. waagrechten Fahrzeugquerschnitts.
  • Das heißt, die Korrektur-Einheit 41 führt die Korrekturaufgabe in Schritt 8 durch, wenn bestimmt ist, dass die Form der verbundenen Form des Erkennungsobjekt-Bereichs und dem Teil des Bereichs der Richtung mit hoher Beleuchtungsstärke Q ähnlich der Form eines zuvor festgelegten Teils des zuvor festgelegten zu erkennenden Objekts ist. Die Korrektur-Einheit 41 führt die Korrekturaufgabe auch nicht aus, wenn bestimmt ist, dass die Form der verbundenen Form des Erkennungsobjekt-Bereichs und dem Teil des Bereichs der Richtung mit hoher Beleuchtungsstärke der Form des zuvor festgelegten Teils des zu erkennenden Objektes nicht ähnlich ist.
  • Die Objekterkennungsvorrichtung 1 kann ein Element zum Scannen des von der Lichtaustrahlungs-Einheit 11 ausgestrahlten Laserlichts aufweisen. Beispielsweise kann die Objekterkennungsvorrichtung 1, wie das Laserradar 3, zur Verwendung eines Polygonalspiegels, eines Planspiegels, eines MEMS-Spiegels, eines lichtphasengesteuerten Arrays oder dergleichen konfiguriert sein, als Abtastelement zur
    • (1) Änderung der Richtung des von der Lichtausstrahlungs-Einheit 11 ausgestrahlten Laserlichts, um reflektiertes Licht für jede der geänderten Richtungen des ausgestrahlten Laserlichts zu empfangen, wodurch Lichtempfangs-Signale erhalten werden
    • (2) Berechnung der Entfernung eines entsprechenden Entfernungsmesspunkts und Abschätzung der Richtung des Entfernungsmesspunktes aus Sicht der Lichtausstrahlungs-Einheit 11 für jedes der Lichtempfangs-Signale, wodurch die Entfernungsmesspunkte für die jeweiligen Lichtempfangs-Signale spezifiziert werden.
  • Die Entfernungsmess-Einheit 15 ist konfiguriert zur
    • (1) Messung der Zeit für jedes der Lichtempfangs-Signale R1 bis RN, die das Laserlicht benötigt, um die Entfernung zu dem entsprechenden Entfernungsmesspunkt und zurück zum Laserradar 3 zurückzulegen.
    • (2) Berechnung der Messpunktentfernung des Laserradars 3 zu jedem der Entfernungsmesspunkte auf Basis der vom Laserlicht benötigten Zeit, um zum Entfernungsmesspunkt und zurück zum Laserradar 3 zu gelangen.
  • Die vorliegende Erfindung ist jedoch nicht auf diese Konfiguration beschränkt.
  • Insbesondere kann die Entfernungsmess-Einheit 15 konfiguriert sein zur
    • (1) Messung der Phasendifferenz für jedes der Lichtempfangs-Signale R1 bis RN zwischen dem Laserlicht und einem Echo auf Basis der Reflektion des Laserlichts von einem entsprechenden Entfernungsmesspunkt
    • (2) Berechnung der Messpunktentfernung vom Laserradar 3 zu jedem der Entfernungsmesspunkte auf Basis der gemessenen Phasendifferenz für das entsprechende Lichtempfangs-Signal aus R1 bis RN.
  • Die Funktionen eines Elements aus dem vorliegenden Ausführungsbeispiel können auf mehrere Elemente verteilt sein und die von mehreren Elementen aufgewiesenen Funktionen können zu einem Element zusammengefasst werden. Zumindest ein Teil der Struktur des vorliegenden Ausführungsbeispiels kann durch eine bekannte Struktur ersetzt werden, welche dieselbe Funktion wie der zumindest eine Teil der Struktur des vorliegenden Ausführungsbeispiels aufweist. Ein Teil der Struktur des vorliegenden Ausführungsbeispiels kann eliminiert werden, solange die verbleibende Struktur des vorliegenden Ausführungsbeispiels in der Lage ist, das Problem zu lösen.
  • Zumindest ein Teil der Struktur des vorliegenden Ausführungsbeispiels kann zu der Struktur der Abwandlungen hinzugefügt oder durch sie ersetzt werden. Alle Aspekte, die die technologischen Ideen aufweisen, welche durch die Ansprüche spezifiziert sind, stellen Ausführungsbeispiele der vorliegenden Erfindung dar.
  • Die vorliegende Erfindung kann zusätzlich zur Objekterkennungsvorrichtung 1 durch verschiedene Ausführungsbeispiele umgesetzt werden; die verschiedenen Abwandlungen weisen Programme zum Betreiben eines Computers auf, welcher dadurch als Steuereinheit 5, Speichermedium zur Speicherung der Programme und Objekterkennungsverfahren dient.

Claims (9)

  1. Objekterkennungsvorrichtung (1), welche an einem Fahrzeug (9) anordenbar ist, wobei die Objekterkennungsvorrichtung (1) aufweist: eine Lichtausstrahlungs-Einheit (11) zur Ausstrahlung von Laserlicht; eine Lichtempfangs-Einheit (13) zum Empfang von reflektierten Wellen, wobei die reflektierten Wellen auf der Reflektion des Laserlichts von entsprechenden Entfernungsmesspunkten auf einem zu erkennenden Objekt basieren; eine Entfernungsberechnungs-Einheit (15a1), welche auf Basis der entsprechenden der reflektierten Wellen die Entfernung zu jedem der Entfernungsmesspunkte berechnet; eine Richtungsabschätzungs-Einheit (15a2), welche auf Basis der reflektierten Wellen die Richtung eines jeden Entfernungsmesspunktes bezüglich des Fahrzeugs (9) abschätzt; eine Objekterkennungs-Einheit (37), welche auf Basis der Entfernungsmesspunkte einen zuvor festgelegten Erkennungsbereich des zu erkennenden Objekts erkennt; eine Erfassungs-Einheit (39) für die Richtung mit hoher Beleuchtungsstärke, welche als Bereich der Richtung mit hoher Beleuchtungsstärke einen Bereich mit zumindest einer Richtung mit hoher Beleuchtungsstärke erlangt, wobei die zumindest eine Richtung mit hoher Beleuchtungsstärke eine Richtung ist, aus welcher eine durch die Lichtempfangs-Einheit (13) empfangene Lichtintensität gleich oder größer als ein zuvor festgelegter Schwellenwert ist, während keine reflektierten Wellen durch die Lichtempfangs-Einheit (13) empfangen werden; und eine Korrektur-Einheit (41), welche eine Korrekturaufgabe zur Korrektur eines Erkennungsbereichs des Objekts ausführt, sodass aus Sicht des Fahrzeugs (9) ein korrigierter Erkennungsbereich des Objekts zumindest einen Teil des Bereichs der Richtung mit hoher Beleuchtungsstärke aufweist, unter der Bedingung, dass: der Erkennungsbereich des Objekts und der Bereich der Richtung mit hoher Beleuchtungsstärke eine zuvor festgelegte Positionsbeziehung zueinander haben.
  2. Objekterkennungsvorrichtung (1) nach Anspruch 1, wobei: der Erkennungsbereich des Objekts eine erste und eine zweite Kante aufweist, welche parallel zur Längsrichtung des Fahrzeugs (9) sind, wobei die erste Kante näher am Bereich der Richtung mit hoher Beleuchtungsstärke liegt als die zweite Kante; und ein Winkel, welcher zwischen der ersten Kante des Erkennungsbereichs des Objekts und dem Bereich der Richtung mit hoher Beleuchtungsstärke gebildet wird, kleiner als ein zuvor festgelegter Schwellenwert-Winkel ist.
  3. Objekterkennungsvorrichtung (1) nach Anspruch 1, wobei: der Erkennungsbereich des Objekts eine erste und eine zweite Kante aufweist, welche parallel zur Längsrichtung des Fahrzeugs (9) sind, wobei die erste Kante näher am Bereich der Richtung mit hoher Beleuchtungsstärke liegt, als die zweite Kante; die zumindest eine Richtung mit hoher Beleuchtungsstärke eine Vielzahl an Richtungen mit hoher Beleuchtungsstärke aufweist, wobei die Vielzahl an Richtungen mit hoher Beleuchtungsstärke eine erste und eine zweite Kantenrichtung in Parallelrichtung zur Längsrichtung des Fahrzeugs (9) aufweisen und die ersten Kantenrichtung näher am Erkennungsbereich des Objekts liegt als die zweite Kantenrichtung; und ein Winkel, welcher zwischen der ersten Kante des Erkennungsbereichs des Objekts und der ersten Kantenrichtung des Bereichs der Richtung mit hoher Beleuchtungsstärke gebildet wird, kleiner als ein zuvor festgelegter Schwellenwert-Winkel ist.
  4. Objekterkennungsvorrichtung (1) nach Anspruch 1, weiterhin mit: einer Beleuchtungsstärken-Erfassungseinheit (43), welche die Umgebungsbeleuchtungsstärke um das Fahrzeug (9) erlangt, wobei die Korrektur-Einheit (41) die Korrekturaufgabe unter der Bedingung ausführt, dass die durch die Beleuchtungsstärken-Erfassungseinheit (43) erlangte Beleuchtungsstärke kleiner als ein zuvor festgelegter Schwellenwert ist.
  5. Objekterkennungsvorrichtung (1) nach Anspruch 1, weiterhin mit einer Seitenbestimmungs-Einheit (45), welche: bestimmt, ob eine erste Bedingung und eine zweite Bedingung erfüllt sind, die erste Bedingung ist, dass der Erkennungsbereich des Objekts gegenüber dem Fahrzeug (9) seitlich positioniert ist, die zweite Bedingung ist, dass der Bereich der Richtung mit hoher Beleuchtungsstärke entlang der Fahrtrichtung des Fahrzeugs (9) weiter als der Erkennungsbereich des Objekts ist; und bestimmt, ob der Erkennungsbereich des durch eine Objekterkennungs-Einheit (37) erkannten Objekts in Bezug auf das Fahrzeug (9) einem Seiten-Fahrzeug entspricht, nach der Bestimmung, dass die erste und die zweite Bedingung erfüllt sind.
  6. Objekterkennungsvorrichtung (1) nach Anspruch 5, wobei: die Korrektur-Einheit (41) als Korrekturaufgabe zur Erweiterung des Erkennungsbereichs des Objekts zumindest in Fahrtrichtung des Fahrzeugs (9) oder in Breitenrichtung des Fahrzeugs (9) konfiguriert ist, wenn die Seitenbestimmungs-Einheit (45) bestimmt, dass der durch die Objekterkennungs-Einheit (37) erkannte Erkennungsbereich des Objekts dem Seiten-Fahrzeug entspricht.
  7. Objekterkennungsvorrichtung (1) nach Anspruch 6, wobei: die Korrektur-Einheit (41) zur Erweiterung des Erkennungsbereichs des Objekts zumindest in Fahrtrichtung des Fahrzeugs (9) oder in Breitenrichtung des Fahrzeugs (9) konfiguriert ist, sodass ein Erweiterungsbetrag des Erkennungsobjekt-Bereichs gleich oder kleiner als eine zuvor festgelegte Obergrenze ist.
  8. Objekterkennungsvorrichtung (1) nach Anspruch 1, weiterhin mit: einer Objektabschätzungs-Einheit (47), welche schätzt, dass das zu erkennende Objekt in zumindest einem Teil des Bereichs der Richtung mit hoher Beleuchtungsstärke existiert, wenn die Objekterkennungs-Einheit (37) den Erkennungsbereich des zu erkennenden Objekts nicht erkennt und die Erfassungs-Einheit (39) für die Richtung mit hoher Beleuchtungsstärke den Bereich der Richtung mit hoher Beleuchtungsstärke erlangt.
  9. Objekterkennungsverfahren, wobei das Verfahren aufweist: Ausstrahlung von Laserlicht unter Verwendung einer Lichtausstrahlungs-Einheit (11); Empfang von reflektierten Wellen, wobei die reflektierten Wellen auf der Reflektion des Laserlichts von entsprechenden Entfernungsmesspunkten auf dem zu erkennenden Objekt basieren; Berechnung der Entfernung zu jedem der Entfernungsmesspunkte auf Basis der entsprechenden der reflektierten Wellen; Schätzung der Richtung eines jeden Entfernungsmesspunktes in Bezug auf das Fahrzeug (9) auf Basis der reflektierten Wellen; Erkennung eines zuvor festgelegten Erkennungsbereichs des zu erkennenden Objekts auf Basis der Entfernungsmesspunkte; Erlangung eines Bereichs mit zumindest einer Richtung mit hoher Beleuchtungsstärke als Bereich der Richtung mit hoher Beleuchtungsstärke, wobei die zumindest eine Richtung mit hoher Beleuchtungsstärke eine Richtung ist, aus welcher eine Lichtintensität, die durch die Lichtempfangs-Einheit (13) empfangen wird, gleich oder größer als ein zuvor festgelegter Schwellenwert ist, ohne dass die reflektierten Wellen durch die Lichtempfangs-Einheit (13) empfangen werden; und Korrektur des Erkennungsbereichs des Objekts, sodass aus Sicht des Fahrzeuges (9) der korrigierte Erkennungsbereich des Objekts zumindest einen Teil des Bereichs der Richtung mit hoher Beleuchtungsstärke aufweist, unter der Bedingung, dass: der Erkennungsbereich des Objekts und der Bereich der Richtung mit hoher Beleuchtungsstärke eine zuvor festgelegte Positionsbeziehung zueinander haben.
DE102017202891.2A 2016-02-23 2017-02-22 Objekterkennungsvorrichtung und Objekterkennungsverfahren Active DE102017202891B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016032222A JP6645254B2 (ja) 2016-02-23 2016-02-23 物体認識装置
JP2016-032222 2016-02-23

Publications (2)

Publication Number Publication Date
DE102017202891A1 DE102017202891A1 (de) 2017-08-24
DE102017202891B4 true DE102017202891B4 (de) 2024-06-06

Family

ID=59522547

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017202891.2A Active DE102017202891B4 (de) 2016-02-23 2017-02-22 Objekterkennungsvorrichtung und Objekterkennungsverfahren

Country Status (3)

Country Link
US (1) US10422878B2 (de)
JP (1) JP6645254B2 (de)
DE (1) DE102017202891B4 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11106030B2 (en) * 2016-05-11 2021-08-31 Texas Instruments Incorporated Optical distance measurement system using solid state beam steering
JP7103759B2 (ja) * 2017-06-16 2022-07-20 株式会社デンソーウェーブ 車両認識装置、車両認識システム、車両認識プログラム
JP7192420B2 (ja) * 2018-11-14 2022-12-20 株式会社デンソー レーザレーダ装置
CN109741634B (zh) * 2019-03-02 2020-10-13 安徽超远信息技术有限公司 笔直路段内事故现场警戒区域防撞入预警方法及装置
JP7095640B2 (ja) * 2019-03-28 2022-07-05 株式会社デンソー 物体検出装置
GB202311797D0 (en) * 2019-09-13 2023-09-13 Motional Ad Llc Extended object tracking using radar

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011191227A (ja) 2010-03-16 2011-09-29 Daihatsu Motor Co Ltd 物体認識装置
DE102011078685A1 (de) 2010-07-05 2012-04-05 Denso Corporation Straßenseitenerfassungssystem, Fahrassistenzsystem und Straßenseitenerfassungsverfahren
JP2013092459A (ja) 2011-10-26 2013-05-16 Denso Corp 距離測定装置、および距離測定プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60181684A (ja) 1984-02-29 1985-09-17 株式会社東芝 制御棒駆動機構
DE10002069C2 (de) * 2000-01-18 2002-01-24 Daimler Chrysler Ag Anordnung zur Verbesserung der Sicht in Fahrzeugen
JP4719996B2 (ja) 2001-03-30 2011-07-06 日産自動車株式会社 物体検知装置
JP4253271B2 (ja) * 2003-08-11 2009-04-08 株式会社日立製作所 画像処理システム及び車両制御システム
JP2007104171A (ja) * 2005-10-03 2007-04-19 Omron Corp 前方監視装置
JP2009044631A (ja) 2007-08-10 2009-02-26 Toyota Motor Corp 物体検出装置
JP5019117B2 (ja) 2007-11-14 2012-09-05 スタンレー電気株式会社 距離画像生成装置
JP5246430B2 (ja) 2009-08-19 2013-07-24 株式会社Ihi 障害物検知方法及び装置
JP2012173230A (ja) * 2011-02-24 2012-09-10 Daihatsu Motor Co Ltd 物体認識装置
JP5949451B2 (ja) 2012-10-30 2016-07-06 株式会社デンソー 軸ずれ判定装置
JP6391348B2 (ja) 2014-07-29 2018-09-19 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
EP4194888A1 (de) * 2016-09-20 2023-06-14 Innoviz Technologies Ltd. Lidar-systeme und -verfahren

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011191227A (ja) 2010-03-16 2011-09-29 Daihatsu Motor Co Ltd 物体認識装置
DE102011078685A1 (de) 2010-07-05 2012-04-05 Denso Corporation Straßenseitenerfassungssystem, Fahrassistenzsystem und Straßenseitenerfassungsverfahren
JP2013092459A (ja) 2011-10-26 2013-05-16 Denso Corp 距離測定装置、および距離測定プログラム

Also Published As

Publication number Publication date
US20170242125A1 (en) 2017-08-24
JP6645254B2 (ja) 2020-02-14
DE102017202891A1 (de) 2017-08-24
US10422878B2 (en) 2019-09-24
JP2017150895A (ja) 2017-08-31

Similar Documents

Publication Publication Date Title
DE102017202891B4 (de) Objekterkennungsvorrichtung und Objekterkennungsverfahren
DE112015002788B4 (de) Verbesserte Detektion des toten Winkels für ein Fahrzeug mit Anhänger
DE112015004823B4 (de) Fahrzeugobjektermittlungsvorrichtung
DE102016106299B4 (de) Raderfassung und ihre Applikation bei Objektverfolgung und Sensorregistrierung
DE102016106298B4 (de) Fusionsverfahren für eine Querverkehr-Applikation unter Verwenden von Radargeräten und einer Kamera
DE102015105206B4 (de) Verfahren und System zum Detektieren, Verfolgen und Abschätzen von stationären Straßenrandobjekten
DE102009014105B4 (de) Erkennungssystem für ein Fahrzeug
DE112015004817B4 (de) Hinderniswarnvorrichtung
DE112008000797B4 (de) Objekterfassungsvorrichtung
DE102017105305A1 (de) Verfahren zur automatischen bestimmung einer sensorstellung
DE102018218220A1 (de) Steuergerät für ein Fahrzeug
DE112010005977B4 (de) Strassenformschätzvorrichtung
DE102015110446A1 (de) Fahrzeugradar mit Strahlanpassung
DE112015004833T5 (de) Vorrichtung zum überwachen benachbarter spuren
DE102012204441A1 (de) Verfahren und Vorrichtung zur Erkennung eines Verlaufs einer Straße für Fahrzeuge
DE112016007206T5 (de) Parkassistenzvorrichtung
DE102020105642A1 (de) Entwerfen von und verarbeiten mit antennenarrays zur beseitigung von fehldetektionen in einem radarsystem
DE112015003556T5 (de) Fahrassistenzvorrichtung
DE102020203756A1 (de) Autobahnausfahrt-erfassung und linienspiegelung zur fahrzeugtrajektorien-bestimmung
DE102012205293A1 (de) Fahrerunterstützungssystem gegen tote Winkel für den Fahrer
DE102011005727A1 (de) Verfahren und Vorrichtung zur Erfassung von Straßenrändern
DE102012109310A1 (de) Verfahren und Vorrichtung zum Unterstützen des Zurückführens eines Fahrzeugs nach dem Verlassen einer Fahrbahn
DE102018107677A1 (de) Verfahren und Vorrichtung zur Erkennung von Fahrzeugen unter Verwendung einer Laserstrahlabtastung
DE102015101292A1 (de) Verfahren zum Erfassen eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs durch Überprüfen einer räumlichen Abweichung von Messpunkten, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE112010005903T5 (de) Objekterfassungsvorrichtung und Objekterfassungsprogramm

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division