DE112020001507T5 - Objekterfassungsvorrichtung - Google Patents

Objekterfassungsvorrichtung Download PDF

Info

Publication number
DE112020001507T5
DE112020001507T5 DE112020001507.6T DE112020001507T DE112020001507T5 DE 112020001507 T5 DE112020001507 T5 DE 112020001507T5 DE 112020001507 T DE112020001507 T DE 112020001507T DE 112020001507 T5 DE112020001507 T5 DE 112020001507T5
Authority
DE
Germany
Prior art keywords
area
sensors
distance
unit
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112020001507.6T
Other languages
English (en)
Inventor
Jian Kang
Mitsutoshi Morinaga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE112020001507T5 publication Critical patent/DE112020001507T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

Eine Objekterfassungsvorrichtung gemäß einem Aspekt der vorliegenden Erfindung weist eine Bereichsmesseinheit, eine Bereichserlangeinheit, eine Bereichsbestimmeinheit und eine Objekterfassungseinheit auf. In S402 misst die Bereichsmesseinheit auf Grundlage des Erfassungsergebnisses von mindestens einem ersten Sensor zum Erfassen mindestens des Azimuts eines Objekts mindestens einen Azimutbereich, in dem das Objekt anwesend ist, als einen Objektanwesenheitsbereich. In S404 erlangt die Bereichserlangeinheit einen gemeinsamen Bereich, der die Überlappung zwischen einem Erfassungsbereich, in dem der erste Sensor die Position des Objekts erfassen kann, und einem Erfassungsbereich, in dem eine Vielzahl von zweiten Sensoren zum Erfassen des Abstands zu einem Objekt die Position des Objekts erfassen kann, ist. In S404 bestimmt die Bereichsbestimmeinheit, ob der Objektanwesenheitsbereich und der gemeinsame Bereich miteinander überlappen. In S406, wenn der Objektanwesenheitsbereich und der gemeinsame Bereich miteinander überlappen, erfasst die Objekterfassungseinheit die Position des Objekts innerhalb des Objektanwesenheitsbereichs auf Grundlage der von den zweiten Sensoren erfassten Abstände zwischen den zweiten Sensoren und dem Objekt.

Description

  • Querverweis auf verwandte Anmeldungen
  • Diese internationale Anmeldung basiert auf der früheren japanischen Patentanmeldung Nr. 2019-060887 , die am 27. März 2019 beim japanischen Patentamt eingereicht wurde, und beansprucht deren Priorität; der gesamte Inhalt davon ist hier durch Bezugnahme aufgenommen.
  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine Technik zum Erfassen der Position eines Objekts.
  • Stand der Technik
  • Ein Beispiel für eine Technik zum Erfassen der Position eines Objekts ist in Patentliteratur 1 beschrieben. Bei dieser Technik messen zwei unterschiedliche Sensorpaare aus drei oder mehr Sensoren jeweils die Zeitdifferenz einer Ankunft von Funkwellen von einem Objekt, und die Position des Objekts wird auf Grundlage der Tatsache erfasst, dass die Zeitdifferenz einer Ankunft für jedes Paar durch den Abstandsunterschied zwischen den Sensoren und dem Objekt verursacht wird.
  • Wenn die Position eines Objekts auf Grundlage der Zeitdifferenz einer Ankunft, die von den Sensoren jedes Paars gemessen wird, erfasst wird, kann jedes Sensorpaar eine Vielzahl unterschiedlicher Zeitdifferenzen einer Ankunft aufgrund von Interferenzen zwischen einer Vielzahl von Signalen oder aufgrund von Rauschen messen, das in dem Empfänger, der die Sensoren aufweist, verursacht wird.
  • Bei der in Patentliteratur 1 beschriebenen Technik werden, wenn jedes Sensorpaar unterschiedliche Zeitdifferenzen einer Ankunft in Bezug auf einen Referenzsensor misst, die von den anderen Sensoren empfangenen Funkwellensignale um die Zeitdifferenzen einer Ankunft verschoben, und das innere Produkt der verschobenen Funkwellensignale wird berechnet. Für Funkwellensignale mit den korrekten Zeitdifferenzen einer Ankunft, wenn die Funkwellensignale um die Zeitdifferenzen einer Ankunft verschoben werden, sind die resultierenden Signale Funkwellensignale, die für jedes Sensorpaar zur gleichen Zeit ankommen. Somit ist ihr inneres Produkt höher als das innere Produkt von Funkwellensignalen, die andere Zeitdifferenzen einer Ankunft aufweisen.
  • Die in Patentliteratur 1 beschriebene Technik ist dafür vorgesehen, die Position eines Objekts auf Grundlage der Zeitdifferenzen einer Ankunft einer Kombination von hochkorrelierten Funkwellensignalen zu erfassen, die ein hohes inneres Produkt bereitstellen.
  • Außerdem ist es bekannt, dass der Abstand zu einem Objekt mit einer Vielzahl von zweiten Sensoren erfasst wird und ein Schnittpunkt von Kreisen mit den Zentren an den zweiten Sensoren und ein Radius des gemessenen Abstands wird als Position des Objekts erfasst.
  • Zitierliste
  • Patentliteratur
  • [Patentliteratur 1] JP 2014 - 44 160 A
  • Zusammenfassung der Erfindung
  • Eine durch die Erfinder durchgeführte detaillierte Untersuchung hat jedoch ergeben, dass die in der Patentliteratur 1 beschriebene Technik eine hohe Verarbeitungslast aufweist, da für das Auffinden einer Kombination von hochkorrelierten Funkwellensignalen die Berechnung der inneren Produkte der Kombinationen von Signalen, die von allen Sensorpaaren empfangen wurden, erforderlich ist.
  • Wenn Schnittpunkte von Kreisen mit einem Radius des Abstands zu einem Objekt als Kandidatenpunkte für die Position des Objekts extrahiert werden und die extrahierten Kandidatenpunkte einer Objekterfassung unterzogen werden, führt die Ausführung der Objekterfassung für alle Kandidatenpunkte zusätzlich zu einer hohen Verarbeitungslast der Erfassungsverarbeitung.
  • Gemäß einem Aspekt soll die vorliegende Erfindung eine Technik zum Erfassen der Position eines Objekts mit möglichst geringer Verarbeitungslast bereitstellen.
  • Eine Objekterfassungsvorrichtung gemäß einem Aspekt der vorliegenden Erfindung weist eine Bereichsmesseinheit, eine Bereichserlangeinheit, eine Bereichsbestimmeinheit und eine Objekterfassungseinheit auf.
  • Die Bereichsmesseinheit misst auf Grundlage des Erfassungsergebnisses von mindestens einem ersten Sensor zum Erfassen mindestens des Azimuts eines Objekts mindestens einen Azimutbereich, in dem das Objekt anwesend ist, als einen Objektanwesenheitsbereich, in dem das Objekt anwesend bzw. vorhanden ist. Die Bereichserlangeinheit erlangt einen gemeinsamen Bereich, der die Überlappung zwischen einem Erfassungsbereich, in dem der erste Sensor die Position des Objekts erfassen kann, und einem Erfassungsbereich, in dem eine Vielzahl von zweiten Sensoren zum Erfassen des Abstands zu einem Objekt die Position des Objekts erfassen kann, ist. Die Bereichsbestimmeinheit bestimmt, ob der von der Bereichsmesseinheit gemessene Objektbereich und der von der Bereichserlangeinheit erlangte gemeinsame Bereich miteinander überlappen. Wenn die Bereichsbestimmeinheit bestimmt, dass der Objektanwesenheitsbereich und der gemeinsame Bereich miteinander überlappen bestimmt die Objekterfassungseinheit die Position des Objekts innerhalb des Objektanwesenheitsbereichs auf Grundlage der von den zweiten Sensoren erfassten Abstände zwischen den zweiten Sensoren und dem Objekt.
  • Diese Konfiguration ermöglicht es, auf Grundlage des Erfassungsergebnisses des ersten Sensors zumindest einen Azimutbereich, in dem das Objekt anwesend ist, als einen Objektanwesenheitsbereich zu definieren, in dem das Objekt anwesend ist. Wenn dann der Objektanwesenheitsbereich mit dem gemeinsamen Bereich, der die Überlappung zwischen dem Erfassungsbereich des ersten Sensors und dem Erfassungsbereich der zweiten Sensoren ist, überlappt, wird die Position des Objekts innerhalb des Objektanwesenheitsbereichs auf Grundlage des von jedem der zweiten Sensoren erfassten Abstands zwischen dem zweiten Sensor und dem Objekt erfasst.
  • Mit diesem Verfahren ist es nicht erforderlich, die Position des Objekts außerhalb des Objektanwesenheitsbereichs innerhalb des Erfassungsbereichs der zweiten Sensoren auf Grundlage der von den zweiten Sensoren erfassten Abstände zu erfassen. Dadurch lässt sich die Verarbeitungslast zum Erfassen der Position des Objekts auf Grundlage der von den zweiten Sensoren erfassten Abstände verringern.
  • Figurenliste
    • 1 ist ein Blockdiagramm einer Objekterfassungsvorrichtung gemäß einer ersten Ausführungsform;
    • 2 ist ein Ablaufdiagramm der Objekterfassungsverarbeitung;
    • 3 ist ein schematisches Diagramm, das einen ersten Sensor darstellt, der den Azimut eines Objekts erfasst;
    • 4 ist ein Diagramm, das den gemeinsamen Bereich zwischen dem Erfassungsbereich des ersten Sensors und dem Erfassungsbereich der zweiten Sensoren darstellt;
    • 5 ist ein schematisches Diagramm, das die Objekterfassung in einem Objektanwesenheitsbereich darstellt;
    • 6 ist ein Blockdiagramm einer Objekterfassungsvorrichtung gemäß einer zweiten Ausführungsform;
    • 7 ist ein Ablaufdiagramm der Objekterfassungsverarbeitung;
    • 8 ist ein schematisches Diagramm, das eine Objekterfassung in einem mit einem Gitter versehenen Objektanwesenheitsbereich darstellt;
    • 9 ist ein Blockdiagramm einer Objekterfassungsvorrichtung gemäß einer dritten Ausführungsform;
    • 10 ist ein Diagramm, das den gemeinsamen Bereich zwischen dem Erfassungsbereich der ersten Sensoren und dem Erfassungsbereich der zweiten Sensoren darstellt;
    • 11 ist ein schematisches Diagramm, das eine Objekterfassung in einem mit einem Gitter versehenen Objektanwesenheitsbereich darstellt;
    • 12 ist ein schematisches Diagramm, das ein Beispiel für eine Gitteraufteilung gemäß einer vierten Ausführungsform darstellt;
    • 13 ist ein schematisches Diagramm, das ein weiteres Beispiel für eine Gitteraufteilung darstellt;
    • 14 ist ein schematisches Diagramm, das ein Beispiel für eine Gitteraufteilung gemäß einer fünften Ausführungsform darstellt; und
    • 15 ist ein schematisches Diagramm, das ein weiteres Beispiel für eine Gitteraufteilung darstellt.
  • Beschreibung von Ausführungsformen
  • Ausführungsformen der vorliegenden Erfindung werden nun unter Bezugnahme auf die Figuren beschrieben.
  • [1. Erste Ausführungsform]
  • [1-1. Konfiguration]
  • Eine in 1 gezeigte Objekterfassungsvorrichtung 10 ist z.B. in einem sich bewegenden Objekt, wie etwa einem Fahrzeug, installiert und erfasst die Position eines Objekts in der Nähe des sich bewegenden Objekts. Die Objekterfassungsvorrichtung 10 erlangt den Azimut, in dem das Objekt vorhanden ist, von einem ersten Sensor 2, der mindestens den Azimut eines Objekts misst. Der erste Sensor 2 kann ein Sensor sein, der neben dem Azimut des Objekts auch den Abstand zwischen dem ersten Sensor 2 und einem Objekt erfassen kann. Der erste Sensor 2 ist zum Beispiel eine monokulare Kamera oder ein Millimeterwellen-Radar.
  • Die Objekterfassungsvorrichtung 10 erlangt auch von zweiten Sensoren 4, die den Abstand zu einem Objekt erfassen, die Abstände zwischen dem Objekt und den zweiten Sensoren 4. In der ersten Ausführungsform werden ein einzelner erster Sensor 2 und mehrere zweite Sensoren 4 verwendet. In dem Fall, dass der erste Sensor 2 zusätzlich zum Azimut des Objekts auch den Abstand zwischen dem ersten Sensor 2 und einem Objekt erfassen kann, können die zweiten Sensoren 4 den Abstand zum Objekt mit einer höheren Genauigkeit erfassen als die Genauigkeit, mit der der erste Sensor 2 den Abstand zum Objekt erfassen kann. Bei den zweiten Sensoren 4 handelt es sich zum Beispiel um Millimeterwellen-Radare.
  • Die Objekterfassungsvorrichtung 10 ist im Wesentlichen ein Mikrocomputer, der eine CPU, Halbleiterspeicher wie RAM, ROM und Flash-Speicher sowie eine Eingabe-Ausgabe-Schnittstelle aufweist. Nachfolgend werden die Halbleiterspeicher auch einfach als Speicher bezeichnet. Die Objekterfassungsvorrichtung 10 kann einen Mikrocomputer oder eine Vielzahl von Mikrocomputern umfassen.
  • Die Objekterfassungsvorrichtung 10 weist verschiedene Funktionen auf, die von der CPU ausgeführt werden, die Programme ausführt, die in einem nicht-transitorischen greifbaren Speichermedium gespeichert sind. In diesem Beispiel entspricht der Speicher dem nicht-transitorischen greifbaren Speichermedium, in dem die Programme gespeichert sind. Wenn die CPU die Programme ausführt, werden die Verfahren, die den Programmen entsprechen, durchgeführt.
  • Die Objekterfassungsvorrichtung 10 weist eine Bereichsmesseinheit 12, eine Bereichserlangeinheit 14, eine Bereichsbestimmeinheit 16 und eine Objekterfassungseinheit 18 als Komponenten für Funktionen auf, die von der CPU, die die Programme ausführt, implementiert werden. Die Funktionen, die von der Bereichsmesseinheit 12, der Bereichserlangeinheit 14, der Bereichsbestimmeinheit 16 und der Objekterfassungseinheit 18 ausgeführt werden, werden im folgenden Abschnitt über die Verarbeitung im Detail beschrieben.
  • [1-2. Verarbeitung]
  • Eine Objekterfassungsverarbeitung durch die Objekterfassungsvorrichtung 10 wird nun unter Bezugnahme auf das Ablaufdiagramm in 2 beschrieben.
  • In S400 erfasst der erste Sensor 2, wie etwa ein Millimeterwellen-Radar, den Azimut, in dem ein Objekt 200 vorhanden ist, durch ein Strahlabtastverfahren, um, wie in 3 gezeigt, einen vorgegebenen Winkelbereich mit einem Strahl bei jedem vorgegebenen Abtastwinkel abzutasten.
  • In S402 berücksichtigt die Bereichsmesseinheit 12, wie in 3 gezeigt, einen Fehler in dem vom ersten Sensor 2 erfassten Azimut in Bezug auf den vom ersten Sensor 2 erfassten Azimut, in dem das Objekt 200 anwesend ist, und misst einen Azimutbereich, in dem das Objekt 200 anwesend ist, als einen Objektanwesenheitsbereich 300, in dem das Objekt 200 vorhanden ist. Wenn eine Vielzahl von Objekten 200 anwesend ist, wird eine Vielzahl von Objektanwesenheitsbereichen 300 gemessen.
  • In dem Fall, dass der erste Sensor 2 auch einen Abstand erfassen kann, wird ein Fehler in dem vom ersten Sensor 2 erfassten Abstand berücksichtigt, um einen Abstandsbereich zu messen, und der durch gestrichelte Linien angegebene Überschneidungsbereich zwischen dem Azimutbereich und dem Abstandsbereich kann als Objektanwesenheitsbereich 302 gemessen werden.
  • In S404 erlangt die Bereichserlangeinheit 14, wie in 4 dargestellt, einen gemeinsamen Bereich 320, der die Überlappung zwischen einem Erfassungsbereich 310, in dem der erste Sensor 2 die Position eines Objekts 200 erfassen kann, und einem Erfassungsbereich 312, in dem die zweiten Sensoren 4 die Position eines Objekts 200 erfassen können, darstellt.
  • Im Erfassungsbereich 310 des ersten Sensors 2 bezieht sich der maximale Bereich in Abstandsrichtung vom ersten Sensor 2 zu einem Objekt 200 auf die Grenzen, innerhalb derer der erste Sensor 2 den Azimut eines Objekts erfassen kann. Der gemeinsame Bereich 320 weist z.B. einen Abstandsbereich von 0 bis 100 m und einen Winkelbereich von -45° bis 45° auf.
  • Der gemeinsame Bereich 320 kann im ROM oder im Flash-Speicher vorab gespeichert oder auf Grundlage des Erfassungsbereichs, in dem der erste Sensor 2 und der zweite Sensor 4 tatsächlich ein Objekt erfassen können, festgelegt werden.
  • Als nächstes bestimmt die Bereichsbestimmeinheit 16 in S404, ob der von der Bereichsmesseinheit 12 gemessene Objektanwesenheitsbereich 300 und der von der Bereichserlangeinheit 14 erlangte gemeinsame Bereich 320 miteinander überlappen. In dem Fall, dass der erste Sensor 2 auch einen Abstand erfassen kann, bestimmt die Bereichsbestimmeinheit 16, ob der von der Bereichsmesseinheit 12 gemessene Objektanwesenheitsbereich 302 in dem von der Bereichserlangeinheit 14 erlangten gemeinsamen Bereich 320 vorhanden ist.
  • Falls das Bestimmungsergebnis in S404 Nein ist oder der von der Bereichsmesseinheit 12 gemessene Objektanwesenheitsbereich 300 und der gemeinsame Bereich 320 nicht miteinander überlappen, wird diese Verarbeitung beendet. In dem Fall, dass der erste Sensor 2 auch einen Abstand erfassen kann, wenn das Bestimmungsergebnis in S404 Nein lautet oder der von der Bereichsmesseinheit 12 gemessene Objektanwesenheitsbereich 302 nicht in dem gemeinsamen Bereich 320 vorhanden ist, wird diese Verarbeitung beendet.
  • In diesem Fall wird innerhalb des gesamten Erfassungsbereichs 312 der zweiten Sensoren 4 die Position des Objekts z.B. auf Grundlage einer dreiseitigen Positionsbestimmung unter Verwendung der von den zweiten Sensoren 4 erfassten Abstände zwischen dem Objekt und den zweiten Sensoren 4 erfasst. Wenn die dreiseitige Positionsbestimmung vorschlägt, dass eine Vielzahl von Objektkandidaten im Bereich des geschätzten einen Objekts anwesend ist, wird die Positionsbestimmung ausgeführt, um zu bestimmen, ob die Position einer Gruppe von mehreren Kandidaten als die Position des Objekts oder die Schwerpunktposition der Vielzahl von Kandidaten als die Position des Objekts bestimmt werden soll.
  • Falls das Bestimmungsergebnis in S404 Ja ist oder der von der Bereichsmesseinheit 12 gemessene Objektanwesenheitsbereich 300 und der gemeinsame Bereich 320 miteinander überlappen, bestimmt die Objekterfassungseinheit 18, wie in 5 gezeigt, in S406 die Position des Objekts innerhalb des Objektanwesenheitsbereichs 300 z.B. auf Grundlage einer dreiseitigen Positionsbestimmung unter Verwendung der Abstände zwischen dem Objekt und den zweiten Sensoren 4 entsprechend der Erfassungsergebnisse der zweiten Sensoren 4. In der gleichen Weise wie oben beschrieben wird die oben beschriebene Positionsbestimmungsverarbeitung durchgeführt, wenn eine Vielzahl von Objektkandidaten im Bereich des geschätzten einen Objekts anwesend ist.
  • Sogar wenn der Objektanwesenheitsbereich 300 und der gemeinsame Bereich 320 miteinander überlappen, kann der Objektanwesenheitsbereich 300 einen Bereich aufweisen, der mit dem gemeinsamen Bereich 320 nicht überlappt. In diesem Fall erfasst die Objekterfassungseinheit 18 die Position des Objekts innerhalb des Überlappungsbereichs des Objektanwesenheitsbereichs 300 und des gemeinsamen Bereichs 320 zum Beispiel auf Grundlage der dreiseitigen Positionsbestimmung und der oben beschriebenen Positionsverarbeitung unter Verwendung der Abstände zwischen dem Objekt und den zweiten Sensoren 4. Wenn das Objekt in dem Bereich des Objektanwesenheitsbereichs 300, der den gemeinsamen Bereich 320 nicht überlappt, oder außerhalb des gemeinsamen Bereichs 320 anwesend ist, kann die Objekterfassungseinheit 18 die Position des Objekts nicht erfassen.
  • In dem Fall, dass der erste Sensor 2 auch einen Abstand erfassen kann, wenn das Bestimmungsergebnis in S404 Ja ist oder der von der Bereichsmesseinheit 12 gemessene Objektanwesenheitsbereich 302 im gemeinsamen Bereich 320 vorhanden ist, erfasst die Objekterfassungseinheit 18, wie in 5 gezeigt, in S406 die Position des Objekts innerhalb des Objektanwesenheitsbereichs 302 z.B. auf Grundlage der dreiseitigen Positionsbestimmung und der oben beschriebenen Positionsbestimmungsverarbeitung unter Verwendung der Abstände zwischen dem Objekt und den zweiten Sensoren 4 entsprechend der Erfassungsergebnisse der zweiten Sensoren 4.
  • [1-3. Effekte]
  • Die oben beschriebene erste Ausführungsform ermöglicht es, die folgenden vorteilhaften Effekte zu erzielen.
    1. (1a) Auf Grundlage des Erfassungsergebnisses des ersten Sensors 2 wird der Objektanwesenheitsbereich 300 oder der Objektanwesenheitsbereich 302, in dem ein Objekt anwesend ist, gemessen. Wenn dann der Objektanwesenheitsbereich 300 mit dem gemeinsamen Bereich 320 überlappt, also die Überlappung zwischen dem Erfassungsbereich 310 des ersten Sensors 2 und dem Erfassungsbereich 312 der zweiten Sensoren 4 vorhanden ist, wird die Position des Objekts innerhalb des Objektanwesenheitsbereichs 300 auf Grundlage der von den zweiten Sensoren 4 erfassten Abstände zum Objekt 200 erfasst.
  • In dem Fall, dass der erste Sensor 2 auch einen Abstand erfassen kann, wird, wenn der Objektanwesenheitsbereich 302 im gemeinsamen Bereich 320 vorhanden ist, die Position des Objekts innerhalb des Objektanwesenheitsbereichs 302 auf Grundlage der von den zweiten Sensoren 4 erfassten Abstände zu dem Objekt 200 erfasst.
  • Mit diesem Verfahren ist es nicht erforderlich, die Position des Objekts außerhalb des Objektanwesenheitsbereichs 300 oder des Objektanwesenheitsbereichs 302 innerhalb des Erfassungsbereichs 312 der zweiten Sensoren 4 auf Grundlage der von den zweiten Sensoren 4 erfassten Abstände zu erfassen. Dadurch kann die Verarbeitungslast zum Erfassen der Position des Objekts auf Grundlage der von den zweiten Sensoren 4 erfassten Abstände verringert werden.
  • [2. Zweite Ausführungsform]
  • [2-1. Unterschiede zur ersten Ausführungsform]
  • Eine zweite Ausführungsform ist im Wesentlichen ähnlich zu der ersten Ausführungsform und somit werden nun Unterschiede beschrieben. Die gleichen Bezugszeichen wie bei der ersten Ausführungsform stellen die gleichen Komponenten dar und verweisen auf die vorangehende Beschreibung.
  • In der obigen ersten Ausführungsform wird die Position des Objekts innerhalb des Objektanwesenheitsbereichs 300 erfasst, wenn der Objektanwesenheitsbereich 300 mit dem gemeinsamen Bereich 320 überlappt, das heißt die Überlappung zwischen dem Erfassungsbereich 310 des ersten Sensors 2 und dem Erfassungsbereich 312 der zweiten Sensoren 4 vorhanden ist.
  • In dem Fall, dass der erste Sensor 2 auch einen Abstand erfassen kann, wird die Position des Objekts innerhalb des Objektanwesenheitsbereichs 302 erfasst, wenn der Objektanwesenheitsbereich 302 im gemeinsamen Bereich 320 vorhanden ist.
  • In der zweiten Ausführungsform, wenn der Objektanwesenheitsbereich 300 und der gemeinsame Bereich 320 miteinander überlappen, wird der Objektanwesenheitsbereich 300 in ein Gitter bzw. Netz unterteilt, dessen Unterteilungseinheiten als Zellen bezeichnet werden. Die Zelle, in der das Objekt mit höherer Wahrscheinlichkeit anwesend ist als in den umliegenden Zellen, wird als Position des Objekts erfasst. In dieser Hinsicht unterscheidet sich die zweite Ausführungsform von der ersten Ausführungsform.
  • In dem Fall, dass der erste Sensor 2 auch einen Abstand erfassen kann, wenn der Objektanwesenheitsbereich 302 in dem gemeinsamen Bereich 320 vorhanden ist, wird der Objektanwesenheitsbereich 302 in ein Gitter unterteilt, dessen Unterteilungseinheiten als Zellen bezeichnet werden. Die Zelle, in der das Objekt mit höheren Wahrscheinlichkeit anwesend ist als in den umliegenden Zellen, wird als Position des Objekts erfasst. In dieser Hinsicht ist die zweite Ausführungsform zusätzlich unterschiedlich zur ersten Ausführungsform.
  • Eine Beschreibung des ersten Sensors 2, der auch einen Abstand erfassen kann, würde sich mit der des ersten Sensors 2, der keinen Abstand erfassen kann, überschneiden, und somit wird der Fall des erstgenannten ersten Sensors 2 gezeigt, aber nicht beschrieben.
  • Eine in 6 dargestellte Objekterfassungsvorrichtung 20 gemäß der zweiten Ausführungsform weist eine Bereichsmesseinheit 12, eine Bereichserlangeinheit 14, eine Bereichsbestimmeinheit 16, eine Gitteraufteilungseinheit 22, eine Bewertungseinheit 24 und eine Objekterfassungseinheit 26 auf.
  • [2-2. Verarbeitung]
  • Die Objekterfassungsverarbeitung durch die Objekterfassungsvorrichtung 20 wird nun unter Bezugnahme auf das Ablaufdiagramm in 7 beschrieben.
  • Die Verarbeitung von S410 bis S414 entspricht im Wesentlichen der in 2 dargestellten Verarbeitung von S400 bis S404 gemäß der ersten Ausführungsform und wird somit nicht beschrieben.
  • In S416 unterteilt die Gitteraufteilungseinheit 22 den Objektanwesenheitsbereich 300 in ein Gitter, das, wie z.B. im unteren Teil von 8 dargestellt, eine Vielzahl von fächerförmigen Zellen 304 aufweist. Die Größen der Zellen 304 werden angemessen bestimmt, z.B. durch die erforderliche Genauigkeit der Objekterfassung. Eine Unterteilung in kleinere Zellen 304 erhöht die Genauigkeit einer Objektpositionsbestimmung. Die Größen der Zellen 304 werden jedoch im Rahmen der Genauigkeit des von den zweiten Sensoren 4 erfassten Abstands festgelegt.
  • Die Bewertungseinheit 24 legt Bewertungswerte fest, die die Wahrscheinlichkeiten darstellen, dass ein Objekt in den Zellen 304 anwesend ist. Die Bewertungseinheit 24 berechnet zunächst für jede Zelle 304 den von den zweiten Sensoren 4 erfassten Abstandsfehler zwischen dem Objekt 200 und den zweiten Sensoren 4. Die von der Bewertungseinheit 24 berechneten Abstandsfehler für die in 8 dargestellten Zellen 304 werden nun beschrieben.
  • Als erstes wird die Anzahl der zweiten Sensoren 4 mit Ns, die Anzahl der Objekte mit No, die Anzahl der Unterteilungen des Objektanwesenheitsbereichs 300 in Abstandsrichtung mit Nr, die Länge einer Zelle 304 in Abstandsrichtung mit Δr, die Indizes der Zellen 304 in Abstandsrichtung mit nr = 1, ... , Nr, die Anzahl der Unterteilungen des Objektanwesenheitsbereichs 300 in der Winkelrichtung mit Np, der Winkel einer Zelle 304 in der Winkelrichtung mit Δp, die Indizes der Zellen 304 in der Winkelrichtung mit np = 1, ... , Np, die Indizes der zweiten Sensoren 4 mit n = 1, ..., Ns, die Abstände zu den vom n-ten zweiten Sensor 4 erfassten Objekten mit Rn = (rn1, ..., rnNo), und die Koordinaten des n-ten zweiten Sensors 4 mit L radar_n = (xn, yn) bezeichnet.
  • Die Koordinaten L mesh (nr, np) der Zelle 304 mit einem Index (nr, np) werden durch die nachfolgende Gleichung (1) ausgedrückt.
    [Gleichung 1] L m e s h ( n r , n p ) = ( n r Δ r cos ( n p Δ p ) , n p Δ r sin ( n p Δ p ) )
    Figure DE112020001507T5_0001
  • Der Abstand zwischen jedem zweiten Sensor 4 und jeder Zelle 304, oder r mesh (nr, np, n), wird durch die nachfolgende Gleichung (2) ausgedrückt.
    [Gleichung 2] r m e s h ( n r , n p , n ) = s u m ( ( L m e s h ( n r , n p ) L r a d a r n ) 2
    Figure DE112020001507T5_0002
  • Gleichung (2) gibt die Quadratwurzel der Summe des Quadrats der Differenz zwischen den xy-Koordinaten jedes zweiten Sensors 4 und den xy-Koordinaten jeder Zelle 304 an.
  • Als nächstes wird in einer Zelle 304 mit einem Index (nr, np) der minimale Abstandsfehler δ(nr, np, n), der die minimale Differenz zwischen jedem der Abstände zu einer Vielzahl von Objekten, die von dem n-ten zweiten Sensor 4, Rn = (rn1, ..., rnNo), erfasst werden, und dem Abstand zwischen der Zelle 304 und dem n-ten zweiten Sensor 4, r mesh (nr, np, n), darstellt, durch die nachfolgende Gleichung (3) berechnet.
    [Gleichung 3] δ ( n r , n p , n ) = min ( r m e s h ( n r , n p , n ) R n )
    Figure DE112020001507T5_0003
  • Dann wird der Abstandsfehler ε(nr, np) in jeder Zelle 304, der die Summe der durch Gleichung (3) für die Zelle 304 berechneten minimalen Abstandsfehler aller zweiten Sensoren 4 ist, durch die nachfolgende Gleichung (4) berechnet.
    [Gleichung 4] ε ( n r , n p ) = n = 1 N s δ ( n r , n p , n )
    Figure DE112020001507T5_0004
  • Ein kleiner Abstandsfehler ε(nr, np), der durch Gleichung (4) ausgedrückt wird, stellt eine höhere Wahrscheinlichkeit dar, dass ein Objekt in der Zelle 304 anwesend ist.
  • Die Erfinder haben Untersuchungen durchgeführt und als Ergebnis herausgefunden, dass der durch Gleichung (4) dargestellte Abstandsfehler eine hohe Genauigkeit in der Abstandsrichtung in Bezug auf die zweiten Sensoren 4 aufweist, während der Abstandsfehler eine geringe Genauigkeit in der Azimut- oder Winkelrichtung in Bezug auf die zweiten Sensoren 4 aufweist.
  • Somit verwendet die Bewertungseinheit 24 die nachfolgende Gleichung (5), um für jede Zelle 304 die Abstandsvarianz σ(nr, np) zu berechnen, die die Varianz der mit Gleichung (3) berechneten minimalen Abstandsfehler δ(nr, np, n) darstellt. In Gleichung (5) stellt E(δ(nr, np)) den Mittelwert der minimalen Abstandsfehler für die Vielzahl der zweiten Sensoren 4 in jeder Zelle 304 dar.
    [Gleichung 5] σ ( n r , n p ) = n = 1 N s ( δ ( n r , n p , n ) E ( δ ( n r , n p ) ) ) 2 N s
    Figure DE112020001507T5_0005
  • Eine kleinere Abstandsvarianz σ(nr, np), die durch Gleichung (5) ausgedrückt wird, bedeutet eine höhere Wahrscheinlichkeit, dass ein Objekt in der Zelle 304 anwesend ist.
  • Die Erfinder haben Untersuchungen durchgeführt und als Ergebnis festgestellt, dass die durch Gleichung (5) dargestellte Abstandsvarianz eine hohe Genauigkeit in der Winkelrichtung in Bezug auf die zweiten Sensoren 4 aufweist, während die Abstandsvarianz eine geringe Genauigkeit in der Abstandsrichtung in Bezug auf die zweiten Sensoren 4 aufweist.
  • Als nächstes werden der Abstandsfehler und die Abstandsvarianz addiert. Wenn der Abstandsfehler und die Abstandsvarianz addiert werden, soll eine fehlerhafte Objekterfassung verhindert werden. Dazu wird in jeder Zelle 304, wenn der Abstandsfehler größer als der Wert Δr/Ns ist, der durch Division der Länge Δr der Zelle 304 in Abstandsrichtung durch die Anzahl der zweiten Sensoren 4 erhalten wird, der Abstandsfehler in der Zelle 304 auf unendlich festgelegt.
  • Außerdem wird in jeder Zelle 304, wenn die Abstandsvarianz größer als der Wert Δr/σth ist, der durch Division der Länge Δr der Zelle 304 in Abstandsrichtung durch einen vorgegebenen Divisor σth erhalten wird, die Abstandsvarianz in der Zelle 304 auf unendlich festgelegt. Der Divisor σth wird gemäß dem Grad der Vermeidung von fehlerhaften Erfassungen empirisch festgelegt. Ein größerer Divisor σth verhindert mit höherer Wahrscheinlichkeit eine fehlerhafte Objekterfassung, kann aber zu einem Fehler beim Erfassen der Position eines anwesenden Objekts führen.
  • Die Bewertungseinheit 24 berechnet die Summe des Abstandsfehlers und der Abstandsvarianz und legt den resultierenden Wert als Bewertungswert fest, der die Wahrscheinlichkeit darstellt, dass ein Objekt in der Zelle 304 anwesend ist. Die Objekterfassungseinheit 26 extrahiert dann aus dem Objektanwesenheitsbereich 300 die Zelle 304, die einen Spitzenbewertungswert aufweist, der höher als die Bewertungswerte der umgebenden Zellen 304 ist, die z.B. in Abstandsrichtung vor und hinter und in Winkelrichtung rechts und links vorhanden sind.
  • In der zweiten Ausführungsform extrahiert die Objekterfassungseinheit 26 aus dem Objektanwesenheitsbereich 300 die Zelle 304, die einen Spitzenbewertungswert aufweist, der niedriger als die Bewertungswerte der umliegenden Zellen 304 ist.
  • Der Abstandsfehler und die Abstandsvarianz können addiert werden, nachdem sie gemäß der Gewichtung der Genauigkeit des Abstandsfehlers und der Abstandsvarianz gewichtet wurden. Wenn z.B. die Azimutgenauigkeit stärker betont wird als die Abstandsgenauigkeit, kann die Abstandsvarianz, die die Azimutgenauigkeit darstellt, auf einen Wert festgelegt werden, der größer als der durch Gleichung (5) berechnete Wert vor der Addition des Abstandsfehlers und der Abstandsvarianz ist.
  • Die Wahrscheinlichkeit einer fehlerhaften Objekterfassung ist in der Winkelrichtung höher als in der Abstandsrichtung in Bezug auf die zweiten Sensoren 4. Somit bestimmt die Bewertungseinheit 24 bevorzugterweise die umgebenden Zellen 304, deren Bewertungswerte mit dem Spitzenbewertungswert der Zelle 304 verglichen werden, so dass die Anzahl der Zellen 304 in der Winkelrichtung größer als die Anzahl der Zellen 304 in der Abstandsrichtung ist. Wenn zum Beispiel eine Zelle 304 in Abstandsrichtung vorne und eine hinten positioniert ist, sind zwei Zellen 304 in Winkelrichtung rechts und zwei links positioniert.
  • Die Objekterfassungseinheit 26 bestimmt die Anwesenheit eines Objekts in der extrahierten Zelle 304, die den Spitzenbewertungswert aufweist.
  • [2-3. Effekte]
  • Die oben beschriebene zweite Ausführungsform ermöglicht es, zusätzlich zu den Effekten der oben beschriebenen ersten Ausführungsform die folgenden vorteilhaften Effekte zu erzielen.
  • (2a) Der Abstandsfehler, der eine hohe Genauigkeit in der Abstandsrichtung, in der ein Objekt anwesend ist, aber eine geringe Genauigkeit in der Winkelrichtung aufweist, und die Abstandsvarianz, die eine hohe Genauigkeit in der Winkelrichtung, in der ein Objekt anwesend ist, aber eine geringe Genauigkeit in der Abstandsrichtung aufweist, werden addiert, um einen Bewertungswert festzulegen, der die Wahrscheinlichkeit der Anwesenheit des Objekts darstellt. Dadurch kann eine Zelle 304, die eine hohe Wahrscheinlichkeit für die Anwesenheit des Objekts aufweist, mit hoher Genauigkeit sowohl in der Abstandsrichtung als auch in der Winkelrichtung extrahiert werden.
  • Mit diesem Verfahren kann die Position eines Objekts, das im Objektanwesenheitsbereich 300 anwesend ist, auf Grundlage der Erfassungsergebnisse der zweiten Sensoren 4 zum Messen eines Abstands mit hoher Genauigkeit erfasst werden.
  • (2b) Wenn der Abstandsfehler in jeder Zelle 304 größer als der Wert Δr/Ns ist, der durch Division der Länge Δr der Zelle 304 in Abstandsrichtung durch die Anzahl der zweiten Sensoren 4 erhalten wird, wird der Abstandsfehler in der Zelle 304 auf unendlich festgelegt. Wenn die Abstandsvarianz größer als der Wert Δr/σth ist, der durch Division der Länge Δr der Zelle 304 in Abstandsrichtung durch den vorgegebenen Divisor σth erhalten wird, wird die Abstandsvarianz in der Zelle 304 auf unendlich festgelegt. Dadurch kann bestimmt werden, dass in der Zelle 304, die auf unendlich festgelegt ist, kein Objekt anwesend ist, und somit kann eine fehlerhafte Objekterfassung verhindert werden.
  • [3. Dritte Ausführungsform]
  • [3-1. Unterschiede zur zweiten Ausführungsform]
  • Eine dritte Ausführungsform ist im Wesentlichen ähnlich zur zweiten Ausführungsform, und somit werden nun Unterschiede beschrieben. Dieselben Bezugszeichen wie in der zweiten Ausführungsform stellen dieselben Komponenten dar und verweisen auf die vorangehende Beschreibung.
  • In der oben genannten zweiten Ausführungsform wird ein einziger erster Sensor 2 verwendet. Die dritte Ausführungsform ist zu der zweiten Ausführungsform insofern unterschiedlich, dass, wie in 9 gezeigt, eine Vielzahl von ersten Sensoren 2 verwendet wird. In der dritten Ausführungsform wird als Beispiel die Verwendung von drei ersten Sensoren 2 beschrieben.
  • Wie in 10 gezeigt, sind die drei ersten Sensoren 2 weiter vom Objekt entfernt angebracht als die zweiten Sensoren 4. Damit soll der gemeinsame Bereich 320, also die Überlappung zwischen einem Erfassungsbereich 314, der durch Kombination der Erfassungsbereiche 310, in denen die drei ersten Sensoren 2 ein Objekt erfassen können, erhalten wird, und einem Erfassungsbereich 316, in dem vier zweite Sensoren 4 ein Objekt erfassen können, maximiert werden. In 10 entspricht der Erfassungsbereich 316, innerhalb dessen die zweiten Sensoren 4 ein Objekt erfassen können, im Wesentlichen dem gemeinsamen Bereich 320.
  • Wie in 11 gezeigt, sogar für einen ersten Sensor 2, der einen Azimut erfassen kann, aber keinen Abstand erfassen kann, ermöglicht es die Verwendung einer Vielzahl derartiger erster Sensoren 2 der Bereichsmesseinheit 12, den auf Grundlage der Erfassungsergebnisse der ersten Sensoren 2 definierten Überlappungsbereich der Objektanwesenheitsbereiche 300 als Objektanwesenheitsbereich 330 zu messen.
  • Der Objektanwesenheitsbereich 330 ist in ein Gitter unterteilt, das eine Vielzahl von fächerförmigen Zellen 332 aufweist. Jede Zelle 332 weist die gleiche Winkelbreite und auch die gleiche Länge in Abstandsrichtung von den zweiten Sensoren 4 zu einem Objekt auf.
  • In dem Fall, dass die ersten Sensoren 2 auch einen Abstand erfassen können, kann der in der ersten Ausführungsform und der zweiten Ausführungsform beschriebene Überlappungsbereich der Objektanwesenheitsbereiche 302, der die Überlappung zwischen den Objektazimutbereichen und den von der Vielzahl der ersten Sensoren 2 erfassten Objektabstandsbereichen darstellt, als Objektanwesenheitsbereich 330 definiert werden.
  • [3-2. Effekte]
  • Die oben beschriebene dritte Ausführungsform ermöglicht es, zusätzlich zu den Effekten der zweiten Ausführungsform die folgenden vorteilhaften Effekte zu erzielen.
  • (3a) Dadurch, dass die Vielzahl der ersten Sensoren 2 weiter vom Objekt als die zweiten Sensoren 4 installiert sind, kann der gemeinsame Bereich 320, also die Überlappung zwischen dem Erfassungsbereich 314, der durch Kombination der Erfassungsbereiche 310, in denen die ersten Sensoren 2 ein Objekt erfassen können, und dem Erfassungsbereich 316, in dem die Vielzahl der zweiten Sensoren 4 ein Objekt erfassen können, maximiert werden.
  • (3b) Sogar für einen ersten Sensor 2, der einen Azimut, aber keinen Abstand erfassen kann, ermöglicht es die Verwendung einer Vielzahl derartiger erster Sensoren 2 der Bereichsmesseinheit 12, als Objektanwesenheitsbereich 330 den Überlappungsbereich der Objektanwesenheitsbereiche 300 zu messen, die auf Grundlage der Erfassungsergebnisse der ersten Sensoren 2 gemessen werden. Der daraus resultierende Objektanwesenheitsbereich ist enger als der Bereich eines einzelnen ersten Sensors 2. Dies ermöglicht eine Verringerung der Verarbeitungslast zum Erfassen der Position des Objekts innerhalb des Objektanwesenheitsbereichs auf Grundlage der von den zweiten Sensoren 4 erfassten Objektabstände.
  • [4. Vierte Ausführungsform]
  • [4-1. Unterschiede zur dritten Ausführungsform]
  • Eine vierte Ausführungsform ist im Wesentlichen ähnlich zur dritten Ausführungsform, und somit werden nun Unterschiede beschrieben. Dieselben Bezugszeichen wie in der dritten Ausführungsform stellen dieselben Komponenten dar und beziehen sich auf die vorangehende Beschreibung.
  • Gemäß der oben beschriebenen dritten Ausführungsform ist der Objektanwesenheitsbereich 330 in ein Gitter unterteilt, das Zellen 332 mit gleicher Winkelbreite und gleicher Länge in Abstandsrichtung von den zweiten Sensoren 4 zu einem Objekt aufweist.
  • In der vierten Ausführungsform ist, wie in 12 gezeigt, innerhalb eines fächerförmigen Objektanwesenheitsbereichs 340, der auf Grundlage der Erfassungsergebnisse der ersten Sensoren 2 gemessen wird, die Länge einer Zelle 342 in Abstandsrichtung von den zweiten Sensoren 4 zu einem Objekt umgekehrt proportional zum Abstand zwischen den zweiten Sensoren 4 und der Zelle 342. In anderen Worten, die Zellen 342 werden mit ansteigendem Abstand zu den zweiten Sensoren 4 in Abstandsrichtung kürzer. In der vierten Ausführungsform weist jede Zelle 342 die gleiche Winkelbreite auf.
  • Das liegt daran, dass die Genauigkeit bei der Abstandserfassung mit ansteigendem Abstand zu den zweiten Sensoren 4 verringert ist. Zellen 342, die weiter von den zweiten Sensoren 4 entfernt sind, werden in Abstandsrichtung kürzer gemacht, um eine Verringerung der Abstandsgenauigkeit bei Zellen 342, die weit von den zweiten Sensoren 4 entfernt sind, zu verhindern.
  • Bei dem in 13 dargestellten viereckigen Objektanwesenheitsbereich 350 weisen die Zellen 352 in seitlicher Richtung orthogonal zur Abstandsrichtung die gleiche Länge auf. Die Länge einer Zelle 352 in Abstandsrichtung ist umgekehrt proportional zum Abstand zwischen den zweiten Sensoren 4 und der Zelle 352. In anderen Worten, die Zellen 352 werden in Abstandsrichtung von den zweiten Sensoren 4 zu einem Objekt mit ansteigendem Abstand von den zweiten Sensoren 4 kürzer.
  • [4-2. Effekte]
  • Die oben beschriebene vierte Ausführungsform ermöglicht es, zusätzlich zu den Effekten der dritten Ausführungsform die folgenden vorteilhaften Effekte zu erzielen.
  • (4a) In den Objektanwesenheitsbereichen 340 und 350 werden die Zellen 342 und 352 mit ansteigendem Abstand zu den zweiten Sensoren 4 in Abstandsrichtung kürzer gemacht, um eine Verringerung der Abstandsgenauigkeit an den weit von den zweiten Sensoren 4 entfernten Zellen 342 und 352 zu verhindern.
  • (4b) Die Struktur mit den Zellen 342 und 352, die mit zunehmendem Abstand zu den zweiten Sensoren 4 kürzer sind, kann ein Ansteigen der Verarbeitungslast bei der Objekterfassung im Vergleich zu einer Struktur verhindern, bei der alle Zellen 342 und 352 in den Objektanwesenheitsbereichen 340 und 350 in Abstandsrichtung kürzer sind.
  • [5. Fünfte Ausführungsform]
  • [5-1. Unterschiede zur vierten Ausführungsform]
  • Eine fünfte Ausführungsform ist im Wesentlichen ähnlich zur vierten Ausführungsform und somit werden nun Unterschiede beschrieben. Dieselben Bezugszeichen wie in der vierte Ausführungsform stellen dieselben Komponenten dar und beziehen sich auf die vorangehende Beschreibung.
  • In der oben beschriebenen vierten Ausführungsform weisen die Zellen 342 innerhalb des Objektanwesenheitsbereichs 340 die gleiche Winkelbreite auf, wobei die Länge jeder Zelle 342 unabhängig vom Abstand zwischen den zweiten Sensoren 4 und dem Objektanwesenheitsbereich 340 in Abstandsrichtung umgekehrt proportional zum Abstand zwischen den zweiten Sensoren 4 und der Zelle 342 ist.
  • In der fünften Ausführungsform weisen, wie in 14 gezeigt, die Zellen 362 und die Zellen 372 unterschiedliche Winkelbreiten auf, und die Zellen 362 und die Zellen 372 weisen gemäß den Abständen zwischen den zweiten Sensoren 4 und den Objektanwesenheitsbereichen 360 und 370 unterschiedliche Längen in der Abstandsrichtung auf.
  • Im Objektanwesenheitsbereich 370, der weiter von den zweiten Sensoren 4 entfernt ist, weisen die Zellen 372 die geringere Winkelbreite auf, und die Zellen 372 weisen auch die geringere Länge in Abstandsrichtung auf.
  • Dies liegt daran, dass sich die Genauigkeit der Abstandserfassung durch die zweiten Sensoren 4 mit ansteigendem Abstand zu den zweiten Sensoren 4 verringert. Die Zellen 372 im Objektanwesenheitsbereich 370, die weiter von den zweiten Sensoren 4 entfernt sind, werden in Abstandsrichtung kürzer gemacht, um eine Verringerung der Abstandsgenauigkeit an den von den zweiten Sensoren 4 entfernten Zellen 372 zu verhindern.
  • Zusätzlich weist in 14 der weiter von den zweiten Sensoren 4 entfernte Objektanwesenheitsbereich 370 eine geringere Winkelbreite auf, da die Genauigkeit der Erfassung durch die zweiten Sensoren 4 in Winkelrichtung mit zunehmendem Abstand von den zweiten Sensoren 4 verringert ist.
  • Im Objektanwesenheitsbereich 360 weist jedoch jede Zelle 362 die gleiche Winkelbreite auf, und auch in Abstandsrichtung hat jede Zelle 362 die gleiche Länge. Zudem weist im Objektanwesenheitsbereich 370 jede Zelle 372 die gleiche Winkelbreite auf, und jede Zelle 372 weist die gleiche Länge in Abstandsrichtung auf.
  • In einem viereckigen Objektanwesenheitsbereich 380, wie er in 15 dargestellt ist, weisen die Zellen 382 zusätzlich dieselbe seitliche Länge auf, und auch die Zellen 382 weisen dieselbe Länge in Abstandsrichtung auf. Zudem weisen in einem Objektanwesenheitsbereich 390 die Zellen 392 die gleiche seitliche Länge auf, und auch die Zellen 392 weisen die gleiche Länge in Abstandsrichtung auf.
  • Die Zellen 392 innerhalb des Objektanwesenheitsbereichs 390, die weiter von den zweiten Sensoren 4 entfernt sind, weisen jedoch die geringere seitliche Länge auf, und die Zellen 392 weisen auch in Abstandsrichtung die geringere Länge auf.
  • [5-2. Effekte]
  • Die oben beschriebene fünfte Ausführungsform ermöglicht es, zusätzlich zu den Effekten der vierten Ausführungsform die folgenden vorteilhaften Effekte zu erzielen.
  • (5a) Für die Objektanwesenheitsbereiche 360 und 370 oder die Objektanwesenheitsbereiche 380 und 390 weisen die von den zweiten Sensoren 4 weiter entfernten Zellen 372, 392 im Objektanwesenheitsbereich 370, 390 die kleinere Länge in Abstandsrichtung auf, wobei die Zellen 372 eine geringere Winkelbreite oder die Zellen 392 die geringere Seitenlänge aufweisen. Diese Struktur kann eine Verringerung der Abstandsgenauigkeit und der Winkelgenauigkeit oder der seitlichen Genauigkeit in den von den zweiten Sensoren 4 weiter entfernten Zellen 372, 392 verhindern.
  • In anderen Worten, die Zellen 362, 382 im Objektanwesenheitsbereich 360, 380, die näher an den zweiten Sensoren 4 liegen, weisen die größere Länge in Abstandsrichtung, die größere Winkelbreite oder die größere Seitenlänge auf. Diese Struktur kann einen Anstieg der Verarbeitungslast bei der Objekterfassung verhindern.
  • [6. andere Ausführungsformen]
  • Obwohl Ausführungsformen der vorliegenden Erfindung beschrieben wurden, ist die vorliegende Erfindung nicht auf die obigen Ausführungsformen begrenzt und kann auf verschiedene Weise modifiziert werden.
  • (6a) In den oben genannten Ausführungsformen werden Millimeterwellenradare als zweite Sensoren 4 zum Erfassen des Abstands zu einem Objekt verwendet. Anstelle der Millimeterwellen-Radare können auch LiDAR oder Sonar verwendet werden, sofern die zweiten Sensoren eine Sondenwelle zum Erfassen des Abstands zu einem Objekt aussenden.
  • (6b) Die Objekterfassungsvorrichtung 10 oder 20 kann an einem anderen sich bewegenden Objekt, das ein anderes als ein Fahrzeug ist, angebracht sein. Die Objekterfassungsvorrichtung 10 oder 20 kann in einem sich bewegenden Objekt, wie etwa einem Fahrrad, einem Rollstuhl oder einem Roboter, installiert werden.
  • (6c) Die Objekterfassungsvorrichtung 10, 20 kann nicht in einem sich bewegenden Objekt, sondern an einer festen Position, wie etwa einem stationären Objekt, installiert werden.
  • (6d) Die Objekterfassungsvorrichtung 10, 20 und die in der vorliegenden Erfindung beschriebene Technik können durch einen Spezialcomputer implementiert werden, der einen Speicher und einen Prozessor aufweist, der so programmiert ist, dass er eine oder mehrere durch Computerprogramme verkörperte Funktionen ausführt. Alternativ können die Objekterfassungsvorrichtung 10, 20 und die in der vorliegenden Erfindung beschriebene Technik durch einen Spezialcomputer implementiert werden, der einen Prozessor aufweist, der aus einem oder mehreren dedizierten Hardwarelogikschaltkreisen gebildet wird. Alternativ können die Objekterfassungsvorrichtung 10, 20 und die in der vorliegenden Erfindung beschriebene Technik durch einen oder mehrere Spezialcomputer, die eine Kombination aus einem Speicher und einem Prozessor, der so programmiert ist, dass er eine oder mehrere Funktionen ausführt, und einem Prozessor, der aus einem oder mehreren Hardwarelogikschaltkreisen gebildet wird, aufweist, implementiert werden. Die Computerprogramme können in einem nicht-transitorischen, greifbaren, computerlesbaren Speichermedium als Befehle gespeichert werden, die von einem Computer ausgeführt werden. Die Technik zum Implementieren der Funktionen der in der Objekterfassungsvorrichtung 10, 20 vorhandenen Komponenten muss nicht unbedingt Software aufweisen, und alle Funktionen können durch eine oder mehrere Hardwarekomponenten implementiert werden.
  • (6e) Eine Vielzahl von Funktionen einer Komponente in den obigen Ausführungsformen kann durch eine Vielzahl von Komponenten implementiert werden, oder eine Funktion einer Komponente kann durch eine Vielzahl von Komponenten implementiert werden. Eine Vielzahl von Funktionen einer Vielzahl von Komponenten kann von einer Komponente implementiert werden, oder eine Funktion, die von einer Vielzahl von Komponenten implementiert wird, kann von einer Komponente implementiert werden. Einige Komponenten in den oben genannten Ausführungsformen können weggelassen werden. Zumindest einige Komponenten einer der oben genannten Ausführungsformen können zu Komponenten einer anderen der oben genannten Ausführungsformen hinzugefügt oder durch diese ersetzt werden.
  • (6f) Zusätzlich zu der oben beschriebenen Objekterfassungsvorrichtung 10, 20 kann die vorliegende Erfindung in verschiedenen Formen implementiert werden, wie etwa als ein System, das die Objekterfassungsvorrichtung 10, 20 als Komponente aufweist, ein Objekterfassungsprogramm, das es einem Computer ermöglicht, als Objekterfassungsvorrichtung 10, 20 zu fungieren, ein Speichermedium, das das Objekterfassungsprogramm speichert, und ein Objekterfassungsverfahren.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2019060887 [0001]
    • JP 2014044160 A [0008]

Claims (6)

  1. Objekterfassungsvorrichtung (10, 20), die aufweist: eine Bereichsmesseinheit (12, S402, S412), die so konfiguriert ist, dass sie auf Grundlage eines Erfassungsergebnisses von mindestens einem ersten Sensor (2) zum Erfassen mindestens eines Azimuts eines Objekts (200) mindestens einen Azimutbereich, in dem das Objekt anwesend ist, als einen Objektanwesenheitsbereich (300, 302, 330, 340, 350, 360, 370, 380, 390), in dem das Objekt anwesend ist, misst; eine Bereichserlangeinheit (14, S404, S414), die so konfiguriert ist, dass sie einen gemeinsamen Bereich (320) erlangt, der eine Überlappung zwischen einem Erfassungsbereich (310, 314), der es dem ersten Sensor ermöglicht, eine Position des Objekts zu erfassen, und einem Erfassungsbereich (312, 316), der es einer Vielzahl von zweiten Sensoren zum Erfassen eines Abstands zu einem Objekt ermöglicht, die Position des Objekts zu erfassen, ist; eine Bereichsbestimmeinheit (16, S404, S414), die so konfiguriert ist, dass sie bestimmt, ob der durch die Bereichsmesseinheit gemessene Objektanwesenheitsbereich und der von der Bereichserlangeinheit erlangte gemeinsame Bereich miteinander überlappen; und eine Objekterfassungseinheit (18, 26, S406, S420), die so konfiguriert ist, dass sie in Antwort darauf, dass die Bereichsbestimmeinheit bestimmt, dass der Objektanwesenheitsbereich und der gemeinsame Bereich miteinander überlappen, die Position des Objekts innerhalb des Objektanwesenheitsbereichs auf Grundlage der von den zweiten Sensoren erfassten Abstände zwischen den zweiten Sensoren und dem Objekt erfasst.
  2. Objekterfassungsvorrichtung gemäß Anspruch 1, wobei der erste Sensor so konfiguriert ist, dass er zusätzlich zu dem Azimut, in dem das Objekt anwesend ist, einen Abstand zwischen dem ersten Sensor und dem Objekt erfasst, die Bereichsmesseinheit so konfiguriert ist, dass sie auf Grundlage des Erfassungsergebnisses von dem ersten Sensor den Objektanwesenheitsbereich unter Verwendung des Azimutbereichs und eines Abstandsbereichs zwischen dem ersten Sensor und dem Objekt misst, die Bereichsbestimmeinheit so konfiguriert ist, dass sie bestimmt, ob der Objektanwesenheitsbereich in dem gemeinsamen Bereich vorhanden ist, und die Objekterfassungseinheit so konfiguriert ist, dass sie in Antwort darauf, dass die Bereichsbestimmeinheit bestimmt, dass der Objektanwesenheitsbereich in dem gemeinsamen Bereich vorhanden ist, die Position des Objekts innerhalb des Objektanwesenheitsbereichs auf Grundlage der von den zweiten Sensoren erfassten Abstände zwischen den zweiten Sensoren und dem Objekt erfasst.
  3. Objekterfassungsvorrichtung gemäß Anspruch 1 oder 2, wobei die zweiten Sensoren die Abstände mit einer Genauigkeit erfassen, die höher als die Genauigkeit ist, mit der der erste Sensor den Abstand erfasst.
  4. Objekterfassungsvorrichtung gemäß einem der Ansprüche 1 bis 3, die ferner aufweist: eine Gitteraufteilungseinheit (22, S416), die so konfiguriert ist, dass sie den Objektanwesenheitsbereich in ein Gitter mit einer Vielzahl von Zellen (304, 332, 342, 352, 362, 372, 382, 392) aufteilt; und eine Bewertungseinheit (24, S418), die so konfiguriert ist, dass sie auf Grundlage der von den zweiten Sensoren erfassten Abstände zwischen den zweiten Sensoren und dem Objekt einen Bewertungswert festlegt, der eine Wahrscheinlichkeit darstellt, dass das Objekt in jeder der Zellen anwesend ist, wobei die Objekterfassungseinheit so konfiguriert ist, dass sie auf Grundlage des von der Bewertungseinheit festgelegten Bewertungswertes für jede der Zellen bestimmt, ob das Objekt anwesend ist.
  5. Objekterfassungsvorrichtung gemäß Anspruch 4, wobei die Bewertungseinheit so konfiguriert ist, dass sie in jeder der Zellen einen minimalen Abstandsfehler, der eine minimale Differenz zwischen einem Abstand zu dem von jedem der zweiten Sensoren erfassten Objekt und einem Abstand zwischen der Zelle und jedem der zweiten Sensoren darstellt, berechnet, eine Summe der den zweiten Sensoren zugeordneten minimalen Abstandsfehler und einer der den zweiten Sensoren zugeordneten Varianz der minimalen Abstandsfehler in jeder der Zellen berechnet, und die Summe der minimalen Abstandsfehler und der Varianz der minimalen Abstandsfehler als Bewertungswert festlegt, und die Objekterfassungseinheit so konfiguriert ist, dass sie auf Grundlage des Bewertungswertes, der die Summe der minimalen Abstandsfehler und der Varianz der minimalen Abstandsfehler ist, für jede der Zellen bestimmt, ob das Objekt anwesend ist.
  6. Objekterfassungsvorrichtung gemäß einem der Ansprüche 1 bis 5, wobei der erste Sensor so installiert ist, dass er weiter vom Objekt entfernt als die zweiten Sensoren ist.
DE112020001507.6T 2019-03-27 2020-03-26 Objekterfassungsvorrichtung Pending DE112020001507T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019060887A JP7244325B2 (ja) 2019-03-27 2019-03-27 物体検出装置
JP2019-060887 2019-03-27
PCT/JP2020/013599 WO2020196723A1 (ja) 2019-03-27 2020-03-26 物体検出装置

Publications (1)

Publication Number Publication Date
DE112020001507T5 true DE112020001507T5 (de) 2021-12-23

Family

ID=72611570

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112020001507.6T Pending DE112020001507T5 (de) 2019-03-27 2020-03-26 Objekterfassungsvorrichtung

Country Status (4)

Country Link
US (1) US20220012492A1 (de)
JP (1) JP7244325B2 (de)
DE (1) DE112020001507T5 (de)
WO (1) WO2020196723A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014044160A (ja) 2012-08-28 2014-03-13 Mitsubishi Electric Corp 測位装置
JP2019060887A (ja) 2018-11-28 2019-04-18 ソニー株式会社 血液状態解析装置、血液状態解析システム、血液状態解析方法、および該方法をコンピューターに実現させるための血液状態解析プログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4308381B2 (ja) * 1999-09-29 2009-08-05 富士通テン株式会社 周辺監視センサ
JP3779280B2 (ja) 2003-03-28 2006-05-24 富士通株式会社 衝突予測装置
US7369941B2 (en) 2004-02-18 2008-05-06 Delphi Technologies, Inc. Collision detection system and method of estimating target crossing location
ATE519126T1 (de) * 2004-06-24 2011-08-15 Bae Systems Plc Verbesserungen in bezug auf die geschwindigkeitsextraktion
US8311695B2 (en) * 2008-03-19 2012-11-13 Honeywell International Inc. Construction of evidence grid from multiple sensor measurements
JP5206752B2 (ja) * 2010-08-30 2013-06-12 株式会社デンソー 走行環境認識装置
JP5812064B2 (ja) * 2012-11-22 2015-11-11 株式会社デンソー 物標検出装置
RU2667338C1 (ru) 2015-07-27 2018-09-18 Ниссан Мотор Ко., Лтд. Способ обнаружения объектов и устройство обнаружения объектов
US10195992B2 (en) * 2017-04-03 2019-02-05 Ford Global Technologies, Llc Obstacle detection systems and methods
JP6943678B2 (ja) * 2017-08-14 2021-10-06 本田技研工業株式会社 外界認識装置
US10656245B2 (en) * 2017-09-05 2020-05-19 Valeo Radar Systems, Inc. Automotive radar sensor blockage detection using adaptive overlapping visibility
US20190154823A1 (en) * 2017-11-17 2019-05-23 Valeo Radar Systems, Inc. Method for detecting pedestrians using 24 gigahertz radar
US10501064B2 (en) * 2017-12-08 2019-12-10 GM Global Technology Operations LLC Method and apparatus for monitoring a vehicle brake
WO2019151489A1 (ja) 2018-02-02 2019-08-08 日本電気株式会社 センサ情報統合システム、センサ情報統合方法及びプログラム
US11353577B2 (en) * 2018-09-28 2022-06-07 Zoox, Inc. Radar spatial estimation
JP7111586B2 (ja) 2018-11-09 2022-08-02 株式会社Soken 物体検出装置
US11801867B2 (en) * 2020-03-30 2023-10-31 Honda Motor Co., Ltd. Vehicle control device and vehicle control method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014044160A (ja) 2012-08-28 2014-03-13 Mitsubishi Electric Corp 測位装置
JP2019060887A (ja) 2018-11-28 2019-04-18 ソニー株式会社 血液状態解析装置、血液状態解析システム、血液状態解析方法、および該方法をコンピューターに実現させるための血液状態解析プログラム

Also Published As

Publication number Publication date
JP2020159925A (ja) 2020-10-01
JP7244325B2 (ja) 2023-03-22
CN113631948A (zh) 2021-11-09
WO2020196723A1 (ja) 2020-10-01
US20220012492A1 (en) 2022-01-13

Similar Documents

Publication Publication Date Title
DE102016222776B4 (de) Radarvorrichtung für Fahrzeuge und Zielbestimmungsverfahren für diese
DE102014103695B4 (de) Fahrzeuggestützte Kreuzungsbeurteilungsvorrichtung und -programm
DE112008004067B4 (de) Fahrtrichtungsvektorzuverlässigkeits-Bestimmungsverfahren und Fahrtrichtungsvektorzuverlässigkeits-Bestimmungsvorrichtung
DE112010005977B4 (de) Strassenformschätzvorrichtung
DE112015003262B4 (de) Bordeigene Radarvorrichtung und Benachrichtigungssystem
EP1612580A1 (de) Objekterkennungsverfahren für Fahrzeuge
DE102018124108A1 (de) VERFAHREN UND VORRICHTUNG ZUM ERFASSEN EINER STRAßENBEGRENZUNG
DE112011100928T5 (de) Fußgängerüberwegerfassungsvorrichtung, Fußgängerüberwegerfassungsverfahren und Programm
DE102020105642A1 (de) Entwerfen von und verarbeiten mit antennenarrays zur beseitigung von fehldetektionen in einem radarsystem
DE112017004803T5 (de) Schätzvorrichtung für axiale Fehlausrichtung
DE102012209316A1 (de) Verfahren und Vorrichtung zum Verarbeiten von Sensordaten eines Stereosensorsystems
DE102020124236A1 (de) Mehrweg-geisterabmilderung im fahrzeug-radarsystem
DE102016216294A1 (de) Einrichtung zum Erkennen eines Hindernisses um ein Fahrzeug herum und Verfahren dafür
DE102020102902A1 (de) Fahrzeugradarvorrichtung und Steuerverfahren hierfür
EP3759517B1 (de) Verfahren und vorrichtung zur schätzung der höhe eines reflektors eines fahrzeugs
DE112020001507T5 (de) Objekterfassungsvorrichtung
DE102017123140A1 (de) Ultraschallsensorvorrichtung und Erfassungsverfahren einer Ultraschallsensorvorrichtung
EP1433002B1 (de) Verfahren zum bestimmen der position eines zielobjektes und nach diesem verfahren betriebenes radarsystem
DE102019206977B4 (de) Vorrichtung und Verfahren zur Vermessung mindestens eines schräg im Raum stehenden Messobjekts
DE112018007135B4 (de) Objekterkennungsvorrichtung, fahrzeug, objekterkennungsverfahren und objekterkennungsprogramm
EP3658953B1 (de) Vorrichtung und verfahren zum erkennen der hoehe eines objekts
DE102019210128A1 (de) Verfahren zum Bewerten von erfassten Sensordaten eines Sensors
DE102021212980B3 (de) Verfahren zur Zuordnung von Empfangssignalen einer Sensorik eines Fahrzeugs zu einem Objekt
DE102018129876B3 (de) Verfahren zum Bestimmen einer geometrischen Eigenschaft eines Objekts mittels einer Geradengleichung, Computerprogrammprodukt, elektronische Recheneinrichtung sowie Ultraschallsensorvorrichtung
DE102021118650A1 (de) Hindernisbestimmungsvorrichtung und Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed