DE102018217128A1 - Verfahren zur Erkennung von Entitäten - Google Patents

Verfahren zur Erkennung von Entitäten Download PDF

Info

Publication number
DE102018217128A1
DE102018217128A1 DE102018217128.9A DE102018217128A DE102018217128A1 DE 102018217128 A1 DE102018217128 A1 DE 102018217128A1 DE 102018217128 A DE102018217128 A DE 102018217128A DE 102018217128 A1 DE102018217128 A1 DE 102018217128A1
Authority
DE
Germany
Prior art keywords
sensor
object data
data
sensors
procedure according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018217128.9A
Other languages
English (en)
Inventor
Andreas Weber
Sebastian Jakobs
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102018217128.9A priority Critical patent/DE102018217128A1/de
Publication of DE102018217128A1 publication Critical patent/DE102018217128A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erkennen von Entitäten in einem definierten Bereich, bei dem von mindestens einem ersten Sensor (102) erste Rohdaten und von mindestens einem zweiten Sensor (103) zweite Rohdaten bereitgestellt werden, die im Rahmen einer Vorverarbeitung in erste Objektdaten und zweite Objektdaten gewandelt werden, und anschließend die ersten Objektdaten und die zweiten Objektdaten konkurrierend fusioniert werden, wobei anhand der ersten und zweiten Objektdaten eine Gefahrenbewertung erfolgt.

Description

  • Die Erfindung betrifft ein Verfahren zur Erkennung von Entitäten und eine Anordnung zur Durchführung des Verfahrens. Die Erfindung betrifft insbesondere ein Verfahren und eine Anordnung zur sicheren Erkennung von Objekten und Personen in einem definierten Bereich mittels Sensoren für den Innenbereich und/oder den Außenbereich.
  • Stand der Technik
  • Zum Schutz von Personen und Gegenständen ist es für viele Anwendungen erforderlich zu erkennen, ob sich Personen in einem bestimmten Bereich aufhalten und/oder Gegenstände in diesem Bereich vorhanden sind.
  • So werden bspw. Verfahren zur Erkennung von Personen und/oder Objekten, die hierin unter dem Begriff Entitäten zusammengefasst werden, im Fahrweg eines Fahrzeugs, bspw. eines Flurförderzeugs, in verschiedenen Bereichen angewandt. Hierzu sind zudem unterschiedlich arbeitende Verfahren bekannt.
  • Bei berührungslos wirkenden Anordnungen im Bereich von Assistenzsystemen werden mit Hilfe verschiedener Sensoren bzw. Sensoriken, wie bspw. Radar, Laser/LIDAR, Ultraschall oder auch Kamera/Video-Systeme, Objekte und deren Abstand und auch die Geschwindigkeit relativ zu dem Fahrzeug, dem diese Anordnung zugeordnet ist, ermittelt. Die Sensoren werden in vielen Fällen miteinander kombiniert, um die bekannten Schwächen einer Sensortechnologie durch eine andere Technologie auszugleichen. Auf diese Weise soll ein höherer Informationsgehalt aus den gemessenen Daten erhalten werden und/oder ein Funktionsausfall einer der Technologien ermittelt werden. Diese ermittelten Funktionsausfälle dienen jedoch typischerweise nicht dazu, um zu erkennen, ob die Anordnung noch sicher die gewünschten Objekte erkennen kann, sondern, um zu entscheiden, welche Daten man für die weitere Verarbeitung nutzen möchte und welche verworfen werden.
  • Ein Funktionsausfall des Systems wird erst dann kommuniziert, wenn alle verwendeten Sensoriken aufgrund äußerer oder innerer Einflüsse gestört sind. Dies stellt jedoch kein System dar im Sinne der funktionalen Sicherheit und der geforderten Sicherheitslevel der gängigen Normen, bspw. Performance Level nach der DIN EN ISO 13849-1:2015 oder SRS/SRSS Performance-Klasse nach der DIN EN 62998. Weiterhin ist zu berücksichtigen, dass diese Fusion verschiedener Sensortypen auf einer im Sinne der funktionalen Sicherheit nicht sicheren Hardwareplattform ausgeführt wird und daher nur für Fahrerassistenzsysteme eingesetzt werden kann, da sowohl die Verarbeitung der Daten an sich als auch die Kommunikation mit dem Fahrzeug nicht sicher im Sinne der gängigen Maschinennormen erfolgt und somit der Fahrer als Rückfallstufe dienen muss.
  • Im Bereich autonom fahrender Flurförderzeuge im Innenbereich, bei denen kein Fahrer als Rückfallebene zur Verfügung steht, wird heute auf zertifizierte Sicherheitskomponenten zurückgegriffen, die lediglich auf einer Sensortechnologie, bspw. Lasersysteme, beruhen, um einen sicheren Personenschutz zu gewährleisten. Diese Systeme generieren bei einem erkannten Objekt innerhalb eines definierten Bereichs ein sicheres Ausgangssignal, was bspw. einer sicheren Fahrzeugsteuerung eingespeist werden kann, um ein Haltesignal auszulösen.
  • Der Nachteil dieser Systeme sind die geringen Reichweiten und die Beschränkung auf den Innenbereich, welche eine Nutzung für autonom fahrende Fahrzeuge im Außenbereich, bei der die Anwesenheit von Personen erlaubt ist, nicht möglich macht. Dies ist darin begründet, dass Lasersensoren mit Wellenlängen im sichtbaren Bereich oder nahen Infrarot-Bereich des Spektrums arbeiten und somit stark an kleinen, in der Luft vorhandenen Partikeln gestreut werden und daher stark von den Wetterverhältnissen abhängen. Die Sichtweite dieser Sensoren ist bspw. bei Regen, Schnee und Nebel stark eingeschränkt. Auch werden Laserscanner in vielen Fällen durch direkte Lichteinstrahlung, bspw. durch Sonnenlicht, in nachteilhafter Weise beeinflusst. Weiterhin ist bei diesen Systemen zwar eine dynamische Auslegung der Schutzzonen möglich, die Form und die Anzahl der möglichen Felder ist jedoch beschränkt und kann nicht an jede Fahrsituation des zu steuernden Fahrzeugs perfekt angepasst werden.
  • Die Druckschrift DE 10 2014 205 180 A1 beschreibt ein Verfahren zum Betreiben eines Fahrzeugs, das mehrere Umfeldsensoren zum Erfassen des Umfelds des Fahrzeugs aufweist. Diese Umfeldsensoren stellen Rohdaten bereit. Dabei werden in einem ersten Schritt aus den Rohdaten mehrerer Sensoren Objektdaten ermittelt, welche anschließend fusioniert werden, um fusionierte Objektdaten zu erhalten. Auf alternativem Wege werden im ersten Schritt die Rohdaten der verschiedenen Sensoren fusioniert, um daraus Rohobjektdaten zu generieren. Im zweiten Schritt werden die fusionierten Objektdaten mit den Rohobjektdaten verglichen.
  • Die Druckschrift WO 03/031228 A2 beschreibt eine Objekterfassungsvorrichtung für Fahrer-Assistenzsysteme in Kraftfahrzeugen, bei der mittels mindestens zweier Sensorsysteme der Ort und/oder der Bewegungszustand von Objekten in der Umgebung erfasst wird. Dabei ist vorgesehen, dass sich die Detektionsbereiche der Sensorsysteme überlappen und die im Überlappungsbereich erfassten Daten der Systeme auf ihre Widerspruchsfreiheit geprüft werden, um bei Erkennung eines Widerspruchs ein Fehlersignal auszugeben.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund werden ein Verfahren mit den Merkmalen des Anspruchs 1 und eine Anordnung gemäß Anspruch 8 vorgestellt. Es wird weiterhin ein Computerprogramm nach Anspruch 9 und ein maschinenlesbares Speichermedium gemäß Anspruch 10 vorgestellt. Ausführungsformen ergeben sich aus den abhängigen Ansprüchen und aus der Beschreibung.
  • Das vorgestellte Verfahren dient zum Erkennen von Entitäten, d. h. von Personen und/oder Objekten, in einem typischerweise definierten Bereich, wobei dieses sowohl im Innenbereich, d. h. innerhalb von Gebäuden, als auch im Außenbereich angewendet werden kann.
  • Mit dem vorgestellten Verfahren ist es möglich, Rohdaten eines oder mehrerer Radarsensoren mit den Rohdaten eines oder mehrerer Laserscanner/LIDAR-Sensoren auf einer für sicherheitskritische Anwendungen zertifizierten Verarbeitungseinheit zu fusionieren, um eine sichere Erkennung einer Entität, d. h. einer Person oder eines Objekts, typischerweise innerhalb eines definierten Bereichs, bspw. innerhalb eines dynamisch ermittelten Schutz- und/oder Warnfelds, zu erkennen. Eine Information hierzu kann in Ausgestaltung sicher über eine geeignete Kommunikationsform einer externen Fahrzeugsteuerung bzw. Steuereinheit zugänglich gemacht werden. Darüber hinaus kann eine Funktionsdegradierung eines oder mehrerer Umfeldsensoren oder eine Fehlfunktion innerhalb der Verarbeitungskette erkannt und entsprechend reagiert werden.
  • Eine bei dem Verfahren eingesetzte Sicherheitssteuerung bzw. Verarbeitungseinheit kann bspw. eine frei am Markt erhältliche Sicherheitssteuerung/Safety ECU sein, die die benötigte Sicherheitszertifizierung hat.
  • Das für die Verarbeitung der Daten zuständige Programm ist eine entsprechend der Vorgaben für funktionale Sicherheit für das hier beschriebene Verfahren programmierte und zertifizierte Software.
  • Eine sichere Kommunikationsschnittstelle kann bspw. ein Bussystem, wie bspw. CAN oder Ethernet, sein oder die Kommunikation mit einer externen Steuereinheit kann durch Übermittlung redundant ausgelegter logischer Signale erfolgen.
  • Es wird somit in Ausgestaltung ein zyklisches Verfahren zum sicheren Erkennen von Objekten und Personen im Innen- und Außenbereich vorgestellt, bei dem eine zertifizierte Sicherheitssteuerung und mehrere Umfeldsensoren zum Einsatz kommen. Dabei können einer oder mehrere der folgenden Schritte umfasst sein:
    • - Erfassen des Umfelds mittels der Umfeldsensoren, so dass diese jeweils Rohdaten und/oder vorverarbeitete Rohdaten bereitstellen, die im erfassten Umfeld vorhandene Objekte und Personen abbilden,
    • - Ermitteln von Objektdaten für jeden Umfeldsensor basierend auf den Rohdaten oder den vorverarbeiteten Rohdaten des entsprechenden Umfeldsensors,
    • - Fusionieren der Objektdaten miteinander in einer konkurrierenden Fusion, so dass fusionierte Objektdaten ermittelt werden,
    • - Ermitteln von dynamischen Schutz- und Warnfeldern auf Basis von dem Verfahren zyklisch zur Verfügung gestellten Fahrzeuginformationen, entsprechend Lenkwinkel, Geschwindigkeit, Reibert, Zuladung usw.,
    • - Durchführen einer Gefahrenbewertung durch Vergleich der fusionierten Objektdaten mit den aktuell gültigen Schutz- und Warnfeldern zur Ermittlung von Schutz- und/oder Warnfeldverletzungen,
    • - Ermitteln der aktuell gültigen Maximalgeschwindigkeit des zu betreibenden Fahrzeugs aufgrund der erfassten Sichtweite des ersten oder der ersten Sensoren, bspw. des oder der Laserscanner- bzw. LiDAR-Sensoren, mittels Überwachung der remittierten Strahlungsintensität eines Testobjekts,
    • - Überwachen des Funktionstests mittels Testobjekt der Umfeldsensoren, der internen Diagnosen der Umfeldsensoren und der Sicherheitssteuerung und Plausibilisieren durch Vergleich der auf Basis der Rohdaten und/oder vorverarbeiteten Rohdaten beider Umfeldsensoren ermittelten Objektdaten zur Überwachung der Funktionalität der Umfeldsensoren, so dass ein Fehler vorliegt, wenn innerhalb eines Toleranzbereichs ein Unterschied bei der Plausibilisierung festgestellt wird, sowie die Überwachung und Plausibilisierung der Eingangsdaten der Sicherheitssteuerung,
    • - sicheres Kommunizieren der ermittelten Werte für die Schutz- und Warnfeldzustände, die aktuell gültige Maximalgeschwindigkeit des zu betreibenden Fahrzeugs und des Diagnosestatus der Anordnung an eine externe Steuerung zur weiteren, sicheren Verarbeitung.
  • Die vorgestellte Anordnung dient zur Durchführung des beschriebenen Verfahrens und somit zur sicheren Erkennung von Personen und Objekten im Fahrweg eines insbesondere autonom fahrenden Fahrzeug. In Ausgestaltung weist diese Anordnung auf:
    • mehrere Umfeldsensoren zum Erfassen eines Umfelds des Fahrzeugs, wobei die Umfeldsensoren auch als Komponenten aufgefasst werden können, die nicht Teil der Anordnung sind, sondern lediglich dieser zugeordnet sind, und wobei die Umfeldsensoren ausgebildet sind, jeweils Rohdaten und/oder vorverarbeitete Rohdaten zur Verfügung zu stellen, die dem mittels des entsprechenden Umfeldsensors erfassten Umfelds entsprechen,
      • - eine Sicherheitssteuerung als sichere Verarbeitungseinheit, die Ausgebildet ist, die Schritte des beschriebenen Verfahrens auszuführen,
      • - eine sichere Kommunikationsschnittstelle zum sicheren Austausch relevanter Informationen mit einer externen (Sicherheits)steuerung,
      • - eine entsprechend den Sicherheitsvorgaben programmierte Software bzw. ein entsprechendes Computerprogramm, die bzw. das das Verfahren abbildet und auf der Sicherheitssteuerung ausführt.
  • Weitere Vorteile und Ausgestaltungen der Erfindung ergeben sich aus der Beschreibung und in den beiliegenden Zeichnungen.
  • Es versteht sich, dass die voranstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.
  • Figurenliste
    • 1 zeigt eine Ausführung einer Anordnung zum Erkennen von Entitäten und zur Ermittlung der aktuell gültigen Schutz- und Warnfelder sowie zur Bewertung, ob diese verletzt worden sind bzw. sich eine oder mehrere Entitäten darin befinden.
    • 2 zeigt in einem Ablaufdiagramm eine Ausführung des vorgestellten Verfahrens zur Erkennung einer Entität und zur Ermittlung der aktuell gültigen Schutz- und Warnfelder sowie zur Bewertung, ob diese verletzt worden sind bzw. sich eine oder mehrere Entitäten darin befinden.
  • Ausführungsformen der Erfindung
  • Die Erfindung ist anhand von Ausführungsformen in den Zeichnungen schematisch dargestellt und wird nachfolgend unter Bezugnahme auf die Zeichnungen ausführlich beschrieben.
  • 1 zeigt eine Ausführung einer Anordnung zur insbesondere sicheren Erkennung von Objekten und Personen, die insgesamt mit der Bezugsziffer 100 bezeichnet ist. Diese Anordnung 100 kann innerhalb eines definierten Bereichs mittels Umfeldsensoren und einer Sicherheitssteuerung/Safety-ECU und der sicheren Kommunikation mit einer externen Steuerung, bspw. einer Fahrzeugsteuerung, zur Anwendung kommen.
  • Die Darstellung zeigt eine Sicherheitssteuerung 101, einen oder mehrere erste Sensoren 102, bspw. Laser/LiDAR-Sensoren, ein oder mehrere zweite Sensoren 103, wie bspw. Radarsensor(en), eine erste Vorverarbeitungs- und Testeinheit 104 für den oder die ersten Sensoren 102, eine zweite Vorverarbeitungs- und Testeinheit 105 für den oder die zweiten Sensoren 103, eine Diagnoseeinheit 106, eine Sensordatenfusionseinheit 107, eine Gefahrenbewertungseinheit 108, eine Schutz- und Warnzonenberechnungseinheit 109, eine typischerweise sichere externe Steuereinheit 110 und eine in der Regel sichere Kommunikationsschnittstelle 111.
  • 2 zeigt ein Ablaufdiagramm eines Verfahrens zur sicheren Erkennung von Objekten und Personen innerhalb eines definierten Bereichs und der sicheren Kommunikation mit einer externen Steuerung, bspw. einer Fahrzeugsteuerung, inklusive einer Diagnosefunktion zur Erkennung von Fehlern durch innere oder äußere Einflüsse.
  • Die beiden Figuren verdeutlichen insbesondere das funktionale Verhalten der vorgestellten Anordnung 100. Zur Verdeutlichung dieses funktionalen Verhaltens wird nachfolgend auf beiden Figuren eingegangen.
  • Eine sichere Erkennung von Entitäten wird erreicht, indem der oder die üblicherweise nicht sicherheitszertifizierten zweiten Sensoren 103 und der oder die ersten Sensoren 102, bspw. ein oder mehrere nicht sicherheitszertifizierte Laserscanner, an die regelmäßig sicherheitszertifizierte Sicherheitssteuerung 101 angeschlossen werden und die von den Sensoren 102, 103 erfassten Rohdaten sicherheitsgerichtet ausgewertet und bewertet werden.
  • Die auf einem diversitären Mess- bzw. Wirkprinzip beruhenden Sensortechnologien tasten zyklisch einen definierten überlappenden Bereich ab und übergeben die erfassten Rohdaten an die Sicherheitssteuerung 101. Die Rohdaten enthalten u. a. die Information der räumlichen Position eines Ziels bzw. Targets, das die Entität darstellt, relativ zum jeweiligen Sensor sowie dessen reflektierte Intensität in den jeweiligen Einheiten des jeweiligen Sensortyps.
  • Innerhalb der Sicherheitssteuerung 101 werden die Rohdaten des einen oder der mehreren ersten Sensoren 102 und eines oder mehrerer zweiter Sensoren 103 in den jeweiligen Vorverarbeitungseinheiten 104 bzw. 105 vorverarbeitet und anschließend der Sensordatenfusionseinheit 107 zugeführt, um die in der Vorverarbeitung generierten Objektdaten zu fusionieren.
  • Anschließend erfolgt die Gefahrenbewertung in der Gefahrenbewertungseinheit 108 auf Basis der fusionierten Objektdaten und der an die aktuelle Fahrsituation des zu betreibenden Fahrzeugs angepassten Schutz- und Warnzonen.
  • Die Schutz- und Warnzonen werden in der Schutz- und Warnzonenberechnungseinheit 109 berechnet. Die Ergebnisse der Gefahrenbewertung werden der Steuereinheit 110 des zu steuernden Fahrzeugs über eine sichere Kommunikationsschnittstelle übermittelt. Weiterhin wird die Funktion ein oder mehrerer Laserscanner, ein oder mehrerer Radarsensoren und die Funktion der Sicherheitssteuerung/Safety-ECU mittels der Diagnoseeinheit 106 überwacht und der Diagnosestatus über die sichere Kommunikationsschnittstelle 111 der externen Steuereinheit 110 zur Verfügung gestellt.
  • In einer weiteren Ausführungsform kann eine, an die aktuell vorherrschenden Umgebungsbedingungen angepasste, maximal gültige Fahrzeuggeschwindigkeit in der Diagnoseeinheit 106 ermittelt und über die sichere Kommunikationsschnittstelle 111 der externen Steuereinheit 110 zur Verfügung gestellt werden.
  • Die von den aktuell vorherrschenden Umgebungsbedingungen abhängige zulässige Maximalgeschwindigkeit des zu betreibenden Fahrzeugs wird aufgrund einer mittels Testobjekt ermittelten aktuellen Sichtweitenmessung des bzw. der ersten Sensoren 102 ermittelt. Dabei wird die vom Testobjekt rückgestrahlte Intensität mit einer definierten Referenzintensität verglichen, der eine bestimmte Referenzsichtweite zugeordnet ist. Aus diesem Vergleich lässt sich eine aktuell gültige maximale Sichtweite des ersten Sensors 102 ermitteln, aus der sich dann eine maximale Geschwindigkeit für das zu steuernde Fahrzeug ergibt, die der externen Steuereinheit 110 zur Verfügung gestellt werden kann.
  • Weiterhin wird das Testobjekt genutzt, um die Funktionalität und Verfügbarkeit der Sensoren 102, 103, die auch als Umfeldsensoren bezeichnet werden können, zu testen und sicherzustellen. Diese Funktionsprüfung findet zyklisch in den Vorverarbeitungseinheiten 104 und 105 der Umfeldsensoren 102, 103 statt und wird von der Diagnoseeinheit 106 ausgewertet. Dabei wird geprüft, ob die Umfeldsensoren 102, 103 das Testobjekt an definierter Position mit definierten Eigenschaften, wie bspw. der Reflektivität, erkennen können.
  • Das Testobjekt kann bspw. ein fest am zu steuernden Fahrzeug installiertes Objekt definierter Größe und Remission sein. Die Remission und die Referenzreflektivität des Objekts muss für jede genutzte Sensortechnologie getrennt festgelegt werden, um die Wellenlängenabhängigkeit der Intensität der rückgestrahlten Strahlung zu berücksichtigen.
  • Der Ablauf der verschiedenen Funktionen der sicheren Erkennung von Entitäten wird im Folgenden beschrieben:
    • Zyklisch erfasste Rohdaten 203 und 202 eines oder mehrerer zweiter 103 und eines oder mehrerer erster Sensoren 102 werden im ersten Schritt getrennt voneinander in den Vorverarbeitungseinheiten 105 bzw. 104 vorverarbeitet und plausibilisiert 206 und 207, um Objektdaten zu generieren. Im nächsten Schritt werden diese Daten dem Sensordatenfusionsmodul 107 zugeführt und in einer konkurrierenden Fusion 208 in einem einheitlichen Koordinatensystem fusioniert. Eine konkurrierende Fusion bedeutet, dass der Sensor sich durchsetzt, der eine Entität erkennt.
  • Diese Fusion dient dazu, Objektdaten innerhalb des erfassten Bereichs zu generieren, die durch diversitäre Redundanz ermittelt wurden. Somit ist sichergestellt, dass ein Punkt, bzw. ein Bereich im Koordinatensystem, erst als objektfrei gilt, wenn die Vorverarbeitung der Rohdaten für beide Sensortechnologien keine Entität in diesem Bereich ermittelt hat.
  • In einem weiteren Schritt werden diese fusionierten Objektdaten einer Gefahrenbewertungseinheit 108 zugeführt, in der in einem Schritt 210 ermittelt wird, ob eine Entität innerhalb eines dynamisch ermittelten Schutz- oder Warnfelds liegt.
  • Ein Schutzfeld zeichnet sich dadurch aus, dass eine darin erkannte Entität direkt zu einem sicheren Signal am Fahrzeug führt, welches entsprechend eine sichere Reaktion, wie bspw. eine Vollbremsung des Fahrzeugs, nach sich zieht. Dies bedeutet, dass ein Objekt innerhalb eines Schutzfelds entsprechend der gängigen Normen und Vorschriften sicher erkannt werden sollte und ein funktionales Abweichen des hier betrachteten Gegenstands von den Vorgaben erkannt und eine sichere Maßnahme eingeleitet werden sollte.
  • Ein Warnfeld zeichnet sich dadurch aus, dass ein erkanntes Objekt darin nur für das rein funktionelle Verhalten des Fahrzeugs genutzt wird. Weiterhin darf das Erkennen eines Objekts innerhalb des Warnfelds auch nicht sicher erfolgen, d. h. muss nicht entsprechend der gängigen Normen und Vorschriften stattfinden, da die ermittelte Information nicht für sicherheitsrelevante Funktionen am Fahrzeug genutzt wird. Ein rein funktionelles Verhalten wäre bspw. ein nicht sicherheitsrelevantes Abbremsen oder eine Verwendung der Daten für die Fahrzeugnavigation, sofern diese keine Sicherheitsfunktion erfüllen muss.
  • Die für die Erfindung genutzten Schutz- und Warnfelder werden dynamisch, d. h. an die aktuellen Fahrzeugzustände in der Schutz- und Warnzonenberechnung 109 angepasst, ermittelt und der Gefahrenbewertungseinheit 108 zur Gefahrenbewertung 210 zugänglich gemacht. Die externe Steuereinheit 110 stellt dabei der Sicherheitssteuerung 101 des hierin erläuterten Anordnung 100 vorgegebene Fahrzeugdaten, wie Fahrzeuggeschwindigkeit, Zuladung und Lenkwinkel, über eine sichere Kommunikationsschnittstelle 111 zur Verfügung 212. Die Schutz- und Warnfeldberechnung 209 berechnet anschließend aus diesen Daten für den aktuellen Auswertezyklus gültige Schutz- und Warnzonen, die in Form, Größe und Ausrichtung an den Fahrweg des Fahrzeugs angepasst sind und den für Personen unmittelbaren Gefahrenbereich abdecken.
  • Zu beachten ist, dass die Anzahl der betrachteten Schutz- und Warnzonen beliebig parametriert werden kann. Weiterhin kann die Berechnungsfunktion der Schutz- und Warnzonen beliebig parametriert werden, um das Verfahren für verschiedene Anwendungsfälle und Fahrzeuge nutzen zu können.
  • Nach erfolgter Gefahrenbewertung gibt das System die ermittelten Zustände der Schutz- und Warnzonen über die sichere Kommunikationsschnittstelle 111 aus, die dann der externen Steuereinheit 110 zur Verfügung gestellt werden 213.
  • Weiterhin verfügt die Anordnung 100 über die Diagnoseeinheit 106, um in vorteilhafter Weise einen Fehler zu erkennen, der zu einem unsicheren Verhalten führen kann. Dies beinhaltet auch die Beeinflussung des Verhaltens, insbesondere des ersten Sensors 102, bei widrigen Wetterverhältnissen oder Blendung, bspw. durch direkte Lichteinstrahlung.
  • Die Diagnosefunktion 211 wertet dabei sowohl die internen Diagnosen der angeschlossenen Sensoren 102 und 103 als auch der Sicherheitssteuerung 101 aus und erkennt, falls ein Umfeldsensor 102, 103 in seiner Funktion degradiert ist und meldet diese Fehler über eine sichere Kommunikationsform an die externe Steuerung 110.
  • Innerhalb der Diagnosefunktion werden die von der ersten Vorverarbeitungseinheit 104 und der zweiten Vorverarbeitungseinheit 105 ermittelten Objektdaten verglichen und auf Unterschiede überprüft. Liegt innerhalb des Toleranzbereichs ein Unterschied zwischen den Daten des ersten Sensors 102 und den Daten des zweiten Sensors 103 vor, wird ein entsprechendes Warnsignal an die externe Steuerung 110 des Fahrzeugs übermittelt. Liegt dieser Unterschied auch noch nach einer parametrierbaren Anzahl von Zyklen vor, nimmt die Anordnung 100 einen sicheren Zustand ein und teilt diese Nichtverfügbarkeit der externen Steuerung 110 mit.
  • Weiterhin überwacht die Diagnosefunktion 211 den zyklischen Eingang der Eingangsinformationen von der Fahrzeugsteuerung und der angeschlossenen Sensoren und plausibilisiert diese Daten.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102014205180 A1 [0008]
    • WO 03/031228 A2 [0009]
  • Zitierte Nicht-Patentliteratur
    • DIN EN ISO 13849-1:2015 [0005]
    • DIN EN 62998 [0005]

Claims (10)

  1. Verfahren zum Erkennen von Entitäten in einem definierten Bereich, bei dem von mindestens einem ersten Sensor (102) erste Rohdaten (202) und von mindestens einem zweiten Sensor (103) zweite Rohdaten (203) bereitgestellt werden, die im Rahmen einer Vorverarbeitung in erste Objektdaten und zweite Objektdaten gewandelt werden, und anschließend die ersten Objektdaten und die zweiten Objektdaten konkurrierend fusioniert (208) werden, wobei anhand der ersten und zweiten Objektdaten eine Gefahrenbewertung erfolgt.
  2. Verfahren nach Anspruch 1, bei dem der mindestens eine erste Sensor (102) sich von dem mindestens einen zweiten Sensor (103) in dem verwendeten Messprinzip unterscheidet.
  3. Verfahren nach Anspruch 1 oder 2, bei dem eine an Umgebungsbedingungen angepasste, maximal gültige Fahrgeschwindigkeit ermittelt wird.
  4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem eine Information zu einer erfassten Entität über eine Kommunikationsschnittstelle (111) an eine externe Steuereinheit (110) übermittelt wird.
  5. Verfahren nach einem der Ansprüche 1 bis 4, das in einem Außenbereich angewandt wird.
  6. Verfahren nach einem der Ansprüche 1 bis 4, das in einem Innenbereich angewandt wird.
  7. Verfahren nach einem der Ansprüche 1 bis 6, das für einen Bereich innerhalb eines dynamisch ermittelten Schutz- und/oder Warnfelds durchgeführt wird.
  8. Anordnung zum Erkennen von Entitäten in einem definierten Bereich, die zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 7 eingerichtet ist.
  9. Computerprogramm mit Programmcodemitteln, das dazu eingerichtet ist, ein Verfahren nach einem der Ansprüche 1 bis 7 auszuführen, wenn das Computerprogramm auf einer Recheneinheit, insbesondere einer Recheneinheit in einer Anordnung (100) gemäß Anspruch 6, ausgeführt wird.
  10. Maschinenlesbares Speichermedium mit einem darauf gespeicherten Computerprogramm nach Anspruch 9.
DE102018217128.9A 2018-10-08 2018-10-08 Verfahren zur Erkennung von Entitäten Pending DE102018217128A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018217128.9A DE102018217128A1 (de) 2018-10-08 2018-10-08 Verfahren zur Erkennung von Entitäten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018217128.9A DE102018217128A1 (de) 2018-10-08 2018-10-08 Verfahren zur Erkennung von Entitäten

Publications (1)

Publication Number Publication Date
DE102018217128A1 true DE102018217128A1 (de) 2020-04-09

Family

ID=69886643

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018217128.9A Pending DE102018217128A1 (de) 2018-10-08 2018-10-08 Verfahren zur Erkennung von Entitäten

Country Status (1)

Country Link
DE (1) DE102018217128A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003031228A2 (de) * 2001-10-05 2003-04-17 Robert Bosch Gmbh Objekterfassungsvorrichtung
DE102014205180A1 (de) * 2014-03-20 2015-09-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
DE102015201747A1 (de) * 2015-02-02 2016-08-04 Continental Teves Ag & Co. Ohg Sensorsystem für ein fahrzeug und verfahren
DE102016223106A1 (de) * 2016-11-23 2018-05-24 Robert Bosch Gmbh Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003031228A2 (de) * 2001-10-05 2003-04-17 Robert Bosch Gmbh Objekterfassungsvorrichtung
DE102014205180A1 (de) * 2014-03-20 2015-09-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
DE102015201747A1 (de) * 2015-02-02 2016-08-04 Continental Teves Ag & Co. Ohg Sensorsystem für ein fahrzeug und verfahren
DE102016223106A1 (de) * 2016-11-23 2018-05-24 Robert Bosch Gmbh Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts

Similar Documents

Publication Publication Date Title
WO2009071345A1 (de) Zentrales steuergerät für mehrere in einem kraftfahrzeug vorgesehene assistenzsysteme und kraftfahrzeug
DE102010018088B4 (de) Verfahren zum Überprüfen einer Kalibrierung sowie Kraftfahrzeug
EP2693278B1 (de) Verfahren zur effizienten Absicherung sicherheitskritischer Funktionen eines Steuergeräts und Steuergerät
DE102018216809A1 (de) Verfahren, Vorrichtung und Sensorsystem zur Umfelderfassung für ein Fahrzeug
DE102018205444B4 (de) Verfahren zum Kalibrieren eines Umfeldsensors eines Fahrzeugs sowie Fahrzeug zur Verwendung bei dem Verfahren
DE102011108292A1 (de) Verfahren zum Betrieb einer Fahrerassistenzvorrichtung
DE102018103803A1 (de) System und verfahren für das erkennen einer fehlerhaften sensorinstallation innerhalb eines fahrzeugs, um die mit der objekterkennung verbundenen gefahren zu verringern
DE102018127059A1 (de) Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs
DE102017116211A1 (de) Fahrzeuginnen- und -aussenüberwachung
DE102017118156A1 (de) Verfahren zum Überwachen eines Umgebungsbereiches eines Kraftfahrzeugs, Sensorsteuergerät, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102020209680B3 (de) Signalverarbeitungspfad, Vorrichtung zur Umfelderkennung und Verfahren zur Validierung eines automatisiert betreibbaren Fahrsystems
WO2019076542A2 (de) Verfahren und system zum betreiben eines fahrzeugs
DE102018006503A1 (de) Digitale Karte
DE102020119954A1 (de) Verfahren zum Erzeugen einer Belegungsgitterkarte für zumindest ein statisches Objekt, Computerprogrammprodukt, computerlesbares Speichermedium sowie Assistenzsystem
DE102018217128A1 (de) Verfahren zur Erkennung von Entitäten
EP3500824B1 (de) Verfahren und vorrichtung zur hinderniserkennung durch landmarken
DE102022002710A1 (de) Verfahren und Vorrichtung zur Verkehrszeichenerkennung
WO2015149799A1 (de) Stereokamerasystem
EP4007891B1 (de) Verfahren und vorrichtung zur lokalisierung eines fahrzeugs in einer umgebung
DE102019218078B4 (de) Bestimmung eines Sachverhalts im Umfeld eines Kraftfahrzeugs
WO2007057069A1 (de) System zur erfassung von objekten in der umgebung eines kraftfahrzeugs
DE102021000359A1 (de) Verfahren zur Bestimmung von falsch-positiven Erkennungen eines Lidarsensors
DE10308168A1 (de) Verfahren und Vorrichtung zur Ermittlung des Fahrzeugumfeldes
DE102015225742A1 (de) Verfahren zum Verarbeiten von Sensorsignalen zum Steuern einer Personenschutzeinrichtung eines Fahrzeugs, Steuergerät und Fahrzeug
DE102016202317A1 (de) Verfahren zum steuern von fahrzeugfunktionen durch ein fahrerassistenzsystem, fahrerassistenzsystem und fahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified