DE102020206857A1 - Fahrzeugvorrichtung für ein automatisiert betreibbares Fahrzeug - Google Patents

Fahrzeugvorrichtung für ein automatisiert betreibbares Fahrzeug Download PDF

Info

Publication number
DE102020206857A1
DE102020206857A1 DE102020206857.7A DE102020206857A DE102020206857A1 DE 102020206857 A1 DE102020206857 A1 DE 102020206857A1 DE 102020206857 A DE102020206857 A DE 102020206857A DE 102020206857 A1 DE102020206857 A1 DE 102020206857A1
Authority
DE
Germany
Prior art keywords
vehicle
sensor
sensor unit
objects
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020206857.7A
Other languages
English (en)
Inventor
Stefan Beller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102020206857.7A priority Critical patent/DE102020206857A1/de
Publication of DE102020206857A1 publication Critical patent/DE102020206857A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung geht aus von einer Fahrzeugvorrichtung für ein automatisiert betreibbares Fahrzeug (2a; 2b), um teilweise verdeckte Objekte (3a, 4a) zu erkennen, umfassend zumindest eine Sensoreinheit (5a; 5b) zu einer Erfassung von teilweise verdeckten Objekten (3a, 4a), zumindest einen Scheinwerfer (6a; 6b) und/oder zumindest eine Stoßstange (7a; 7b).Es wird vorgeschlagen, dass die Sensoreinheit (5a; 5b) in dem Scheinwerfer (6a; 6b) angeordnet und/oder ausklappbar ausgebildet ist, um ein bodennahes Sichtfeld (8a; 8b) zu erfassen.

Description

  • Die Erfindung bezieht sich auf eine Fahrzeugvorrichtung für ein automatisiert betreibbares Fahrzeug, um teilweise verdeckte Objekte zu erkennen. Weiterhin bezieht sich die Erfindung auf ein entsprechendes automatisiert betreibbares Fahrzeug. Zudem bezieht sich die Erfindung auch auf ein computerimplementiertes Verfahren, um teilweise verdeckte Objekte zu erkennen, und auf ein entsprechendes Computerprogrammprodukt.
  • Systeme zur Erkennung von teilweise verdeckten Objekten sind aus dem Stand der Technik bekannt. Beispielsweise beschreibt die US-amerikanische Patentanmeldung US 2008/0068145 A1 ein Fahrzeug mit einem Sensor zur Erkennung einer Fußbewegung. Die japanische Patentanmeldung JP 2016074314 A offenbart Kameras zur Detektion von Tieren in der Nähe eines Fahrzeugs.
  • Die Erfindung geht aus von einer Fahrzeugvorrichtung für ein automatisiert betreibbares Fahrzeug, um teilweise verdeckte Objekte zu erkennen. Die Fahrzeugvorrichtung umfasst zumindest eine Sensoreinheit zu einer Erfassung von teilweise verdeckten Objekten. Die Fahrzeugvorrichtung umfasst zumindest einen Scheinwerfer und/oder zumindest eine Stoßstange.
  • Es wird vorgeschlagen, dass die Sensoreinheit in dem Scheinwerfer angeordnet und/oder ausklappbar ausgebildet ist, um ein bodennahes Sichtfeld zu erfassen.
  • Unter einem „automatisiert betreibbaren Fahrzeug“ soll insbesondere ein Fahrzeug mit einer der Automatisierungsstufen 1 bis 5 der Norm SAE J3016 verstanden werden. Insbesondere weist das automatisiert betreibbare Fahrzeug eine technische Ausrüstung auf, die für diese Automatisierungsstufen gefordert ist. Die technische Ausrüstung umfasst insbesondere Umfelderkennungssensoren, wie beispielsweise Radar-Sensoren, Lidar-Sensoren, Kameras und/oder Akustik-Sensoren, Steuergeräte o. dgl. Bevorzugt ist das automatisiert betreibbare Fahrzeug als ein Landfahrzeug ausgebildet. Das automatisiert betreibbare Fahrzeug kann insbesondere als ein PKW, bevorzugt als ein Personentransportfahrzeug, als ein LKW, als ein Gabelstapler, als ein Industriefahrzeug, als eine Baumaschine oder als ein anderes, einem Fachmann als sinnvoll erscheinendes Fahrzeug ausgebildet sein. Unter „vorgesehen“ soll insbesondere speziell programmiert, speziell ausgestattet und/oder speziell ausgelegt verstanden werden. Darunter, dass ein Objekt zu einer Funktion vorgesehen ist, soll insbesondere verstanden werden, dass das Objekt die Funktion in zumindest einem Betriebszustand ausführt.
  • Die Sensoreinheit ist vorzugsweise zu einer Erfassung von lebendigen Objekten, insbesondere Menschen und/oder Tieren, vorgesehen. Alternativ oder zusätzlich ist vorstellbar, dass die Sensoreinheit zu einer Erfassung von leblosen Objekten, wie beispielsweise Bordsteinen, Pylonen, Leitplanken, Fahrrädern, insbesondere Fahrradspeichen und/oder Fahrradreflektoren, Bällen, Rollern, Bobby-Cars, Schuhen, Inlineskates, Skateboards, Kinderwägen, Fracht, Fässern o. dgl., vorgesehen ist. Insbesondere können die Objekte beweglich sein, wie beispielsweise rollende Fracht und/oder Fässer. Beispielsweise können, insbesondere bewegliche, Objekte, wie zum Beispiel ein, insbesondere rollender oder hüpfender, Ball, ein Roller, ein Bobby-Car o. dgl. auf zumindest ein spielendes Kind hindeuten. Beispielsweise können Objekte, wie zum Beispiel Schuhe, Inlineskates, Skateboards, Kinderwägen o. dgl. auf Personen hindeuten. Insbesondere kann die Sensoreinheit auch dazu vorgesehen sein, eine Bewegungsgeschwindigkeit, eine Bewegungsrichtung und/oder eine Distanz der Objekte, insbesondere relativ zu dem automatisiert betreibbaren Fahrzeug, zu erfassen. Die Sensoreinheit umfasst bevorzugt zumindest einen Sensor, der zur Erfassung der Objekte vorgesehen ist. Der Sensor kann insbesondere als eine Kamera, als ein Radar-Sensor, als ein Lidar-Sensor, als ein Akustik-Sensor, als ein Ultraschall-Sensor oder als ein anderer, einem Fachmann als sinnvoll erscheinender Sensor ausgebildet sein. Insbesondere kann die Sensoreinheit eine Mehrzahl von, insbesondere unterschiedlich ausgebildeten und/oder angeordneten, Sensoren umfassen. Vorzugsweise ist die Sensoreinheit dazu vorgesehen, einer Recheneinheit der Fahrzeugvorrichtung Sensordaten bereitzustellen.
  • Teilweise verdeckte Objekte sind von zumindest einem weiteren Objekt teilweise verdeckt. Die Sensoreinheit ist insbesondere dazu vorgesehen, von zumindest einem weiteren Objekt teilweise verdeckte Objekte zu erfassen. Die Sensoreinheit ist dazu vorgesehen, von dem automatisiert betreibbaren Fahrzeug aus betrachtet teilweise hinter und/oder unter dem weiteren Objekt angeordnete Objekte zu erfassen. Das weitere Objekt kann insbesondere als ein weiteres Fahrzeug, beispielsweise ein am Straßenrand parkendes Auto, ein an einer Haltestelle haltender Bus o. dgl., als eine Baustellenabsperrung, als ein Verkehrsschild oder als ein anderes, einem Fachmann als sinnvoll erscheinendes Objekt ausgebildet sein. Die Sensoreinheit ist insbesondere dazu vorgesehen, zumindest abschnittsweise bodennah angeordnete Objekte zu erfassen. Insbesondere sind zumindest bodennah angeordnete Teile der Objekte, insbesondere Beine, nicht verdeckt, zumindest von einer bodennahen Position betrachtet. Beispielsweise ist denkbar, dass ein hinter einem parkenden Auto stehendes Kind größtenteils von dem Auto verdeckt ist, aber Beine des Kinds, zumindest aus einer bodennahen Position betrachtet, aufgrund einer Bodenfreiheit des Autos nicht verdeckt sind. Beispielsweise ist denkbar, dass ein Tier, z.B. eine Katze, ein Hund o. dgl., unter einem Auto auf dem Boden liegt und aus einer erhöhten Position durch das Auto verdeckt ist. Aus einer bodennahen Position ist das Tier aber aufgrund der Bodenfreiheit des Autos erfassbar.
  • Die Sensoreinheit ist insbesondere dazu vorgesehen, ein bodennahes Sichtfeld zu erfassen. Insbesondere ist die Sensoreinheit dazu vorgesehen, in dem bodennahen Sichtfeld angeordnete Objekte zu erfassen. Bevorzugt ist die Sensoreinheit, insbesondere zumindest ein Sensor der Sensoreinheit, in Bodennähe angeordnet oder anordenbar. Vorzugsweise ist die Sensoreinheit, insbesondere zumindest ein Sensor der Sensoreinheit, ausklappbar ausgebildet. Insbesondere ist die Sensoreinheit, insbesondere der Sensor, aus einer Karosserie des automatisiert betreibbaren Fahrzeugs, insbesondere der Fahrzeugvorrichtung, ausklappbar. Unter „ausklappbar“ soll in diesem Zusammenhang insbesondere ausschwenkbar, auskippbar, ausfahrbar, ausschiebbar und/oder ausziehbar, insbesondere mittels eines Motors, verstanden werden. Insbesondere kann die Sensoreinheit, insbesondere der Sensor, zur Erfassung der Objekte außerhalb der Karosserie angeordnet sein. Insbesondere kann die Sensoreinheit, insbesondere der Sensor, zum Schutz gegen Umwelteinflüsse innerhalb der Karosserie angeordnet sein. Ein Ausklappen der Sensoreinheit, insbesondere des Sensors, kann vorzugsweise in Abhängigkeit von einer aktivierten Warnblinkanlage eines weiteren Objekts, in Abhängigkeit von einer Position des weiteren Objekts an einer Bushaltestelle, in Abhängigkeit von einer Position des automatisiert betreibbaren Fahrzeugs in besondere Aufmerksamkeit erfordernden Bereichen, wie beispielsweise Spielstraßen oder Fußgängerzonen, und/oder in Abhängigkeit von weiteren, einem Fachmann als sinnvoll erscheinenden Gründen erfolgen, insbesondere zumindest teilautomatisiert. Ein Einklappen der Sensoreinheit, insbesondere des Sensors, kann vorzugsweise in Abhängigkeit von einer Überschreitung eines Geschwindigkeitsgrenzwerts durch das automatisiert betreibbare Fahrzeug, in Abhängigkeit von fehlenden weiteren Objekten, insbesondere Fahrzeugen, in der Umgebung des automatisiert betreibbaren Fahrzeugs, in Abhängigkeit von erkannten Bodenwellen, Unebenheiten, Pfützen o. dgl. auf einem vorausliegenden Fahrweg und/oder in Abhängigkeit von weiteren, einem Fachmann als sinnvoll erscheinenden Gründen erfolgen, insbesondere zumindest teilautomatisiert. Alternativ oder zusätzlich ist denkbar, dass ein Ausklappen und/oder ein Einklappen der Sensoreinheit, insbesondere des Sensors, von einem Fahrzeuginsassen, insbesondere einem Fahrzeugführer, des automatisiert betreibbaren Fahrzeugs veranlassbar ist. Vorzugsweise ist die Sensoreinheit, insbesondere der Sensor, durch einen Ausklappvorgang in Bodennähe bewegbar. Darunter, dass ein Objekt „bodennah“ oder „in Bodennähe“ angeordnet ist, soll insbesondere verstanden werden, dass das Objekt höchstens 50 cm, bevorzugt höchstens 30 cm, besonders bevorzugt höchstens 10 cm und ganz besonders bevorzugt höchstens 5 cm von einer Fahrzeugaufstandsfläche beabstandet angeordnet ist. Unter einer „Fahrzeugaufstandsfläche“ soll insbesondere eine von einem Untergrund, auf dem das Fahrzeug angeordnet ist, beispielsweise von einer Straße, gebildete Fläche verstanden werden.
  • Alternativ oder zusätzlich zu der ausklappbaren Ausbildung ist denkbar, dass die Sensoreinheit, insbesondere zumindest ein Sensor der Sensoreinheit, in dem Scheinwerfer angeordnet ist. Insbesondere ist vorstellbar, dass zumindest ein Sensor ausklappbar ausgebildet ist und zumindest ein weiterer Sensor in dem Scheinwerfer angeordnet ist. Die Sensoreinheit, insbesondere der zumindest eine Sensor, kann vorzugsweise in einem Frontscheinwerfer und/oder in einem Heckscheinwerfer angeordnet sein. Insbesondere kann die Sensoreinheit eine Mehrzahl von Sensoren aufweisen, wobei zumindest ein Sensor in einem Frontscheinwerfer und zumindest ein weiterer Sensor in einem Heckscheinwerfer angeordnet ist. Bevorzugt ist die Sensoreinheit, insbesondere der Sensor, in einem Nebelscheinwerfer angeordnet.
  • Durch die erfindungsgemäße Ausgestaltung der Fahrzeugvorrichtung können vorteilhaft teilweise verdeckte Objekte erfasst werden. Vorteilhaft kann eine frühzeitige Detektion der teilweise verdeckten Objekte ermöglicht werden. Vorteilhaft kann vorausschauend auf teilweise verdeckte Objekte reagiert werden. Vorteilhaft können rechtzeitig Maßnahmen hinsichtlich der der teilweise verdeckten Objekte eingeleitet werden. Es kann eine vorteilhaft insassensichere und insassenkomfortable Fahrzeugvorrichtung bereitgestellt werden. Vorteilhaft kann eine hohe Verkehrssicherheit ermöglicht werden.
  • Des Weiteren wird vorgeschlagen, dass die ausklappbar ausgebildete Sensoreinheit, insbesondere der Sensor, in einem Bereich der Stoßstange angeordnet ist. Insbesondere ist die ausklappbar ausgebildete Sensoreinheit, insbesondere der Sensor, in einem Abstand von höchstens 20 cm, bevorzugt von höchstens 10 cm und besonders bevorzugt von höchstens 5 cm von der Stoßstange angeordnet. Vorzugsweise ist die ausklappbar ausgebildete Sensoreinheit, insbesondere der Sensor, unterhalb der Stoßstange angeordnet. Unter „unterhalb der Stoßstange“ soll insbesondere auf einer in einer normalen Fahr- oder Standsituation des Fahrzeugs einem Untergrund zugewandten Seite der Stoßstange verstanden werden. Alternativ ist vorstellbar, dass die ausklappbar ausgebildete Sensoreinheit, insbesondere der Sensor, zumindest teilweise in die Stoßstange integriert ist oder oberhalb der Stoßstange angeordnet ist. Die Stoßstange kann insbesondere als eine Frontstoßstange oder als eine Heckstoßstange ausgebildet sein. Vorzugsweise kann die Sensoreinheit zumindest zwei ausklappbar ausgebildete Sensoren aufweisen, wobei zumindest ein Sensor in einem Bereich der Frontstoßstange und zumindest ein weiterer Sensor in einem Bereich der Heckstoßstange angeordnet ist. Vorteilhaft kann eine bodennahe Anordnung der Sensoreinheit ermöglicht werden. Vorteilhaft kann eine zuverlässige Erfassung von teilweise verdeckten Objekten ermöglicht werden.
  • Ferner wird vorgeschlagen, dass die Sensoreinheit zumindest eine Kamera umfasst. Insbesondere kann der Sensor als Kamera ausgebildet sein. Die Kamera ist bevorzugt als eine Bewegtbildkamera ausgebildet. Alternativ ist denkbar, dass die Kamera als eine Standbildkamera ausgebildet ist. Vorzugsweise ist die Kamera als eine Farbkamera, insbesondere als eine RGB-Kamera, ausgebildet. Alternativ ist vorstellbar, dass die Kamera als eine Monochrom-Kamera, als eine Laufzeit-Kamera, im Englischen Time-of-Flight-Kamera (ToF-Kamera), oder als eine andere, einem Fachmann als sinnvoll erscheinende Kamera ausgebildet ist. Vorzugsweise weist die Kamera zumindest eine Weitwinkeloptik auf. Die Kamera ist vorzugsweise dazu vorgesehen, Bilder, insbesondere Bewegtbilder, der teilweise verdeckten Objekte aufzunehmen. Insbesondere können die von der Kamera aufgenommenen Bilder zu einer Erkennung der teilweise verdeckten Objekte automatisch ausgewertet werden und/oder einem Fahrzeuginsassen, insbesondere einem Fahrzeugführer, angezeigt werden. Vorteilhaft kann eine optische Erfassung der verdeckten Objekte ermöglicht werden.
  • Weiterhin wird vorgeschlagen, dass die Sensoreinheit zumindest eine Wärmebildkamera umfasst. Vorzugsweise kann der Sensor, insbesondere die Kamera, als Wärmebildkamera ausgebildet sein. Alternativ ist denkbar, dass die Sensoreinheit die Wärmebildkamera zusätzlich zu der Kamera umfasst. Vorzugsweise ist die Wärmebildkamera dazu vorgesehen, eine Wärmesignatur der teilweise verdeckten Objekte zu erfassen. Insbesondere sind die verdeckten Objekte anhand ihrer Wärmesignaturen klassifizierbar und insbesondere unterscheidbar. Beispielsweise kann ein Bein eines teilweise verdeckt angeordneten Menschen auf einem normalen Kamerabild ähnlich aussehen wie ein Pfosten. Allerdings weisen das menschliche Bein und der Pfosten üblicherweise unterschiedliche Wärmesignaturen auf. Insbesondere kann das menschliche Bein wärmer als der Pfosten sein. Vorzugsweise kann mittels der Wärmebildkamera das menschliche Bein trotz einer geometrisch ähnlichen Ausbildung von dem Pfosten unterschieden werden. Vorteilhaft können lebendige Objekte besonders zuverlässig erfasst werden.
  • Zudem wird vorgeschlagen, dass die Fahrzeugvorrichtung zumindest eine, insbesondere die vorgenannte, Recheneinheit umfasst, die dazu vorgesehen ist, zur Erkennung von Beinen und/oder Tieren Sensordaten der Sensoreinheit auszuwerten. Die Sensordaten umfassen vorzugsweise zumindest von der Kamera aufgenommene Bilder. Die Recheneinheit umfasst vorzugsweise zumindest eine erste Schnittstelle zu einem Empfang der Sensordaten. Vorzugsweise umfasst die Recheneinheit zumindest ein Rechenmodul zu einer Auswertung der Sensordaten. Vorzugsweise ist das Rechenmodul dazu vorgesehen, in Abhängigkeit von der Auswertung zumindest ein Steuer- oder Regelsignal für eine Fahrzeugsteuerungseinrichtung und/oder eine Erweiterte-Realitäts-Anzeige des automatisiert betreibbaren Fahrzeugs zu bestimmen. Die Recheneinheit umfasst vorzugsweise zumindest eine zweite Schnittstelle, um der Fahrzeugsteuerungseinrichtung und/oder der Erweiterten-Realitäts-Anzeige das Steuer- oder Regelsignal bereitzustellen.
  • Insbesondere kann ein Steuergerät, z.B. ein elektronisches Steuergerät, des automatisiert betreibbaren Fahrzeugs die Recheneinheit umfassen oder zumindest teilweise ausbilden. Ein Steuergerät bereitet Daten von Sensoren als Eingangssignale auf, verarbeitet diese mittels der Recheneinheit, insbesondere mittels des Rechenmoduls, beispielsweise einem programmierbaren Logikbaustein, einem FPGA- oder ASIC-Baustein oder einer Computerplattform, und stellt Logik- und/oder Leistungspegel als Steuer- oder Regelsignal bereit. Mit dem Steuer- oder Regelsignal werden insbesondere über die zweite Schnittstelle Aktuatoren für eine Längs- und/oder Querführung des Fahrzeugs gesteuert oder geregelt, um das Fahrzeug in der Spur zu halten und/oder eine Trajektorie zu prädizieren. Das Steuergerät ist vorzugsweise in ein Bordnetz des Fahrzeugs integriert, beispielsweise in einen CAN-Bus. Das Steuergerät ist beispielsweise ein elektronisches Steuergerät für automatisierte Fahrfunktionen, im Englischen Domain ECU genannt. Insbesondere kann das Steuergerät eine ADAS (advanced driver assistance system)/AD (autonomous driving) Domain ECU für assistiertes bis vollautomatisiertes, das heißt autonomes, Fahren.
  • Die Recheneinheit, insbesondere das Rechenmodul, ist beispielsweise als ein System-on-a-Chip mit modularem Hardwarekonzept realisiert, das heißt alle oder zumindest ein großer Teil von Funktionen sind auf einem Chip integriert und können modular erweitert werden. Der Chip ist insbesondere in das Steuergerät integrierbar. Die Recheneinheit, insbesondere das Rechenmodul, umfasst beispielsweise einen Mehrkernprozessor und Speichermodule. Der Mehrkernprozessor ist für einen Signal/Datenaustausch mit Speichermedien konfiguriert. Beispielsweise umfasst der Mehrkernprozessor ein Bussystem. Die Speichermodule bilden einen Arbeitsspeicher. Die Speichermodule sind beispielsweise RAM, DRAM, SDRAM oder SRAM. Bei einem Mehrkernprozessor sind mehrere Kerne auf einem einzigen Chip, das heißt einen Halbleiterbauelement, angeordnet. Mehrkernprozessoren erreichen eine höhere Rechenleistung und sind kostengünstiger in einem Chip zu implementieren im Vergleich zu Mehrprozessorsystemen, bei denen jeder einzelne Kern in einem Prozessorsockel angeordnet ist und die einzelnen Prozessorsockel auf einer Hauptplatine angeordnet sind. Die Recheneinheit, insbesondere das Rechenmodul, umfasst nach einem Aspekt der Erfindung wenigstens einen zentralen Verarbeitungsprozessor, im Englischen als Central Processing Unit, abgekürzt CPU, bezeichnet.
  • Die Recheneinheit, insbesondere das Rechenmodul, umfasst vorzugsweise auch wenigstens einen Grafikprozessor, im Englischen als Graphic Processing Unit, abgekürzt GPU, bezeichnet. Grafikprozessoren besitzen eine spezielle Mikroarchitektur zum parallelen Prozessieren von Abläufen. Nach einem Aspekt der Erfindung umfasst der Grafikprozessor wenigstens eine Prozesseinheit, die speziell zum Ausführen von Tensor- und/oder Matrixmultiplikation ausgeführt ist. Tensor- und/oder Matrixmultiplikation sind die zentralen Rechenoperationen für das Deep Learning. Die Recheneinheit, insbesondere das Rechenmodul, umfasst nach einem Aspekt der Erfindung auch Hardware-Beschleuniger für künstliche Intelligenz, zum Beispiel sogenannte Deep Learning Accelerators. Nach einem weiteren Aspekt der Erfindung wird ein Klassifikator in der Programmiertechnik CUDA bereitgestellt. Damit werden Softwarecodeabschnitte des Klassifikator direkt durch die GPU abgearbeitet. Bevorzugt sind die Recheneinheit oder das Steuergerät konfiguriert, modular mit mehreren, beispielsweise mindestens vier, derartiger Chips erweitert zu werden.
  • Eine Schnittstelle, insbesondere die erste Schnittstelle und die zweite Schnittstelle der Recheneinheit, ist/sind vorzugsweise zu einem Datenaustausch vorgesehen. Insbesondere ist der Datenaustausch als eine Signalübertragung eines, insbesondere elektrischen, Signals ausgebildet. Der Datenaustausch an den Schnittstellen erfolgt vorzugsweise kabelgebunden oder kabellos. Vorzugsweise ist die erste Schnittstelle dazu vorgesehen, dem Rechenmodul Daten, insbesondere Sensordaten, von der über die Schnittstelle datenübertragungstechnisch mit dem Rechenmodul verbundenen Sensoreinheit zuzuführen. Vorzugsweise ist die zweite Schnittstelle dazu vorgesehen, von dem Rechenmodul bestimmte Signale, insbesondere Steuer- oder Regelsignale, auszugeben. Insbesondere ist die zweite Schnittstelle dazu vorgesehen, die Steuer- oder Regelsignale an die Fahrzeugsteuerungseinrichtung und/oder die Erweiterte-Realitäts-Anzeige auszugeben. Insbesondere ist das Rechenmodul über die zweite Schnittstelle signalübertragungstechnisch mit der Fahrzeugsteuerungseinrichtung und/oder der Erweiterten-Realitäts-Anzeige verbunden.
  • Vorzugsweise ist die Recheneinheit dazu vorgesehen, durch eine Auswertung der Sensordaten zu erkennen, ob in einer Umgebung des automatisiert betreibbaren Fahrzeugs teilweise verdeckte Objekte angeordnet sind. Insbesondere ist die Recheneinheit dazu vorgesehen, in den von der Sensoreinheit aufgenommenen Bildern Beine und/oder Tiere zu erkennen. Unter „Beinen“ sollen in diesem Zusammenhang insbesondere Körperteile eines Unterkörpers, beispielsweise auch Füße, verstanden werden. Bevorzugt ist die Recheneinheit dazu vorgesehen, eine Position der Beine und/oder Tiere relativ zu dem automatisiert betreibbaren Fahrzeug zu erkennen und/oder zu ermitteln. Insbesondere ist die Recheneinheit darauf trainiert, Beine und/oder Tiere zu erkennen. Alternativ oder zusätzlich ist denkbar, dass die Recheneinheit dazu vorgesehen ist, die Beine und/oder Tiere durch einen Vergleich der Sensordaten der Sensoreinheit mit hinterlegten Sensordaten umfassend Beine und/oder Tiere zu erkennen. Nach einem Aspekt der Erfindung führt das Rechenmodul Programminstruktionen aus, um die Sensordaten zur Erkennung der Beine und/oder Tiere auszuwerten. Nach einem weiteren Aspekt der Erfindung umfassen die Programminstruktionen einen Maschinenlernalgorithmus, der trainiert ist, aus den empfangenen Sensordaten die Beine und/oder Tiere zu bestimmen. Der Maschinenlernalgorithmus ist beispielsweise als ein künstliches neuronales Netzwerk ausgebildet. Die Recheneinheit ist vorzugsweise dazu vorgesehen, in Abhängigkeit von erkannten Beinen und/oder Tieren auf ein Vorhandensein von teilweise verdeckten Objekten und insbesondere auf eine Position der teilweise verdeckten Objekte relativ zu dem automatisiert betreibbaren Fahrzeug zu schließen. Vorteilhaft kann eine zuverlässige Identifikation von teilweise verdeckten Objekten ermöglicht werden.
  • Des Weiteren wird vorgeschlagen, dass die Recheneinheit dazu vorgesehen ist, die Sensordaten zur Erkennung einer Ausrichtung und/oder Bewegungsrichtung der Beine zu erkennen. Vorzugsweise ist die Recheneinheit dazu vorgesehen, die Ausrichtung und/oder Bewegungsrichtung der Beine anhand von einem von der Sensoreinheit bereitgestellten Video, insbesondere einem Livestream, zu erkennen. Alternativ oder zusätzlich ist denkbar, dass die Recheneinheit dazu vorgesehen ist, die Ausrichtung und/oder Bewegungsrichtung der Beine anhand von einer Positionsänderung der Beine zwischen mehreren von der Sensoreinheit bereitgestellten Einzelbildern zu erkennen. Vorzugsweise ist die Recheneinheit dazu vorgesehen, in Abhängigkeit von der Ausrichtung und/oder Bewegungsrichtung der Beine eine Wahrscheinlichkeit dafür zu ermitteln, ob das teilweise verdeckte Objekt hinter dem weiteren Objekt hervorkommt, insbesondere sich in einen Fahrweg des automatisiert betreibbaren Fahrzeugs bewegt. Beispielsweise ist denkbar, dass die Recheneinheit erkennt, dass ein von einem am Straßenrand parkenden Fahrzeug teilweise verdeckter Fußgänger sich entsprechend einer Straßenüberquerung vor dem automatisiert betreibbaren Fahrzeug bewegt. Vorteilhaft kann eine vorausschauende Gefahrenabschätzung im Hinblick auf teilweise verdeckte Objekte ermöglicht werden.
  • Ferner wird vorgeschlagen, dass die Recheneinheit zumindest ein künstliches neuronales Netzwerk umfasst, das zur Auswertung der Sensordaten vorgesehen ist. Vorzugsweise ist das künstliche neuronale Netzwerk dazu vorgesehen, insbesondere dazu trainiert, durch die Auswertung der Sensordaten Beine und/oder Tiere zu erkennen. Insbesondere ist das künstliche neuronale Netzwerk dazu vorgesehen, insbesondere dazu trainiert, durch die Auswertung der Sensordaten eine Ausrichtung und/oder eine Bewegungsrichtung der Beine zu erkennen. Das künstliche neuronale Netzwerk kann beispielsweise als ein faltendes neuronales Netzwerk, im Englischen Convolutional Neural Network, abgekürzt CNN, ausgebildet sein. Vorteilhaft kann eine effiziente und zuverlässige Erkennung von teilweise verdeckten Objekten ermöglicht werden.
  • Weiterhin wird vorgeschlagen, dass die Recheneinheit dazu vorgesehen ist, in Abhängigkeit von der Auswertung der Sensordaten zumindest ein Steuer- oder Regelsignal für eine, insbesondere die vorgenannte, Fahrzeugsteuerungseinrichtung des automatisiert betreibbaren Fahrzeugs zu bestimmen. Die Fahrzeugsteuerungseinrichtung ist vorzugsweise dazu vorgesehen, eine Fortbewegung, insbesondere einen Fahrbetrieb, des automatisiert betreibbaren Fahrzeugs zu steuern. Insbesondere umfasst die Fahrzeugsteuerungseinrichtung Aktuatoren für Längs- und Querführung des automatisiert betreibbaren Fahrzeugs. Insbesondere sind die Aktuatoren mittels der von der Recheneinheit, insbesondere von dem Rechenmodul, bestimmten Steuer- oder Regelsignale ansteuerbar. Ein Aktuator für die Querführung kann beispielsweise als ein Elektromotor einer elektromechanischen Hilfskraftlenkung ausgebildet sein. Vorzugsweise umfasst das Steuer- oder Regelsignal zumindest einen Befehl für die Fahrzeugsteuerungseinrichtung, ein zumindest teilweise automatisiertes Fahrmanöver durchzuführen. Das Fahrmanöver kann insbesondere als ein Ausweichmanöver, als ein Bremsmanöver, als ein Beschleunigungsmanöver oder als ein anderes, einem Fachmann als sinnvoll erscheinendes Fahrmanöver ausgebildet sein. Insbesondere soll durch das Fahrmanöver ein Unfall des Fahrzeugs mit dem teilweise verdeckten Objekt verhindert oder Unfallfolgen zumindest reduziert werden. Vorzugsweise ist die Recheneinheit dazu vorgesehen, das Steuer- oder Regelsignal für die Fahrzeugsteuerungseinrichtung in Abhängigkeit von einem Erkennen von Beinen und/oder Tieren zu bestimmen. Vorteilhaft können vorausschauend und zumindest teilweise automatisiert Sicherheitsmaßnahmen im Hinblick auf teilweise verdeckte Objekte eingeleitet werden.
  • Zudem wird vorgeschlagen, dass die Recheneinheit dazu vorgesehen ist, in Abhängigkeit von der Auswertung der Sensordaten zumindest ein Steuer- oder Regelsignal für eine, insbesondere die vorgenannte, Erweiterte-Realitäts-Anzeige des automatisiert betreibbaren Fahrzeugs zu bestimmen. Insbesondere ist die Recheneinheit dazu vorgesehen, das Steuer- oder Regelsignal für die Erweiterte-Realitäts-Anzeige alternativ oder zusätzlich zu dem Steuer- oder Regelsignal für die Fahrzeugsteuerungseinrichtung zu bestimmen. Die Erweiterte Realität wird im Englischen auch Augmented Reality, abgekürzt AR, genannt. Die Erweiterte-Realitäts-Anzeige ist insbesondere dazu vorgesehen, einer Darstellung der Realität weitere Daten zu überlagern. Beispielsweise kann die Erweiterte-Realitäts-Anzeige als ein Head-Up-Display, als eine AR-Brille o. dgl. ausgebildet sein. Vorzugsweise umfasst das Steuer- oder Regelsignal zumindest einen Befehl für die Erweiterte-Realitäts-Anzeige, ein Warnsignal für einen Fahrzeuginsassen, insbesondere einen Fahrzeugführer, auszugeben. Das Warnsignal umfasst insbesondere einen Hinweis für den Fahrzeuginsassen, dass in einer Umgebung des Fahrzeugs teilweise verdeckte Objekte erkannt wurden. Insbesondere kann das Warnsignal eine Aufforderung für den Fahrzeugführer umfassen, manuell ein Fahrmanöver einzuleiten, um einen Unfall mit einem teilweise verdeckten Objekt zu verhindern. Das Warnsignal ist vorzugsweise als ein optisches Warnsignal ausgebildet. Beispielsweise kann ein Bild der Sensoreinheit mit einem, insbesondere markierten, teilweise verdeckten Objekt eingeblendet werden. Beispielsweise kann um ein in einem realen Sichtfeld des Fahrzeuginsassen befindlichen teilweise verdecktes Objekt eine Markierung eingeblendet werden. Alternativ oder zusätzlich ist auch die Ausgabe eines akustischen Warnsignal, beispielsweise eines Warntons, und/oder eines haptischen Warnsignals, beispielsweise einer Lenkradvibration, denkbar. Vorteilhaft kann ein Fahrzeuginsasse zuverlässig und komfortabel auf mögliche Gefährdungen von und/oder durch teilweise verdeckte Objekte aufmerksam gemacht werden.
  • Des Weiteren wird ein automatisiert betreibbares Fahrzeug vorgeschlagen. Das automatisiert betreibbare Fahrzeug umfasst zumindest eine, insbesondere die vorgenannte, Fahrzeugsteuerungseinrichtung. Das automatisiert betreibbare Fahrzeug umfasst zumindest eine, insbesondere die vorgenannte, Erweiterte-Realitäts-Anzeige. Das automatisiert betreibbare Fahrzeug umfasst zumindest eine, insbesondere die vorgenannte, Fahrzeugvorrichtung, um teilweise verdeckte Objekte zu erkennen. Die Fahrzeugvorrichtung weist zumindest eine, insbesondere die vorgenannte, Sensoreinheit zu einer Erfassung von teilweise verdeckten Objekten auf. Die Fahrzeugvorrichtung weist zumindest einen, insbesondere den vorgenannten, Scheinwerfer und/oder zumindest eine, insbesondere die vorgenannte, Stoßstange auf. Die Sensoreinheit ist in dem Scheinwerfer angeordnet und/oder ausklappbar ausgebildet, um ein bodennahes Sichtfeld zu erfassen. Es kann ein automatisiert betreibbares Fahrzeug mit einer vorteilhaft hohen Sicherheit für Fahrzeuginsassen und teilweise verdeckte Objekte bereitgestellt werden.
  • Ferner wird ein computerimplementiertes Verfahren, um teilweise verdeckte Objekte zu erkennen, vorgeschlagen. Zur Erkennung von Beinen und/oder Tieren werden Sensordaten zumindest einer, insbesondere der vorgenannten, Sensoreinheit eines, insbesondere des vorgenannten, automatisiert betreibbaren Fahrzeugs ausgewertet. Die Sensoreinheit ist in zumindest einem, insbesondere dem vorgenannten, Scheinwerfer angeordnet und/oder ausklappbar ausgebildet, um ein bodennahes Sichtfeld zu erfassen. Vorteilhaft kann ein insassensicheres und verkehrssicheres Verfahren zum Erkennen von teilweise verdeckten Objekten bereitgestellt werden.
  • Zudem wird ein Computerprogrammprodukt, um teilweise verdeckte Objekte zu erkennen, vorgeschlagen, umfassend Ausführungsbefehle, die bei der Ausführung des Programms durch eine erfindungsgemäße Recheneinheit diese veranlassen, ein erfindungsgemäßes Verfahren auszuführen. Vorteilhaft kann ein Computerprogrammprodukt zu einer effizienten Erkennung von teilweise verdeckten Objekten bereitgestellt werden.
  • Die Erfindung wird an zwei Ausführungsbeispielen in den folgenden Figuren verdeutlicht. Es zeigen:
    • 1 ein erfindungsgemäßes automatisiert betreibbares Fahrzeug in einer Umgebung in einer schematischen Darstellung,
    • 2 das erfindungsgemäße automatisiert betreibbare Fahrzeug aus 1 in einer schematischen Darstellung,
    • 3 das erfindungsgemäße automatisiert betreibbare Fahrzeug aus 1 in einer weiteren schematischen Darstellung,
    • 4 ein Ablaufdiagramm eines erfindungsgemäßen computerimplementierten Verfahrens in einer schematischen Darstellung und
    • 5 ein alternatives erfindungsgemäßes automatisiert betreibbares Fahrzeug in einer schematischen Darstellung.
  • 1 zeigt ein automatisiert betreibbares Fahrzeug 2a in einer Umgebung in einer schematischen Darstellung. Das automatisiert betreibbare Fahrzeug 2a ist auf einer Straße 16a fahrend dargestellt. In einer Umgebung des automatisiert betreibbaren Fahrzeugs 2a sind beispielhaft zwei teilweise verdeckte Objekte 3a, 4a angeordnet. Ein teilweise verdecktes Objekt 3a ist als ein Mensch, insbesondere als ein Fußgänger, ausgebildet. Ein weiteres teilweise verdecktes Objekt 4a ist als ein Tier 13a, insbesondere als ein Hund, ausgebildet. Die teilweise verdeckten Objekte 3a, 4a werden von einem weiteren Objekt 17a teilweise verdeckt. Das weitere Objekt 17a ist beispielsweise als ein Fahrzeug, insbesondere als ein haltender Bus, ausgebildet. Von dem automatisiert betreibbaren Fahrzeug 2a aus betrachtet ist das teilweise verdeckte Objekt 3a hinter dem weiteren Objekt 17a angeordnet. Von dem automatisiert betreibbaren Fahrzeug 2a aus betrachtet ist das weitere teilweise verdeckte Objekt 4a unter dem weiteren Objekt 17a angeordnet. Die teilweise verdeckten Objekte 3a, 4a sind zumindest abschnittsweise bodennah angeordnet. Das teilweise verdeckte Objekt 3a steht mit seinen Beinen 12a auf dem Boden. Das weitere teilweise verdeckte Objekt 4a liegt auf dem Boden. Zumindest bodennah angeordnete Teile der teilweise verdeckten Objekte 3a, 4a, insbesondere die Beine 12a, sind durch das weitere Objekt 17a nicht verdeckt, zumindest von einer bodennahen Position betrachtet. Das weitere Objekt 17a weist eine Bodenfreiheit auf, aufgrund von der die teilweise verdeckten Objekte 3a, 4a zumindest von einer bodennahen Position betrachtet teilweise einsehbar sind. Das automatisiert betreibbare Fahrzeug 2a umfasst eine Fahrzeugvorrichtung 1a, um die teilweise verdeckten Objekte 3a, 4a zu erkennen. Die Fahrzeugvorrichtung 1a umfasst zumindest eine Sensoreinheit 5a zu einer Erfassung der teilweise verdeckten Objekte 3a, 4a (vgl. 2).
  • 2 zeigt das automatisiert betreibbare Fahrzeug 2a aus 1 in einer schematischen Darstellung. Die Fahrzeugvorrichtung 1a umfasst zumindest einen Scheinwerfer 6a und zumindest eine Stoßstange 7a. Die Sensoreinheit 5a ist ausklappbar ausgebildet, um ein bodennahes Sichtfeld 8a zu erfassen. Die Sensoreinheit 5a umfasst zumindest einen Sensor 18a, der zur Erfassung der teilweise verdeckten Objekte 3a, 4a vorgesehen ist. Der Sensor 18a ist im vorliegenden Ausführungsbeispiel beispielhaft als Kamera 9a ausgebildet. Die Sensoreinheit 5a ist dazu vorgesehen, in dem bodennahen Sichtfeld 8a angeordnete Objekte 3a, 4a zu erfassen. Die Sensoreinheit 5a, insbesondere der Sensor 18a, ist ausklappbar ausgebildet. Die Sensoreinheit 5a, insbesondere der Sensor 18a, ist aus einer Karosserie 19a des automatisiert betreibbaren Fahrzeugs 2a, insbesondere der Fahrzeugvorrichtung 1a, ausklappbar. Die Sensoreinheit 5a, insbesondere der Sensor 18a, ist zur Erfassung der Objekte 3a, 4a außerhalb der Karosserie 19a angeordnet. Die Sensoreinheit 5a, insbesondere der Sensor 18a, ist zum Schutz gegen Umwelteinflüsse innerhalb der Karosserie 19a angeordnet. In 2 ist der Sensor 18a beispielhaft außerhalb der Karosserie 19a und gestrichelt innerhalb der Karosserie 19a dargestellt.
  • Die ausklappbar ausgebildete Sensoreinheit 5a, insbesondere der Sensor 18a, ist in einem Bereich der Stoßstange 7a angeordnet. Im vorliegenden Ausführungsbeispiel ist die Sensoreinheit 5a, insbesondere der Sensor 18a, beispielhaft in einem Bereich der als Frontstoßstange ausgebildeten Stoßstange 7a angeordnet. Die Sensoreinheit 5a, insbesondere der Sensor 18a, ist unterhalb der Stoßstange 7a angeordnet.
  • Die Sensoreinheit 5a umfasst zumindest eine Kamera 9a. Der Sensor 18a ist als Kamera 9a ausgebildet. Die Sensoreinheit 5a umfasst zumindest eine Wärmebildkamera 10a. Im vorliegenden Ausführungsbeispiel ist beispielhaft der Sensor 18a, insbesondere die Kamera 9a, als Wärmebildkamera 10a ausgebildet. Alternativ ist denkbar, dass die Sensoreinheit 5a die Wärmebildkamera 10a zusätzlich zu der Kamera 9a umfasst. Insbesondere könnte die Kamera 9a in einem alternativen Ausführungsbeispiel als eine Farbkamera, insbesondere als eine RGB-Kamera, als eine Monochrom-Kamera, als eine Laufzeit-Kamera o. dgl. ausgebildet sein. Die Kamera 9a ist dazu vorgesehen, Bilder, insbesondere Bewegtbilder, der teilweise verdeckten Objekte 3a, 4a aufzunehmen. Die Wärmebildkamera 10a ist dazu vorgesehen, eine Wärmesignatur der teilweise verdeckten Objekte 3a, 4a zu erfassen.
  • 3 zeigt das automatisiert betreibbare Fahrzeug 2a aus 1 in einer weiteren schematischen Darstellung. Die Fahrzeugvorrichtung 1a umfasst zumindest eine Recheneinheit 11a, die dazu vorgesehen ist, zur Erkennung von Beinen 12a und/oder Tieren 13a Sensordaten der Sensoreinheit auszuwerten. Die Sensordaten umfassen vorzugsweise zumindest von der Kamera 9a aufgenommene Bilder. Die Recheneinheit 11a umfasst zumindest eine erste Schnittstelle 20a zu einem Empfang der Sensordaten. Die Recheneinheit 11a umfasst zumindest ein Rechenmodul 21a zu einer Auswertung der Sensordaten. Das Rechenmodul 21a ist dazu vorgesehen, in Abhängigkeit von der Auswertung zumindest ein Steuer- oder Regelsignal für eine Fahrzeugsteuerungseinrichtung 14a und/oder eine Erweiterte-Realitäts-Anzeige 15a des automatisiert betreibbaren Fahrzeugs 2a zu bestimmen. Die Recheneinheit 11a umfasst zumindest eine zweite Schnittstelle 22a, um der Fahrzeugsteuerungseinrichtung 14a und/oder der Erweiterten-Realitäts-Anzeige 15a das Steuer- oder Regelsignal bereitzustellen.
  • Die Recheneinheit 11a ist dazu vorgesehen, durch eine Auswertung der Sensordaten zu erkennen, ob in der Umgebung des automatisiert betreibbaren Fahrzeugs 2a teilweise verdeckte Objekte 3a, 4a angeordnet sind. Die Recheneinheit 11a ist dazu vorgesehen, in den von der Sensoreinheit 5a aufgenommenen Bildern Beine 12a und/oder Tiere 13a zu erkennen. Die Recheneinheit 11a ist dazu vorgesehen, eine Position der Beine 12a und/oder Tiere 13a relativ zu dem automatisiert betreibbaren Fahrzeug 2a zu erkennen und/oder zu ermitteln. Die Recheneinheit 11a ist darauf trainiert, Beine 12a und/oder Tiere 13a zu erkennen. Die Recheneinheit 11a ist dazu vorgesehen, in Abhängigkeit von erkannten Beinen 12a und/oder Tieren 13a auf ein Vorhandensein von teilweise verdeckten Objekten 3a, 4a und insbesondere auf eine Position der teilweise verdeckten Objekte 3a, 4a relativ zu dem automatisiert betreibbaren Fahrzeug 2a zu schließen.
  • Die Recheneinheit 11a ist dazu vorgesehen, die Sensordaten zur Erkennung einer Ausrichtung und/oder Bewegungsrichtung der Beine 12a zu erkennen. Die Recheneinheit 11a ist dazu vorgesehen, in Abhängigkeit von der Ausrichtung und/oder Bewegungsrichtung der Beine 12a eine Wahrscheinlichkeit dafür zu ermitteln, ob das teilweise verdeckte Objekt 3a hinter dem weiteren Objekt 17a hervorkommt, insbesondere sich in einen Fahrweg des automatisiert betreibbaren Fahrzeugs 2a bewegt. Beispielsweise könnte der in 1 dargestellte Fußgänger die Straße 16a überqueren und sich dabei vor das automatisiert betreibbare Fahrzeug 2a bewegen.
  • Die Recheneinheit 11a umfasst zumindest ein künstliches neuronales Netzwerk, das zur Auswertung der Sensordaten vorgesehen ist (hier nicht weiter dargestellt). Das künstliche neuronale Netzwerk ist dazu vorgesehen, insbesondere dazu trainiert, durch die Auswertung der Sensordaten Beine 12a und/oder Tiere 13a zu erkennen. Das künstliche neuronale Netzwerk ist dazu vorgesehen, insbesondere dazu trainiert, durch die Auswertung der Sensordaten eine Ausrichtung und/oder eine Bewegungsrichtung der Beine 12a zu erkennen.
  • Die Recheneinheit 11a ist dazu vorgesehen, in Abhängigkeit von der Auswertung der Sensordaten zumindest ein Steuer- oder Regelsignal für die Fahrzeugsteuerungseinrichtung 14a zu bestimmen. Die Fahrzeugsteuerungseinrichtung 14a ist dazu vorgesehen, eine Fortbewegung, insbesondere einen Fahrbetrieb, des automatisiert betreibbaren Fahrzeugs 2a zu steuern. Das Steuer- oder Regelsignal umfasst zumindest einen Befehl für die Fahrzeugsteuerungseinrichtung 14a, ein zumindest teilweise automatisiertes Fahrmanöver durchzuführen. Durch das Fahrmanöver soll ein Unfall des Fahrzeugs 2a mit den teilweise verdeckten Objekten 3a, 4a verhindert oder Unfallfolgen zumindest reduziert werden. Die Recheneinheit 11a ist dazu vorgesehen, das Steuer- oder Regelsignal für die Fahrzeugsteuerungseinrichtung 14a in Abhängigkeit von einem Erkennen von Beinen 12a und/oder Tieren 13a zu bestimmen.
  • Die Recheneinheit 11a ist dazu vorgesehen, in Abhängigkeit von der Auswertung der Sensordaten zumindest ein Steuer- oder Regelsignal für die Erweiterte-Realitäts-Anzeige 15a zu bestimmen. Im vorliegenden Ausführungsbeispiel ist die Recheneinheit 11a beispielhaft dazu vorgesehen, das Steuer- oder Regelsignal für die Erweiterte-Realitäts-Anzeige 15a zusätzlich zu dem Steuer- oder Regelsignal für die Fahrzeugsteuerungseinrichtung 14a zu bestimmen. Die Erweiterte-Realitäts-Anzeige 15a ist dazu vorgesehen, einer Darstellung der Realität weitere Daten zu überlagern. Das Steuer- oder Regelsignal umfasst zumindest einen Befehl für die Erweiterte-Realitäts-Anzeige 15a, ein Warnsignal für einen Fahrzeuginsassen, insbesondere einen Fahrzeugführer, auszugeben. Das Warnsignal umfasst einen Hinweis für den Fahrzeuginsassen, dass in einer Umgebung des Fahrzeugs 2a teilweise verdeckte Objekte 3a, 4a erkannt wurden. Das Warnsignal kann eine Aufforderung für den Fahrzeugführer umfassen, manuell ein Fahrmanöver einzuleiten, um einen Unfall mit einem teilweise verdeckten Objekt 3a, 4a zu verhindern.
  • 4 zeigt ein Ablaufdiagramm eines computerimplementierten Verfahrens, um teilweise verdeckte Objekte 3a, 4a zu erkennen, in einer schematischen Darstellung. In einem ersten Verfahrensschritt 23a werden teilweise verdeckte Objekte 3a, 4a erfasst. In einem zweiten Verfahrensschritt 24a werden zur Erkennung von Beinen 12a und/oder Tieren 13a Sensordaten der Sensoreinheit 5a des automatisiert betreibbaren Fahrzeugs 2a ausgewertet. In einem dritten Verfahrensschritt 25a wird in Abhängigkeit von der Auswertung der Sensordaten zumindest ein Steuer- oder Regelsignal für die Fahrzeugsteuerungseinrichtung 14a und/oder die Erweiterte-Realitäts-Einheit 15a bestimmt.
  • Ein Computerprogrammprodukt, um teilweise verdeckte Objekte 3a, 4a zu erkennen, umfasst Ausführungsbefehle, die bei der Ausführung des Programms durch die Recheneinheit 11a diese veranlassen, das Verfahren auszuführen.
  • In der 5 ist ein weiteres Ausführungsbeispiel der Erfindung dargestellt. Hinsichtlich der Ausgestaltung gleich bezeichneter Bauteile, insbesondere hinsichtlich Bauteilen mit gleichen Bezugszeichen, darf auf das Ausführungsbeispiel der 1 bis 4 verwiesen werden. Zur Unterscheidung der Ausführungsbeispiele ist den Bezugszeichen des Ausführungsbeispiels der 1 bis 4 der Buchstabe a und den Bezugszeichen des Ausführungsbeispiels der 5 der Buchstabe b nachgestellt.
  • 5 zeigt ein alternatives automatisiert betreibbares Fahrzeug 2b in einer schematischen Darstellung. Das automatisiert betreibbare Fahrzeug 2b umfasst eine Fahrzeugvorrichtung 1b, um teilweise verdeckte Objekte zu erkennen. Die Fahrzeugvorrichtung 1b umfasst zumindest eine Sensoreinheit 5b zu einer Erfassung von teilweise verdeckten Objekten. Die Fahrzeugvorrichtung 1b umfasst zumindest einen Scheinwerfer 6b und zumindest eine Stoßstange 7b.
  • Das automatisiert betreibbare Fahrzeug 2b unterscheidet sich von dem automatisiert betreibbaren Fahrzeug 2a des ersten Ausführungsbeispiels in einer Anordnung der Sensoreinheit 5b. Die Sensoreinheit 5b, insbesondere zumindest ein Sensor 18b der Sensoreinheit 5b, ist in dem Scheinwerfer 6b angeordnet. Der Sensor 18b ist als eine Kamera 9b, insbesondere als eine Wärmebildkamera 10b, ausgebildet. Grundsätzlich ist auch eine Kombination der beiden Ausführungsbeispiele denkbar, wobei die Sensoreinheit 5b mehrere Sensoren 18b aufweist und zumindest ein Sensor 18b in dem Scheinwerfer 6b angeordnet und zumindest ein weiterer Sensor ausklappbar ausgebildet ist. Die vorliegende Sensoreinheit 5b, insbesondere der Sensor 18b, ist fest in dem Scheinwerfer 6b verbaut. In einer alternativen Ausgestaltung ist aber auch denkbar, dass die Sensoreinheit 5b, insbesondere der Sensor 18b, aus dem Scheinwerfer 6b herausklappbar ist. Der Scheinwerfer 6b ist im vorliegenden Ausführungsbeispiel beispielhaft als ein Frontscheinwerfer, insbesondere als ein Nebelscheinwerfer, ausgebildet.
  • Bezugszeichenliste
  • 1
    Fahrzeugvorrichtung
    2
    automatisiert betreibbares Fahrzeug
    3
    teilweise verdecktes Objekt
    4
    weiteres teilweise verdecktes Objekt
    5
    Sensoreinheit
    6
    Scheinwerfer
    7
    Stoßstange
    8
    bodennahes Sichtfeld
    9
    Kamera
    10
    Wärmebildkamera
    11
    Recheneinheit
    12
    Bein
    13
    Tier
    14
    Fahrzeugsteuerungseinrichtung
    15
    Erweiterte-Realitäts-Anzeige
    16
    Straße
    17
    weiteres Objekt
    18
    Sensor
    19
    Karosserie
    20
    erste Schnittstelle
    21
    Rechenmodul
    22
    zweite Schnittstelle
    23
    erster Verfahrensschritt
    24
    zweiter Verfahrensschritt
    25
    dritter Verfahrensschritt
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2008/0068145 A1 [0002]
    • JP 2016074314 A [0002]
  • Zitierte Nicht-Patentliteratur
    • Norm SAE J3016 [0005]

Claims (13)

  1. Fahrzeugvorrichtung für ein automatisiert betreibbares Fahrzeug (2a; 2b), um teilweise verdeckte Objekte (3a, 4a) zu erkennen, umfassend zumindest eine Sensoreinheit (5a; 5b) zu einer Erfassung von teilweise verdeckten Objekten (3a, 4a), zumindest einen Scheinwerfer (6a; 6b) und/oder zumindest eine Stoßstange (7a; 7b), dadurch gekennzeichnet, dass die Sensoreinheit (5a; 5b) in dem Scheinwerfer (6a; 6b) angeordnet und/oder ausklappbar ausgebildet ist, um ein bodennahes Sichtfeld (8a; 8b) zu erfassen.
  2. Fahrzeugvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die ausklappbar ausgebildete Sensoreinheit (5a) in einem Bereich der Stoßstange (7a) angeordnet ist.
  3. Fahrzeugvorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Sensoreinheit (5a; 5b) dazu vorgesehen ist, von dem automatisiert betreibbaren Fahrzeug (2a; 2b) aus betrachtet teilweise hinter und/oder unter einem weiteren Objekt (17a) angeordnete Objekte (3a, 4a) zu erfassen.
  4. Fahrzeugvorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Sensoreinheit (5a; 5b) zumindest eine Kamera (9a; 9b) umfasst.
  5. Fahrzeugvorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Sensoreinheit (5a; 5b) zumindest eine Wärmebildkamera (10a; 10b) umfasst.
  6. Fahrzeugvorrichtung nach einem der vorhergehenden Ansprüche, umfassend zumindest eine Recheneinheit (11a), die dazu vorgesehen ist, zur Erkennung von Beinen (12a) und/oder Tieren (13a) Sensordaten der Sensoreinheit (5a) auszuwerten.
  7. Fahrzeugvorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass die Recheneinheit (11a) dazu vorgesehen ist, die Sensordaten zur Erkennung einer Ausrichtung und/oder Bewegungsrichtung der Beine (12a) zu erkennen.
  8. Fahrzeugvorrichtung nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass die Recheneinheit (11a) zumindest ein künstliches neuronales Netzwerk umfasst, das zur Auswertung der Sensordaten vorgesehen ist.
  9. Fahrzeugvorrichtung nach einem der Ansprüche 6 bis 8, dadurch gekennzeichnet, dass die Recheneinheit (11a) dazu vorgesehen ist, in Abhängigkeit von der Auswertung der Sensordaten zumindest ein Steuer- oder Regelsignal für eine Fahrzeugsteuerungseinrichtung (14a) des automatisiert betreibbaren Fahrzeugs (2a; 2b) zu bestimmen.
  10. Fahrzeugvorrichtung nach einem der Ansprüche 6 bis 9, dadurch gekennzeichnet, dass die Recheneinheit (11 a) dazu vorgesehen ist, in Abhängigkeit von der Auswertung der Sensordaten zumindest ein Steuer- oder Regelsignal für eine Erweiterte-Realitäts-Anzeige (15a) des automatisiert betreibbaren Fahrzeugs (2a; 2b) zu bestimmen.
  11. Automatisiert betreibbares Fahrzeug umfassend zumindest eine Fahrzeugsteuerungseinrichtung (14a), zumindest eine Erweiterte-Realitäts-Anzeige (15a) und zumindest eine Fahrzeugvorrichtung (1a; 1b), um teilweise verdeckte Objekte (3a, 4a) zu erkennen, die zumindest eine Sensoreinheit (5a; 5b) zu einer Erfassung von teilweise verdeckten Objekten (3a, 4a), zumindest einen Scheinwerfer (6a; 6b) und/oder zumindest eine Stoßstange (7a; 7b) aufweist, wobei die Sensoreinheit (5a; 5b) in dem Scheinwerfer (6a; 6b) angeordnet und/oder ausklappbar ausgebildet ist, um ein bodennahes Sichtfeld (8a; 8b) zu erfassen.
  12. Computerimplementiertes Verfahren, um teilweise verdeckte Objekte (3a, 4a) zu erkennen, wobei zur Erkennung von Beinen (12a) und/oder Tieren (13a) Sensordaten zumindest einer Sensoreinheit (5a; 5b) eines automatisiert betreibbaren Fahrzeugs (2a; 2b) ausgewertet werden, wobei die Sensoreinheit (5a; 5b) in zumindest einem Scheinwerfer (6a) angeordnet und/oder ausklappbar ausgebildet ist, um ein bodennahes Sichtfeld (8a; 8b) zu erfassen.
  13. Computerprogrammprodukt, um teilweise verdeckte Objekte (3a, 4a) zu erkennen, umfassend Ausführungsbefehle, die bei der Ausführung des Programms durch eine Recheneinheit (11a) nach einem der Ansprüche 6 bis 10 diese veranlassen, ein Verfahren nach Anspruch 12 auszuführen.
DE102020206857.7A 2020-06-02 2020-06-02 Fahrzeugvorrichtung für ein automatisiert betreibbares Fahrzeug Pending DE102020206857A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020206857.7A DE102020206857A1 (de) 2020-06-02 2020-06-02 Fahrzeugvorrichtung für ein automatisiert betreibbares Fahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020206857.7A DE102020206857A1 (de) 2020-06-02 2020-06-02 Fahrzeugvorrichtung für ein automatisiert betreibbares Fahrzeug

Publications (1)

Publication Number Publication Date
DE102020206857A1 true DE102020206857A1 (de) 2021-12-02

Family

ID=78508890

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020206857.7A Pending DE102020206857A1 (de) 2020-06-02 2020-06-02 Fahrzeugvorrichtung für ein automatisiert betreibbares Fahrzeug

Country Status (1)

Country Link
DE (1) DE102020206857A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080068145A1 (en) 2006-09-20 2008-03-20 Hella Kgaa Motor Vehicle With A Sensor Arrangement
JP2016074314A (ja) 2014-10-07 2016-05-12 株式会社デンソー 車両用警告装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080068145A1 (en) 2006-09-20 2008-03-20 Hella Kgaa Motor Vehicle With A Sensor Arrangement
JP2016074314A (ja) 2014-10-07 2016-05-12 株式会社デンソー 車両用警告装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Norm SAE J3016

Similar Documents

Publication Publication Date Title
KR102355257B1 (ko) 자율 차량들을 위한 소프트웨어 검증
DE102017207968B4 (de) Vorrichtung zum Vorbeugen gegen einen Fußgängerkollisionsunfall, System mit derselben, und Verfahren hierzu
DE102017105897A1 (de) Fahrzeug und Verfahren zum Steuern davon
DE102018105577A1 (de) Parkhilfeverfahren sowie Parkhilfevorrichtung, automatische Fahrsteuerungsvorrichtung und Programm, die das Parkhilfeverfahren verwenden
DE102015222934A1 (de) Steuern eines Kraftfahrzeugs
DE102016219503A1 (de) Verfahren und Fahrerassistenzsystem zur Erkennung der Intention eines Fußgängers zur Querung einer Ego-Fahrspur
DE102018216110A1 (de) Verfahren und Vorrichtung zum Bereitstellen eines Umfeldabbildes eines Umfeldes einer mobilen Einrichtung und Kraftfahrzeug mit einer solchen Vorrichtung
WO2013083384A1 (de) Verfahren und fahrzeugassistenzsystem zur aktiven warnung und/oder zur navigationshilfe zur vermeidung einer kollision eines fahrzeugkarosserieteils und/oder eines fahrzeugrades mit einem objekt
DE102011011870A1 (de) Komponenten-basierte Detektion, Klassifikation, Verfolgung und Prädikation von Objekten
DE102017124904A1 (de) Fußgängergesichtserkennung
DE102013224171A1 (de) Verfahren und Steuer- und Erfassungseinrichtung zur Erkennung einer Einfahrt eines Kraftfahrzeugs in einen Fahrstreifen einer Straße entgegen einer Fahrrichtung
DE102022107848A1 (de) System und verfahren zur aktualisierung von karten mit hoher auflösung
DE102020118531A1 (de) Verfahren und Vorrichtung zum Verhindern eines Zusammenstoßes eines Kraftfahrzeuges mit einem Fahrrad
DE102008043761B4 (de) Verfahren und Steuergerät zum Anpassen eines Fahrzeugassistenzsystems
DE102020206857A1 (de) Fahrzeugvorrichtung für ein automatisiert betreibbares Fahrzeug
EP2737282B1 (de) Verfahren und vorrichtung zum bestimmen aktueller fahrzeugspezifischer orientierungsdaten für ein fahrzeug
DE102023103171A1 (de) VERFAHREN UND VORRICHTUNG ZUM BESTIMMEN DER POSITION EINES FUßGÄNGERS
DE102016214316A1 (de) Verfahren und Vorrichtung zum Erkennen eines durch ein Fahrzeugteil zumindest teilverdeckten Objekts in einer Fahrzeugumgebung eines Kraftfahrzeugs
DE102021127028A1 (de) Systeme und verfahren für anpassbare heckkollisionswarnmeldungen
DE102016120166A1 (de) Steuern eines Fahrzeugs in Abhängigkeit von der Umgebung
DE102016119592A1 (de) Verfahren zum Erkennen von Objekten in einem Umgebungsbereich eines Kraftfahrzeugs unter Berücksichtigung von Sensordaten im infraroten Wellenlängenbereich, Objekterkennungsvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE112021000026T5 (de) Integrität einer flusssteuerung
DE102004022289A1 (de) Fahrdynamikregelung mit Bildsensorsystem
DE102018202356A1 (de) Verfahren und Vorrichtung zum Prüfen einer Freigabe einer Anfahrt für ein Fahrzeug
DE102019000434A1 (de) Hinderniserfassungsvorrichtung für ein Fahrzeug sowie Verfahren zum Ausweichen eines Hindernisses für ein Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed