DE102019200592A1 - Control device and method and computer program product for an autonomous or semi-autonomous vehicle - Google Patents

Control device and method and computer program product for an autonomous or semi-autonomous vehicle Download PDF

Info

Publication number
DE102019200592A1
DE102019200592A1 DE102019200592.6A DE102019200592A DE102019200592A1 DE 102019200592 A1 DE102019200592 A1 DE 102019200592A1 DE 102019200592 A DE102019200592 A DE 102019200592A DE 102019200592 A1 DE102019200592 A1 DE 102019200592A1
Authority
DE
Germany
Prior art keywords
vehicle
environment
unit
control device
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102019200592.6A
Other languages
German (de)
Inventor
Steffen Biel
Bastian Volpert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102019200592.6A priority Critical patent/DE102019200592A1/en
Priority to PCT/EP2019/085551 priority patent/WO2020148056A1/en
Publication of DE102019200592A1 publication Critical patent/DE102019200592A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/26
    • B60K35/28
    • B60K35/29
    • B60K35/60
    • B60K37/10
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/507Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking specific to autonomous vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/525Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking automatically indicating risk of collision between vehicles in traffic or with pedestrians, e.g. after risk assessment using the vehicle sensor data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • B60K2360/166
    • B60K2360/172
    • B60K2360/178
    • B60K2360/179
    • B60K2360/1868
    • B60K2360/334
    • B60K2360/797
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/47Direct command from other road users, i.e. the command for switching or changing the beam is sent by other vehicles or road devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/50Projected symbol or information, e.g. onto the road or car body
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/10Road Vehicles
    • B60Y2200/15Fork lift trucks, Industrial trucks

Abstract

Steuervorrichtung (10) für ein autonomes oder teilautonomes Fahrzeug (50), umfassend eine Eingabeschnittstelle (12) zum Erhalten von einer Sensoreinrichtung (40) erfasster Umfeld- und/oder Fahrzeugzustandsdaten (43, 45), eine Auswerteeinheit (14) zum Auswerten der erhaltenen Umfeld- und/oder Fahrzeugzustandsdaten (43, 45), um eine Veränderung eines Umfelds und/oder eines Zustands des Fahrzeugs (50) zu identifizieren, eine Signalerzeugungseinheit (16) zum Erzeugen eines Steuersignals für eine Lichtquelle, eine Visualisierungseinheit (30) und/oder eine akustische Einheit, sodass die Lichtquelle ein Lichtsignal emittiert, die Visualisierungseinheit (30) ein Muster (32) auf einer Anzeigefläche (34) visualisiert, oder die akustische Einheit ein akustisches Signal aussendet, wobei das Lichtsignal, das akustische Signal, die Wahl des Musters (32) und/oder der Anzeigefläche (34) basierend auf der von der Auswerteeinheit (14) identifizierten Veränderung variabel ist, und eine Ausgabeschnittstelle (18) zum Ausgeben des Steuersignals an die Lichtquelle, die Visualisierungseinheit (30) oder die akustische Einheit.Control device (10) for an autonomous or semi-autonomous vehicle (50), comprising an input interface (12) for obtaining environmental and / or vehicle status data (43, 45) recorded by a sensor device (40), an evaluation unit (14) for evaluating the received one Environment and / or vehicle status data (43, 45) to identify a change in an environment and / or a status of the vehicle (50), a signal generation unit (16) for generating a control signal for a light source, a visualization unit (30) and / or an acoustic unit so that the light source emits a light signal, the visualization unit (30) visualizes a pattern (32) on a display surface (34), or the acoustic unit emits an acoustic signal, the light signal, the acoustic signal, the choice of the Pattern (32) and / or the display area (34) based on the change identified by the evaluation unit (14) is variable, and an output interface le (18) for outputting the control signal to the light source, the visualization unit (30) or the acoustic unit.

Description

TECHNISCHES GEBIETTECHNICAL AREA

Die vorliegende Erfindung betrifft das Gebiet der autonom beziehungsweise teilautonom fahrenden Fahrzeuge. Insbesondere betrifft sie eine Steuervorrichtung und eine Steuerverfahren sowie ein Computer-Programm-Produkt für ein solches Fahrzeug.The present invention relates to the field of autonomously or partially autonomously driving vehicles. In particular, it relates to a control device and a control method as well as a computer program product for such a vehicle.

TECHNISCHER HINTERGRUNDTECHNICAL BACKGROUND

Auf dem Gebiet der autonom beziehungsweise teilautonom fahrenden Fahrzeuge gilt es als eine Herausforderung, die Sicherheit im Straßenverkehr zu gewährleisten. Sowohl in offenen als auch in geschlossenen Gebieten ist es essentiell, dass Kollisionen zwischen Fahrzeugen sowie zwischen diesen einerseits und Passanten und sonstigen Gegenständen andererseits zu vermeiden.In the field of autonomous or semi-autonomous vehicles, it is a challenge to ensure road safety. In both open and closed areas, it is essential to avoid collisions between vehicles and between them on the one hand and passers-by and other objects on the other.

Für diese Zwecke sind in der Vergangenheit zahlreiche Lösungsansätze vorgeschlagen worden. Unter anderem sind Fahrerassistenzsysteme entwickelt und verbessert worden, um den Fahrer dabei zu assistieren, Kollisionsgefahren frühzeitig zu erkennen und Gegenmaßnahmen möglichst zu ergreifen.Numerous approaches have been proposed for these purposes in the past. Among other things, driver assistance systems have been developed and improved to assist the driver in detecting collision risks at an early stage and taking countermeasures as far as possible.

Dennoch sind diese Lösungsansätze hinsichtlich der Kollisionsvermeidung nur bedingt wirksam. Insbesondere fehlt es bei derartigen Lösungen an Interaktionen zwischen dem Fahrzeug und dem Passanten. Dies führt dazu, dass der Passant in vielen Situationen nicht hinreichend auf das sich nähernde Fahrzeug sensibilisiert wird. Der Passant kann daher nicht seinerseits Aktionen rechtzeitig vornehmen, die eine Kollision hätten vermeiden können.Nevertheless, these approaches are only partially effective with regard to collision avoidance. In particular, such solutions lack interaction between the vehicle and the passer-by. This means that in many situations the passer-by is not sufficiently sensitized to the approaching vehicle. The passer-by cannot therefore take timely actions that could have avoided a collision.

Der Erfindung liegt daher die Aufgabe zu Grunde, eine Steuervorrichtung und - verfahren für ein autonomes oder teilautonomes Fahrzeug zu realisieren, welches die Kollisionsvermeidung reduziert und die Sicherheit besser gewährleistet.The invention is therefore based on the object of realizing a control device and method for an autonomous or semi-autonomous vehicle, which reduces collision avoidance and better ensures safety.

Die Aufgabe wird gelöst durch eine Steuervorrichtung, ein Steuerverfahren sowie ein Computer-Programm-Produkt gemäß den unabhängigen Ansprüchen.The object is achieved by a control device, a control method and a computer program product according to the independent claims.

Bei dem Fahrzeug kann es sich beispielsweise um einen autonom oder teilautonom fahrenden Personen- oder Lastkraftwagen, ein autonom oder teilautonom fahrendes Offroad- und/oder Nutzfahrzeug, eine autonom oder teilautonom fahrende Industrie- und/oder Landmaschine handeln.The vehicle can be, for example, an autonomous or semi-autonomous passenger or truck, an autonomous or semi-autonomous off-road and / or utility vehicle, an autonomous or semi-autonomous industrial and / or agricultural machine.

Bei der Steuervorrichtung kann es sich beispielsweise um eine elektronische Steuereinheit (engl. ECU = electronic control unit), ein elektronisches Steuermodul (ECM = electronic control module) oder eine Steuereinheit für autonomes Fahren (z.B. ein „Autopilot“) handeln. Die Steuervorrichtung kann beispielsweise für ein autonomes Fahrzeug eingesetzt werden, so dass dieses ganz oder teilweise ohne Einfluss eines menschlichen Fahrers agieren kann. Die Steuervorrichtung kann sich im Fahrzeug befinden, oder auch außerhalb oder teilweise außerhalb des Fahrzeugs. So kann es sich beispielsweise um einen Algorithmus handeln, der auf einem Server oder einem Cloud-System abläuft.The control device can be, for example, an electronic control unit (ECU), an electronic control module (ECM = electronic control module) or a control unit for autonomous driving (e.g. an "autopilot"). The control device can be used, for example, for an autonomous vehicle, so that it can operate in whole or in part without the influence of a human driver. The control device can be located in the vehicle, or also outside or partially outside the vehicle. For example, it can be an algorithm that runs on a server or a cloud system.

Bei der Sensoreinrichtung handelt es sich beispielsweise um einen oder mehrere Radar-, Lidar- und/oder Ultraschallsensoren handeln. Alternativ kann es sich hierbei um eine oder mehrere Kameras, die Bildsensoren insbesondere in Form eines CCD oder CMOS aufweisen. Die von den Bildsensoren erzeugten Bilddaten können beispielsweise aus Luminanzdaten (Grauwerte, Helligkeit) bestehen oder auch Chrominanzdaten (Farbe) enthalten.The sensor device is, for example, one or more radar, lidar and / or ultrasonic sensors. Alternatively, this can be one or more cameras that have image sensors, in particular in the form of a CCD or CMOS. The image data generated by the image sensors can consist, for example, of luminance data (gray values, brightness) or also contain chrominance data (color).

Die Sensoreinrichtung enthält vorzugsweise zumindest einen Umfeldsensor und/oder zumindest einen Fahrzeugzustandssensor. Der Umfeldsensor ist dazu ausgebildet, um das Umfeld des Fahrzeugs zu überwachen und gegebenenfalls Objekte auf einer Fahrbahn zu erkennen. Beispielsweise werden Sensordaten vom Umfeldsensor erzeugt, die eine sich dem Fahrzeug nähernde Person oder ein anderes, sich dem Fahrzeug näherndes Fahrzeug betreffen. Der Fahrzeugzustandsensor ist beispielsweise dazu ausgebildet, um die Geschwindigkeit, die Beschleunigung, die Ausrichtung, die Position in zumindest einer, vorzugsweise drei Raumrichtungen, die Drehgeschwindigkeit und- richtung eines oder mehrerer Räder oder einen anderen Fahrzeugzustandsparameter zu erfassen.The sensor device preferably contains at least one environment sensor and / or at least one vehicle condition sensor. The environment sensor is designed to monitor the environment of the vehicle and, if necessary, to recognize objects on a roadway. For example, sensor data are generated by the environment sensor that relate to a person approaching the vehicle or another vehicle approaching the vehicle. The vehicle state sensor is designed, for example, to detect the speed, the acceleration, the orientation, the position in at least one, preferably three spatial directions, the rotational speed and direction of one or more wheels or another vehicle state parameter.

Die Auswerteeinheit ist dazu ausgebildet, eine Veränderung in den Umfeld- beziehungsweise Fahrzeugzustandsdaten zu erkennen. Die Auswerteeinheit kann dazu ausgelegt sein, die lokale Verteilung und Variation von Grauwerten und/oder von Chrominanzwerten in den kamerabasierten Bilddaten zu evaluieren. Beispielsweise kann die Auswerteeinheit in den Umfelddaten eine in eine vom Fahrzeug zu befahrende Zone eintretende Person erkennen, in der vorher keine Personen waren. Die Auswerteeinheit kann beispielsweise in den Fahrzeugzustandsdaten das Überschreiten eines Tempolimits, einer Radwinkelgeschwindigkeit oder das Unterschreiten einer kritischen Batterieladekapazität feststellen.The evaluation unit is designed to detect a change in the environment or vehicle status data. The evaluation unit can be designed to evaluate the local distribution and variation of gray values and / or of chrominance values in the camera-based image data. For example, the evaluation unit can recognize in the environment data a person entering a zone to be driven by the vehicle in which there were no people previously. The evaluation unit can determine, for example, in the vehicle status data that a speed limit, a wheel angular speed has been exceeded or a critical battery charging capacity has been undershot.

Die Signalerzeugungseinheit ist in der Lage, basierend auf der Auswertung der Umfeld- beziehungsweise Fahrzeugzustandsdaten zu reagieren und ein Steuersignal zu erzeugen. Die Signalerzeugungseinheit kann beispielsweise ein erstes Steuersignal basierend auf einem ersten Umfeld- beziehungsweise Fahrzeugzustandsdatensatz erzeugen, sodass die Lichtquelle ein erstes Lichtsignal, vorzugsweise ein farbiges (z.B. rotes, blaues und/oder grünes) Lichtsignal aussendet. Alternativ oder zusätzlich kann das Steuersignal dazu dienen, dass die Visualisierungseinheit ein erstes Muster auf einer ersten Anzeigefläche visualisiert. Alternativ oder zusätzlich kann das Steuersignal dazu dienen, dass die akustische Einheit ein erstes akustisches Signal aussendet. Beim Erkennen einer Veränderung in den Umfeld- beziehungsweise Fahrzeugzustandsdaten erzeugt die Signalerzeugungseinheit ein zweites Steuersignal, sodass die Lichtquelle ein vom ersten Lichtsignal verschiedenes zweites Lichtsignal (z.B. mit einer anderen Farbe bzw. Farbkombination) aussendet. Zusätzlich oder alternativ kann die Visualisierungseinheit beim Erkennen der Veränderung ein vom ersten Muster verschiedenes, zweites Muster auf der ersten Anzeigefläche oder alternativ auf einer von der ersten Anzeigesfläche verschiedenen, zweiten Anzeigefläche visualisieren. Alternativ oder zusätzlich kann die akustische Einheit beim Erkennen der Veränderung ein vom ersten akustischen Signal verschiedenes zweites akustisches Signal (z.B. mit einer anderen Frequenz oder Amplitudenverlauf) aussenden.The signal generation unit is able to react based on the evaluation of the environment or vehicle status data and to generate a control signal. The signal generation unit can, for example, generate a first control signal based on a first environment or vehicle status data record, so that the light source emits a first light signal, preferably a colored (eg red, blue and / or green) light signal. Alternatively or additionally, the control signal can serve for the visualization unit to visualize a first pattern on a first display surface. Alternatively or additionally, the control signal can be used for the acoustic unit to send out a first acoustic signal. When a change in the environment or vehicle status data is detected, the signal generation unit generates a second control signal, so that the light source emits a second light signal (for example with a different color or color combination) that differs from the first light signal. Additionally or alternatively, when the change is recognized, the visualization unit can visualize a second pattern on the first display area that is different from the first pattern or alternatively on a second display area that is different from the first display area. Alternatively or additionally, when the change is detected, the acoustic unit can emit a second acoustic signal that is different from the first acoustic signal (for example with a different frequency or amplitude curve).

Die Visualisierungseinheit ist dazu ausgebildet, unter Verwendung eines Lasers, eines Projektors oder eines anderen für das jeweilige Umfeld und für die Ausgabefläche geeigneten bildgebenden Verfahrens das jeweilige Muster auf der Ausgabefläche zu visualisieren. Im Fall eines Projektors ist das Ausgabefläche eine Projektionsfläche, wobei das Muster ein Projektionsmuster ist. Nachfolgend wird die vorliegende Erfindung anhand des Beispiels näher erläutert, in dem die Visualisierungseinheit einen Projektor aufweist. Die Maßnahmen, die untenstehend am Beispiel des Projektors beschrieben sind, sind im Allgemeinen auf jede beliebige Visualisierungseinheit übertragbar.The visualization unit is designed to visualize the respective pattern on the output surface using a laser, a projector or another imaging method suitable for the respective environment and for the output surface. In the case of a projector, the output surface is a projection surface, the pattern being a projection pattern. The present invention is explained in more detail below on the basis of the example in which the visualization unit has a projector. The measures described below using the example of the projector can generally be transferred to any visualization unit.

Die Sensoreinrichtung und/oder der Projektor kann am Fahrzeug angebracht sein. Alternativ kann die Sensoreinrichtung und/oder der Projektor an einer Umfeldbebauung stationiert sein. Ein Leitsystem kann verwendet werden, welches mit mehreren Sensoren und/oder mehreren Projektoren kommuniziert, um jedem Projektor ein entsprechendes Projektionsmuster zuzuordnen. Das Leitsystem kann an einer Umfeldbebauung angebracht sein und/oder mit einem Server, etwa einem Cloud-System, kommunizieren.The sensor device and / or the projector can be attached to the vehicle. Alternatively, the sensor device and / or the projector can be stationed in a surrounding area. A control system can be used which communicates with a plurality of sensors and / or a plurality of projectors in order to assign a corresponding projection pattern to each projector. The control system can be attached to an environment and / or communicate with a server, such as a cloud system.

Das Steuersignal kann ferner an ein Leitsystem weitergeleitet werden, so dass in der Umgebung (bzw. im Erfassungsbereich des Leitsystems) befindliche Visualisierungseinheiten aktiviert werden können. Diese Visualisierungseinheiten können an der Infrastruktur (etwa einer Umfeldbebauung) oder an anderen in der Umgebung befindlichen Fahrzeugen installiert sein.The control signal can also be forwarded to a control system, so that visualization units located in the environment (or in the detection area of the control system) can be activated. These visualization units can be installed on the infrastructure (such as surrounding buildings) or on other vehicles in the vicinity.

Die vorliegende Erfindung ist somit in der Lage, durch Projizieren von Projektionsmustern die im Umfeld des Fahrzeugs befindlichen Personen und anderen Fahrzeuge auf das Fahrzeug, für welches die Erfindung eingesetzt wird, aufmerksam zu machen. Dies reduziert Kollisionsgefahren bereits im Vorfeld und führt zu erhöhter Sicherheit.The present invention is thus able to draw the attention of the people and other vehicles in the vicinity of the vehicle to the vehicle for which the invention is used by projecting projection patterns. This reduces the risk of collisions in advance and leads to increased safety.

Vorteilhafte Ausgestaltungen und Weiterbildungen sind in den Unteransprüchen angegeben.Advantageous refinements and developments are specified in the subclaims.

Gemäß einer Ausführungsform umfasst das Projektionsmuster eine basierend auf den Umfeld- und/oder Fahrzeugzustandsdaten prognostizierte oder empfohlene Trajektorie des Fahrzeugs.According to one embodiment, the projection pattern comprises a trajectory of the vehicle that is predicted or recommended based on the surroundings and / or vehicle state data.

Auf die in den Umfeld- und/oder Fahrzeugzustandsdaten identifizierte Veränderung des Umfelds beziehungsweise des Fahrzeugzustands hin wird das Steuersignal derart konzipiert, dass der Projektor die prognostizierte oder empfohlene Trajektorie des Fahrzeugs projiziert. Beispielsweise kann aufgrund der Feststellung, dass sich eine Person in eine für das Fahrzeug geplante Zone eintritt, die Route des Fahrzeugs geändert und die geänderte Route beziehungsweise die neue Trajektorie, die dem Fahrer oder der Fahrassistenz des Fahrzeugs empfohlen wird, auf die Fahrbahn projiziert werden. Hierdurch kann die Gefahr eines Verkehrsunfalls deutlich reduziert werden.In response to the change in the environment and / or vehicle status identified in the environment and / or vehicle status data, the control signal is designed in such a way that the projector projects the predicted or recommended trajectory of the vehicle. For example, based on the determination that a person is entering a zone planned for the vehicle, the route of the vehicle can be changed and the changed route or the new trajectory that is recommended to the driver or the driver's assistance of the vehicle can be projected onto the road. This can significantly reduce the risk of a traffic accident.

Gemäß einer weiteren Ausführungsform umfasst das Projektionsmuster eine basierend auf den Umfeld- und/oder Fahrzeugzustandsdaten empfohlene Trajektorie und/oder eine basierend auf den Umfeld- und/oder Fahrzeugzustandsdaten empfohlene Sicherheitszone für ein anderes Objekt.According to a further embodiment, the projection pattern comprises a trajectory recommended based on the environment and / or vehicle status data and / or a safety zone recommended for another object based on the environment and / or vehicle status data.

Auf diese Weise erhält das andere Objekt, das insbesondere ein Verkehrsteilnehmer wie eine Person oder ein anderes Fahrzeug ist, einen Hinweis auf eine sichere Route. Die Sicherheit im Einsatz von autonom oder teilautonom fahrenden Fahrzeugen kann dadurch gesteigert werden. Alternativ oder zusätzlich kann das Projektionsmuster einen Handlungshinweis in Form einer oder mehrerer Textanweisungen und/oder in Form eines oder mehrerer Symbole enthalten, die für die Person bzw. den Fahrer/das Fahrerassistenzsysytem des anderen Fahrzeugs erkennbar sind.In this way, the other object, which is in particular a road user such as a person or another vehicle, receives an indication of a safe route. This increases safety when using autonomous or semi-autonomous vehicles. Alternatively or additionally, the projection pattern can contain an action instruction in the form of one or more text instructions and / or in the form of one or more symbols which can be recognized by the person or the driver / the driver assistance system of the other vehicle.

Gemäß einer weiteren Ausführungsform befindet sich die Projektionsfläche in einem basierend auf den Fahrzeugzustandsdaten prognostizierten Ort, an dem sich das Fahrzeug zu einem in der Zukunft liegenden Zeitpunkt befinden wird.According to a further embodiment, the projection surface is in a location predicted based on the vehicle status data, at which the vehicle will be at a point in time in the future.

Auf diese Weise kann die Projektionsfläche aufgrund einer in den Umfeld- und/oder Fahrzeugzustandsdaten identifizierten Veränderung geändert beziehungsweise angepasst werden. Beispielsweise kann die vom Fahrzeug innerhalb eines Zeitintervalls zurückzulegende Streckenlänge auf Basis der detektierten Geschwindigkeit des Fahrzeugs ermittelt werden. Im Anschluss kann ein Warnmuster oder die Trajektorie auf eine in dem Ort befindliche Projektionsfläche projiziert werden, indem das Fahrzeug nach dem Zeitintervall eintreffen wird. Es kann somit einer Gefahr der Kollision bereits im Voraus wirksam entgegengewirkt werden. In this way, the projection surface can be changed or adapted on the basis of a change identified in the environment and / or vehicle status data. For example, the route length to be covered by the vehicle within a time interval can be determined on the basis of the detected speed of the vehicle. A warning pattern or the trajectory can then be projected onto a projection surface located in the location by the vehicle arriving after the time interval. A risk of collision can thus be effectively counteracted in advance.

Gemäß einer weiteren Ausführungsform befindet sich die Projektionsfläche in einem basierend auf den Umfelddaten prognostizierten Ort, an dem sich ein anderes Objekt zu einem in der Zukunft liegenden Zeitpunkt befinden wird.According to a further embodiment, the projection surface is located in a location predicted based on the surroundings data, at which another object will be located at a point in time in the future.

Auf diese Weise kann die Projektionsfläche aufgrund einer in den Umfeld- und/oder Fahrzeugzustandsdaten identifizierten Veränderung geändert beziehungsweise angepasst werden. Beispielsweise kann die vom anderen Verkehrsteilnehmer innerhalb eines Zeitintervalls zurückzulegende Streckenlänge auf Basis der detektierten Geschwindigkeit des anderen Verkehrsteilnehmers ermittelt werden. Im Anschluss kann ein Warnmuster oder die Trajektorie auf eine in dem Ort befindliche Projektionsfläche projiziert werden, indem der andere Verkehrsteilnehmer nach dem Zeitintervall eintreffen wird. Es kann somit einer Gefahr der Kollision bereits im Voraus wirksam entgegengewirkt werden.In this way, the projection surface can be changed or adapted on the basis of a change identified in the environment and / or vehicle status data. For example, the distance traveled by the other road user within a time interval can be determined on the basis of the detected speed of the other road user. A warning pattern or the trajectory can then be projected onto a projection surface located in the location, in that the other road user will arrive after the time interval. A risk of collision can thus be effectively counteracted in advance.

Das erfindungsgemäße Computerprogrammprodukt zum Erfassen eines Umfelds eines Fahrzeugs ist ausgeführt, in einen Speicher eines Computers geladen zu werden und umfasst Softwarecodeabschnitte, mit denen die Verfahrensschritte des erfindungsgemäßen Verfahrens ausgeführt werden, wenn das Computerprogrammprodukt auf dem Computer läuft.The computer program product according to the invention for detecting an environment of a vehicle is designed to be loaded into a memory of a computer and comprises software code sections with which the method steps of the method according to the invention are carried out when the computer program product runs on the computer.

Ein Programm gehört zur Software eines Daten verarbeitenden Systems, zum Beispiel einer Auswerteeinrichtung oder einem Computer. Software ist ein Sammelbegriff für Programme und zugehörigen Daten. Das Komplement zu Software ist Hardware. Hardware bezeichnet die mechanische und elektronische Ausrichtung eines Daten verarbeitenden Systems. Ein Computer ist eine Auswerteeinrichtung.A program belongs to the software of a data processing system, for example an evaluation device or a computer. Software is a collective term for programs and related data. The complement to software is hardware. Hardware refers to the mechanical and electronic alignment of a data processing system. A computer is an evaluation device.

Computerprogrammprodukte umfassen in der Regel eine Folge von Befehlen, durch die die Hardware bei geladenem Programm veranlasst wird, ein bestimmtes Verfahren durchzuführen, das zu einem bestimmten Ergebnis führt. Wenn das betreffende Programm auf einem Computer zum Einsatz kommt, ruft das Computerprogrammprodukt einen technischen Effekt hervor, nämlich wirksamere Kollisionsvermeidung und erhöhte Sicherheit.Computer program products typically include a sequence of instructions that cause the hardware, when the program is loaded, to perform a specific procedure that leads to a specific result. When the program in question is used on a computer, the computer program product produces a technical effect, namely more effective collision avoidance and increased security.

Das erfindungsgemäße Computerprogrammprodukt ist Plattform unabhängig. Das heißt, es kann auf jeder beliebigen Rechenplattform ausgeführt werden. Bevorzugt wird das Computerprogrammprodukt auf einer erfindungsgemäßen Auswertevorrichtung zum Erfassen des Umfelds des Fahrzeugs ausgeführt.The computer program product according to the invention is platform independent. That means it can be run on any computing platform. The computer program product is preferably executed on an evaluation device according to the invention for detecting the surroundings of the vehicle.

Die Softwarecodeabschnitte sind in einer beliebigen Programmiersprache geschrieben, zum Beispiel in Python.The software code sections are written in any programming language, for example in Python.

Ausführungsformen werden nun beispielhaft und unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. Es zeigen:

  • 1 eine schematische Darstellung einer Steuervorrichtung gemäß einer Ausführungsform in Zusammenwirkung mit einer Sensoreinrichtung und einem Projektor;
  • 2 eine schematische Darstellung eines Fahrzeugs, einer Sensoreinrichtung und eines Projektors;
  • 3 eine schematische Darstellung eines weiteren Fahrzeugs, wobei der Projektor am Fahrzeug angebracht ist;
  • 4 eine schematische Darstellung eines weiteren Fahrzeugs, wobei der Projektor und die Sensoreinrichtung am Fahrzeug angebracht sind;
  • 5 eine schematische Darstellung eines weiteren Fahrzeugs in Form eines Gabelstaplers, an dem die Sensoreinrichtung und der Projektor angebracht sind;
  • 6 eine weitere schematische Darstellung des Gabelstaplers aus 5, wobei der Projektor eine einer Palette ausweichende Trajektorie des Gabelstaplers projiziert; und
  • 7 eine schematische Darstellung eines Steuerverfahrens gemäß einer Ausführungsform.
Embodiments will now be described by way of example and with reference to the accompanying drawings. Show it:
  • 1 a schematic representation of a control device according to an embodiment in cooperation with a sensor device and a projector;
  • 2nd a schematic representation of a vehicle, a sensor device and a projector;
  • 3rd is a schematic representation of another vehicle, wherein the projector is attached to the vehicle;
  • 4th is a schematic representation of another vehicle, wherein the projector and the sensor device are attached to the vehicle;
  • 5 is a schematic representation of another vehicle in the form of a forklift, to which the sensor device and the projector are attached;
  • 6 a further schematic representation of the forklift 5 , wherein the projector projects a forklift trajectory evading a pallet; and
  • 7 is a schematic representation of a control method according to an embodiment.

In den Figuren beziehen sich gleiche Bezugszeichen auf gleiche oder funktionsähnliche Bezugsteile. In den einzelnen Figuren sind die jeweils relevanten Bezugsteile gekennzeichnet.In the figures, the same reference numerals refer to the same or functionally similar reference parts. The relevant reference parts are identified in the individual figures.

1 zeigt eine schematische Darstellung einer Steuervorrichtung 10 gemäß einer Ausführungsform in Zusammenwirkung mit einer Sensoreinrichtung 40 und einem Projektor 30. Die Steuervorrichtung 10 umfasst eine Eingabeschnittstelle 12 zum Erhalten von Umfeld- und Fahrzeugzustandsdaten 43, 45, die von der Sensoreinrichtung 40, die in diesem Beispiel einen Umfeldsensor 42 und einen Fahrzeugzustandssensor 44 umfasst, erfasst sind. 1 shows a schematic representation of a control device 10th according to an embodiment in cooperation with a sensor device 40 and a projector 30th . The control device 10th includes an input interface 12th for obtaining environment and vehicle condition data 43 , 45 by the sensor device 40 that in this Example an environment sensor 42 and a vehicle condition sensor 44 includes, are recorded.

Die Steuervorrichtung 10 umfasst ferner eine Auswerteeinheit 14 zum Auswerten der erhaltenen Umfeld- und Fahrzeugzustandsdaten 43, 45, um eine Veränderung eines Umfelds und/oder eines Zustands des Fahrzeugs 50 (siehe 2 bis 4) zu identifizieren.The control device 10th also includes an evaluation unit 14 for evaluating the environmental and vehicle status data received 43 , 45 to a change in an environment and / or a state of the vehicle 50 (please refer 2nd to 4th ) to identify.

Die Steuervorrichtung 10 umfasst ferner eine Signalerzeugungseinheit 16 zum Erzeugen eines Steuersignals für den Projektor 30, sodass dieser 30 ein Projektionsmuster 32 (siehe 5) auf eine Projektionsfläche 34 (siehe 2 bis 5) projiziert. Hierbei ist die Wahl des Projektionsmusters 32 und/oder der Projektionsfläche 34 basierend auf der von der Auswerteeinheit 14 identifizierten Veränderung variabel.The control device 10th further includes a signal generating unit 16 for generating a control signal for the projector 30th so that this 30 is a projection pattern 32 (please refer 5 ) on a projection surface 34 (please refer 2nd to 5 ) projected. Here is the choice of the projection pattern 32 and / or the projection surface 34 based on that of the evaluation unit 14 identified change variable.

Die Steuervorrichtung 10 umfasst außerdem eine Ausgabeschnittstelle 18 zum Ausgeben des Steuersignals an den Projektor 30.The control device 10th also includes an output interface 18th to output the control signal to the projector 30th .

2 bis 4 zeigen jeweils eine schematische Darstellung des Fahrzeugs 50, der Sensoreinrichtung 40 und des Projektors 30. In diesen Beispielen ist die Anordnung der Sensoreinrichtung 40 beziehungsweise des Projektors 30 unterschiedlich. 2nd to 4th each show a schematic representation of the vehicle 50 , the sensor device 40 and the projector 30th . In these examples the arrangement of the sensor device is 40 or the projector 30th differently.

Im in 2 gezeigten Beispiel sind die Sensoreinrichtung 40 und der Projektor 30 an einer externen Bebauung 70 außerhalb des Fahrzeugs 50 angeordnet. Die Sensoreinrichtung 40 kommuniziert über ein Kommunikationsmedium, etwa Near-Field-Communication (NFC), BlueTooth, Infrarot oder Wireless LAN (WLAN), mit der Steuervorrichtung 10, die in diesem und den Beispielen aus 3 und 4 im Fahrzeug 50 inbegriffen, oder alternativ außerhalb des Fahrzeugs 50 befindlich sein kann. Auch der Projektor 30 kommuniziert mit der Steuereinrichtung 10 über einen der obigen Kommunikationswege. Die Sensoreinrichtung 40 kann auch teilweise außerhalb des Fahrzeugs 50 und teilweise im Fahrzeug 50 inbegriffen sein. Beispielsweise ist der Umfeldsensor 42 der Sensoreinrichtung 40 außerhalb des Fahrzeugs angeordnet, während der Fahrzeugzustandssensor 44 am Fahrzeug 50 angebracht.In in 2nd The example shown are the sensor device 40 and the projector 30th on an external building 70 outside the vehicle 50 arranged. The sensor device 40 communicates with the control device via a communication medium, such as near-field communication (NFC), BlueTooth, infrared or wireless LAN (WLAN) 10th out in this and the examples 3rd and 4th in the vehicle 50 included, or alternatively outside the vehicle 50 can be located. The projector too 30th communicates with the control device 10th via one of the above communication channels. The sensor device 40 can also be partially outside the vehicle 50 and partly in the vehicle 50 be included. For example, the environment sensor 42 the sensor device 40 placed outside of the vehicle while the vehicle condition sensor 44 at the vehicle 50 appropriate.

Wenn die Steuervorrichtung 10 eine Veränderung des Umfelds oder Fahrzeugzustands in den von der Sensoreinrichtung 40 gelieferten Sensordaten 43, 45 identifiziert, bewirkt die Steuervorrichtung 10 mittels eines Steuersignals das Projizieren eines Projektionsmusters auf die Projektionsfläche 34 durch den Projektor 30.If the control device 10th a change in the environment or vehicle condition in that of the sensor device 40 delivered sensor data 43 , 45 identified, causes the control device 10th projecting a projection pattern onto the projection surface by means of a control signal 34 through the projector 30th .

Im in 3 gezeigten Beispiel ist der Projektor 30 am Fahrzeug 50 angebracht, während die Sensoreinrichtung 40 zumindest teilweise an der externen Bebauung 70 angeordnet. Im in 4 gezeigten Beispiel sind sowohl der Projektor 30 als auch die Sensoreinrichtung 40 am Fahrzeug 50 angebracht.In in 3rd The example shown is the projector 30th at the vehicle 50 attached while the sensor device 40 at least partially on the external development 70 arranged. In in 4th The example shown are both the projector 30th as well as the sensor device 40 at the vehicle 50 appropriate.

Wenn die Steuervorrichtung 10 eine Veränderung des Umfelds oder Fahrzeugzustands in den von der Sensoreinrichtung 40 gelieferten Sensordaten 43, 45 identifiziert, bewirkt die Steuervorrichtung 10 mittels eines Steuersignals das Projizieren eines Projektionsmusters 32 auf die Projektionsfläche 34 durch den Projektor 30. Hierbei wird die Wahl des Projektionsmusters 32 und/oder der Projektionsfläche 34 an die identifizierte Veränderung angepasst und daher variabel.If the control device 10th a change in the environment or vehicle condition in that of the sensor device 40 delivered sensor data 43 , 45 identified, causes the control device 10th projecting a projection pattern by means of a control signal 32 onto the projection surface 34 through the projector 30th . Here the choice of the projection pattern 32 and / or the projection surface 34 adapted to the identified change and therefore variable.

5 zeigt eine schematische Darstellung eines weiteren Fahrzeugs 54 in Form eines Gabelstaplers, an dem die Sensoreinrichtung 40 und der Projektor 30 angebracht sind. Die Sensoreinrichtung 40 umfasst hier mehrere Umfeldsensoren 42, die an verschiedenen Positionen des Gabelstaplers 54 angebracht sind. Ferner umfasst die Sensoreinrichtung 40 mehrere Fahrzeugzustandssensoren 44, die beispielsweise die Drehgeschwindigkeit und/oder -richtung des Vorder- oder Hinterrads 56, 58 detektierten. Auch ist die Steuervorrichtung 10 im Gabelstapler 54 angeordnet. Der Projektor 30 projiziert auf das Steuersignal der Steuervorrichtung 10 hin ein ein Projektionsmuster 32 auf die Projektionsfläche 34, wobei das Projektionsmuster 32 ein Stopp-Schild darstellt. 5 shows a schematic representation of another vehicle 54 in the form of a forklift on which the sensor device 40 and the projector 30th are attached. The sensor device 40 includes several environment sensors here 42 that are in different positions of the forklift 54 are attached. The sensor device further comprises 40 multiple vehicle condition sensors 44 which, for example, the speed and / or direction of rotation of the front or rear wheel 56 , 58 detected. Also the control device 10th in the forklift 54 arranged. The projector 30th projected onto the control signal of the control device 10th towards a projection pattern 32 onto the projection surface 34 , the projection pattern 32 represents a stop sign.

6 zeigt eine weitere schematische Darstellung des Gabelstaplers 54 aus 5, wobei der Projektor 30 eine einer Palette 55 ausweichende Trajektorie 32a des Gabelstaplers 54 projiziert. Beispielsweise kann diese Maßnahme dadurch ausgelöst werden, dass die Entfernung zwischen der Palette 55 und dem fahrenden Gabelstapler 54 einen kritischen Wert unterschritten hat. Ein Umfeldsensor 42 erfasst dieses Ereignis. Die Steuervorrichtung 10 des Gabelstaplers 54 erhält diese Veränderung des Umfelds und erzeugt ein Steuersignal, welches an den Projektor 30 ausgegeben wird. Die Auswerteeinheit 14 ist vorzugsweise dazu ausgebildet, um die Trajektorie 32a oder ein anderes Projektionsmuster 32 zur Vermeidung einer Kollision zwischen dem Gabelstapler 54 und der Palette 55 zu erzeugen und in das Steuersignal zu integrieren. 6 shows a further schematic representation of the forklift 54 out 5 , the projector 30th one of a pallet 55 evasive trajectory 32a of the forklift 54 projected. For example, this measure can be triggered by the distance between the pallet 55 and the moving forklift 54 has fallen below a critical value. An environment sensor 42 captures this event. The control device 10th of the forklift 54 receives this change in the environment and generates a control signal which is sent to the projector 30th is issued. The evaluation unit 14 is preferably designed to the trajectory 32a or another projection pattern 32 to avoid a collision between the forklift 54 and the palette 55 to generate and integrate into the control signal.

Der Projektor 30 projiziert ferner ein Warnmuster 32 auf die Bodenfläche, die beispielsweise von auf dem Gelände befindlichen Personen 60 begehbar ist. Das entsprechende Steuersignal kann ausgelöst werden, nachdem der Umfeldsensor 42 eine sich der Palette 55, dem Gabelstapler 54 und/oder der vorgeschlagenen und projizierten Trajektorie 32a nähernde Person 60 detektiert hat. Das Steuersignal kann alternativ ausgelöst werden nachdem die Auswerteeinheit 14 aus den Umfelddaten entnommen hat, dass die Entfernung zwischen der Personen 60 einerseits und der Palette 55, dem Gabelstapler 54 und/oder der vorgeschlagenen und projizierten Trajektorie 32a andererseits einen kritischen Wert unterschritten hat.The projector 30th also projects a warning pattern 32 on the floor area, for example by people on the premises 60 is walkable. The corresponding control signal can be triggered after the environment sensor 42 one yourself the palette 55 , the forklift 54 and / or the proposed and projected trajectory 32a approaching person 60 has detected. The control signal can alternatively be triggered after the evaluation unit 14 has taken from the environment data that the distance between the people 60 one hand and the palette 55 , the forklift 54 and / or the proposed and projected trajectory 32a on the other hand has fallen below a critical value.

7 eine schematische Darstellung eines Steuerverfahrens 100 gemäß einer Ausführungsform. In einem ersten Schritt S1 werden von einer Sensoreinrichtung 40 erfasste Umfeld- und/oder Fahrzeugzustandsdaten 43, 45 erhalten. In einem zweiten Schritt S2 werden die erhaltenen Umfeld- und/oder Fahrzeugzustandsdaten 43, 45 ausgewertet, um eine Veränderung eines Umfelds und/oder eines Zustands des Fahrzeugs 50 zu identifizieren. In einem dritten Schritt S3 wird ein Steuersignal für einen Projektor 30 erzeugt, das dazu dient, dass der Projektor 30 ein Projektionsmuster 32 auf eine Projektionsfläche 34 projiziert, wobei die Wahl des Projektionsmusters 32 und/oder der Projektionsfläche 34 basierend auf der von der Auswerteeinheit 14 identifizierten Veränderung variabel ist. In einem vierten Schritt S4 wird das Steuersignal an den Projektor 30 ausgegeben. 7 a schematic representation of a control method 100 according to one embodiment. In a first step S1 are from a sensor device 40 recorded environment and / or vehicle status data 43 , 45 receive. In a second step S2 the environmental and / or vehicle status data obtained 43 , 45 evaluated to a change in an environment and / or a state of the vehicle 50 to identify. In a third step S3 becomes a control signal for a projector 30th generated that serves the projector 30th a projection pattern 32 onto a projection screen 34 projected, choosing the projection pattern 32 and / or the projection surface 34 based on that of the evaluation unit 14 identified change is variable. In a fourth step S4 will send the control signal to the projector 30th spent.

Mit der vorliegenden Erfindung können noch weitere Informationen mittels Projizieren des Projektionsmusters 32 dargestellt werden. Beispielsweise können sichere Bereiche dynamisch markiert werden, sodass sich diese Bereiche in ihrer Form und/oder Größe verändern, wenn eine Veränderung in den Umfeld- und/oder Fahrzeugzutandsdaten identifiziert wird. Zusätzlich kann der Bremsweg eines Fahrzeugs 50 je nach seiner aktuellen Fahrgeschwindigkeit angezeigt werden. Somit wissen Fußgänger in der Näher des Fahrzeugs 50, welcher Bereich nicht zu betreten ist.With the present invention, even more information can be projected by projecting the projection pattern 32 being represented. For example, safe areas can be marked dynamically, so that these areas change in shape and / or size when a change in the environment and / or vehicle state data is identified. In addition, the braking distance of a vehicle 50 depending on his current driving speed. So pedestrians know in the vicinity of the vehicle 50 which area is not to be entered.

Durch weitere Symbole kann die vorliegende Erfindung in kritischen Situationen Handlungsmöglichkeiten darstellen. Beispielsweise können diese Handlungsmöglichkeiten darin bestehen, Hindernisse aus dem Weg zu räumen. Auch kann eine Person im Umfeld mittels Warnsignale oder -muster auf eine drohende Gefahr oder Komplikation aufmerksam gemacht werden, sodass sie auf die Steuerung des Fahrzeugs 50 Einfluss nehmen kann.By means of further symbols, the present invention can represent possible actions in critical situations. For example, these options can be to remove obstacles. A person in the area can also be alerted to an impending danger or complication by means of warning signals or patterns, so that they can control the vehicle 50 Can influence.

Außerdem kann die Umfeldsensorik erkennen, wo mögliche Laufwege oder Fahrwege potentiell verlaufen. Mit dieser Erkenntnis kann eine Kollision frühzeitig prognostiziert werden. Dieses erhöhte Sicherheitsrisiko wird durch die Auswerteeinheit 14 aus den Sensordaten entnommen. Basierend auf dem erkannten Sicherheitsrisiko kann ein Projektionsmuster auf eine Projektionsfläche entsprechend zur Warnung projiziert werden.In addition, the environment sensors can recognize where potential routes or routes potentially run. With this knowledge, a collision can be predicted early. This increased security risk is caused by the evaluation unit 14 taken from the sensor data. Based on the recognized security risk, a projection pattern can be projected onto a projection surface in accordance with the warning.

Des Weiteren können Arbeitsprozesse enthaltende Projektionsmuster auf eine Projektionsfläche an einem Hochregal projiziert werden. Dem Fahrer kann somit beispielsweise der Platz zum Abstellen oder Aufnehmen der Waren gezeigt werden. Auch kann er beim Positionieren des Gabelstaplers oder einer anderen Industriemaschine unterstützt werden und mit Hilfe von Warnmustern und -signalen auf sicherheitskritische Umstände sensibilisiert werden.Furthermore, projection patterns containing work processes can be projected onto a projection surface on a high rack. The driver can thus be shown, for example, the space for storing or picking up the goods. He can also be supported when positioning the forklift or another industrial machine and sensitized to safety-critical circumstances with the help of warning patterns and signals.

Ferner kann die Größe des Ladeguts ermittelt und diese Info beispielsweise auf das Hochregal projiziert werden. Der Fahrer kann somit einschätzen, ob das Ladegut ins Regal passt oder die richtige Abladehöhe bereits erreicht ist. Zusätzlich kann aufgrund der Erkenntnis aus den Fahrzeugzustandsdaten, dass die Batterieladekapazität des Fahrzeugs einen kritischen Wert unterschritten hat, dem Fahrer im Anschluss der kürzeste Fahrweg zur Ladestation in Form von Projektionsmuster gezeigt werden.Furthermore, the size of the load can be determined and this information can be projected onto the high rack, for example. The driver can thus assess whether the load fits on the shelf or whether the correct unloading height has already been reached. In addition, based on the knowledge from the vehicle status data that the battery charging capacity of the vehicle has fallen below a critical value, the driver can then be shown the shortest route to the charging station in the form of projection patterns.

Außerdem kann eine Drohne ihren geplanten Landeplatz in Form eines Projektionsmusters markieren. Beim Detektieren einer Person im Umfeld des Landeplatzes kann das Projektionsmuster und/oder die Projektionsfläche geändert, insbesondere verschoben werden.A drone can also mark its planned landing site in the form of a projection pattern. When a person is detected in the vicinity of the landing site, the projection pattern and / or the projection surface can be changed, in particular shifted.

Die vorliegende Erfindung ist analog in anderen Anwendungen abseits der Straße denkbar, z.B. für eine Land- oder Baumaschine (Offroad-Fahrzeuge). Die Art und Weise der zu projizierenden Informationen hängen vom entsprechenden Fahreinsatz und dem dazugehörigen Arbeitsprozess analog wie eingangs beschrieben ab.The present invention is analogously conceivable in other off-road applications, e.g. for an agricultural or construction machine (off-road vehicles). The type of information to be projected depends on the corresponding driving assignment and the associated work process in the same way as described at the beginning.

BezugszeichenlisteReference list

1010th
SteuervorrichtungControl device
1212th
EingabeschnittstelleInput interface
1414
AuswerteeinheitEvaluation unit
1616
SignalerzeugungseinheitSignal generation unit
1818th
AusgabeschnittstelleOutput interface
3030th
Projektorprojector
3232
ProjektionsmusterProjection pattern
32a32a
TrajektorieTrajectory
3434
ProjektionsflächeProjection surface
4040
SensoreinrichtungSensor device
4242
UmfeldsensorEnvironment sensor
4343
UmfelddatenEnvironment data
4444
FahrzeugzustandssensorVehicle condition sensor
4545
FahrzeugzustandsdatenVehicle condition data
50, 5450, 54
Fahrzeugvehicle
5252
BodenflächeFloor area
5555
Palettepalette
5656
HinterradRear wheel
5858
VorderradFront wheel
6060
anderes Objektother object
100100
SteuerverfahrenTax procedure
S1 bis S4S1 to S4
VerfahrensschritteProcedural steps

Claims (12)

Steuervorrichtung (10) für ein autonomes oder teilautonomes Fahrzeug (50), umfassend: eine Eingabeschnittstelle (12) zum Erhalten von einer Sensoreinrichtung (40) erfasster Umfeld- und/oder Fahrzeugzustandsdaten (43, 45); eine Auswerteeinheit (14) zum Auswerten der erhaltenen Umfeld- und/oder Fahrzeugzustandsdaten (43, 45), um eine Veränderung eines Umfelds und/oder eines Zustands des Fahrzeugs (50) zu identifizieren; eine Signalerzeugungseinheit (16) zum Erzeugen eines Steuersignals für eine Lichtquelle, eine Visualisierungseinheit (30) und/oder eine akustische Einheit, sodass: die Lichtquelle ein Lichtsignal emittiert; die Visualisierungseinheit (30) ein Muster (32) auf einer Anzeigefläche (34) visualisiert; oder die akustische Einheit ein akustisches Signal aussendet; wobei das Lichtsignal, das akustische Signal, die Wahl des Musters (32) und/oder der Anzeigefläche (34) basierend auf der von der Auswerteeinheit (14) identifizierten Veränderung variabel ist; und eine Ausgabeschnittstelle (18) zum Ausgeben des Steuersignals an die Lichtquelle, die Visualisierungseinheit (30) oder die akustische Einheit.A control device (10) for an autonomous or semi-autonomous vehicle (50), comprising: an input interface (12) for obtaining environmental and / or vehicle status data (43, 45) detected by a sensor device (40); an evaluation unit (14) for evaluating the environment and / or vehicle status data (43, 45) received in order to identify a change in an environment and / or a status of the vehicle (50); a signal generation unit (16) for generating a control signal for a light source, a visualization unit (30) and / or an acoustic unit, so that: the light source emits a light signal; the visualization unit (30) visualizes a pattern (32) on a display surface (34); or the acoustic unit emits an acoustic signal; wherein the light signal, the acoustic signal, the choice of the pattern (32) and / or the display area (34) is variable based on the change identified by the evaluation unit (14); and an output interface (18) for outputting the control signal to the light source, the visualization unit (30) or the acoustic unit. Steuervorrichtung (10) nach Anspruch 1, wobei das Muster (32) eine basierend auf den Umfeld- und/oder Fahrzeugzustandsdaten (43, 45) prognostizierte oder empfohlene Trajektorie (32a) des Fahrzeugs (50) umfasst.Control device (10) after Claim 1 , wherein the pattern (32) comprises a trajectory (32a) of the vehicle (50) predicted or recommended based on the environment and / or vehicle status data (43, 45). Steuervorrichtung (10) nach Anspruch 1 oder 2, wobei das Muster (32) eine basierend auf den Umfeld- und/oder Fahrzeugzustandsdaten (43, 45) empfohlene Trajektorie und/oder eine basierend auf den Umfeld- und/oder Fahrzeugzustandsdaten (43, 45) empfohlene Sicherheitszone für ein anderes Objekt (60) umfasst.Control device (10) after Claim 1 or 2nd , wherein the pattern (32) a recommended trajectory based on the environment and / or vehicle status data (43, 45) and / or a recommended security zone for another object (60. based on the environment and / or vehicle status data (43, 45) ) includes. Steuervorrichtung (10) nach einem der vorangehenden Ansprüche, wobei sich die Anzeigefläche (34) in einem basierend auf den Fahrzeugzustandsdaten (43, 45) prognostizierten Ort befindet, an dem sich das Fahrzeug (50) zu einem in der Zukunft liegenden Zeitpunkt befinden wird.Control device (10) according to one of the preceding claims, wherein the display area (34) is in a location predicted based on the vehicle status data (43, 45), at which the vehicle (50) will be at a point in time in the future. Steuervorrichtung (10) nach einem der vorangehenden Ansprüche, wobei sich die Anzeigefläche (34) in einem basierend auf den Umfelddaten (43, 45) prognostizierten Ort befindet, an dem sich ein anderes Objekt (60) zu einem in der Zukunft liegenden Zeitpunkt befinden wird.Control device (10) according to one of the preceding claims, wherein the display area (34) is in a location predicted based on the environment data (43, 45), at which another object (60) will be located at a point in time in the future . Steuervorrichtung (10) nach einem der vorangehenden Ansprüche, wobei die Steuervorrichtung (10) am Fahrzeug (50) oder an einer Bebauung (70) in einem Umfeld des Fahrzeugs (50) angebracht ist.Control device (10) according to one of the preceding claims, wherein the control device (10) is attached to the vehicle (50) or to a structure (70) in an environment of the vehicle (50). Steuervorrichtung (10) nach einem der vorangehenden Ansprüche, wobei die Steuervorrichtung (10) ein Leitsystem umfasst, das mit mehreren Sensoreinrichtungen (40) und/oder Visualisierungseinheiten (30) verbunden ist.Control device (10) according to one of the preceding claims, wherein the control device (10) comprises a control system which is connected to a plurality of sensor devices (40) and / or visualization units (30). Fahrzeug (50), umfassend eine Steuervorrichtung (10) nach einem der vorangehenden Ansprüche.Vehicle (50), comprising a control device (10) according to one of the preceding claims. Fahrzeug (50) nach Anspruch 8, weiter umfassend eine Sensoreinrichtung (40) zum Erfassen von Umfeld- und/oder Fahrzeugzustandsdaten (43, 45).Vehicle (50) after Claim 8 , further comprising a sensor device (40) for acquiring environment and / or vehicle status data (43, 45). Fahrzeug (50) nach Anspruch 8 oder 9, weiter umfassend eine Visualisierungseinheit (30) zum Visualisieren eines Musters (32) auf einer vordefinierte Anzeigefläche (34) basierend auf von einer Sensoreinrichtung (40) erfassten Umfeld- und/oder Fahrzeugzustandsdaten (43, 45).Vehicle (50) after Claim 8 or 9 , further comprising a visualization unit (30) for visualizing a pattern (32) on a predefined display area (34) based on environmental and / or vehicle status data (43, 45) detected by a sensor device (40). Steuerverfahren (100) für ein autonomes oder teilautonomes Fahrzeug (50), umfassend: einen ersten Schritt (S1), in dem von einer Sensoreinrichtung (40) erfasste Umfeld- und/oder Fahrzeugzustandsdaten (43, 45) erhalten werden; einen zweiten Schritt (S2), in dem die erhaltenen Umfeld- und/oder Fahrzeugzustandsdaten (43, 45) ausgewertet werden, um eine Veränderung eines Umfelds und/oder eines Zustands des Fahrzeugs (50) zu identifizieren; einen dritten Schritt (S3), in dem ein Steuersignal für eine Lichtquelle, eine Visualisierungseinheit (30) und/oder eine akustische Einheit erzeugt wird, das dazu dient, dass die Lichtquelle ein Lichtsignal emittiert; die Visualisierungseinheit (30) ein Muster (32) auf einer Anzeigefläche (34) visualisiert; oder die akustische Einheit ein akustisches Signal aussendet; wobei das Lichtsignal, das akustische Signal, die Wahl des Musters (32) und/oder der Anzeigefläche (34) basierend auf der von der Auswerteeinheit (14) identifizierten Veränderung variabel ist; und einen vierten Schritt (S4), in dem das Steuersignal an die Lichtquelle, die Visualisierungseinheit (30) oder die akustische Einheit ausgegeben wird.A control method (100) for an autonomous or semi-autonomous vehicle (50), comprising: a first step (S1) in which environment and / or vehicle status data (43, 45) acquired by a sensor device (40) are obtained; a second step (S2) in which the environment and / or vehicle status data (43, 45) obtained are evaluated in order to identify a change in an environment and / or a status of the vehicle (50); a third step (S3), in which a control signal for a light source, a visualization unit (30) and / or an acoustic unit is generated, which serves to: the light source emits a light signal; the visualization unit (30) visualizes a pattern (32) on a display surface (34); or the acoustic unit emits an acoustic signal; wherein the light signal, the acoustic signal, the choice of the pattern (32) and / or the display area (34) is variable based on the change identified by the evaluation unit (14); and a fourth step (S4) in which the control signal is output to the light source, the visualization unit (30) or the acoustic unit. Computer-Programm-Produkt, das in einem Datenträger gespeichert und dazu ausgebildet ist, um das Steuerverfahren nach Anspruch 11 durchzuführen, wenn das Computer-Programm-Produkt durch einen Rechner ausgeführt wird.Computer program product that is stored in a data carrier and is designed to follow the control method Claim 11 perform when the computer program product is executed by a computer.
DE102019200592.6A 2019-01-17 2019-01-17 Control device and method and computer program product for an autonomous or semi-autonomous vehicle Withdrawn DE102019200592A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102019200592.6A DE102019200592A1 (en) 2019-01-17 2019-01-17 Control device and method and computer program product for an autonomous or semi-autonomous vehicle
PCT/EP2019/085551 WO2020148056A1 (en) 2019-01-17 2019-12-17 Control device and method, and computer program product for an autonomous or semi-autonomous vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019200592.6A DE102019200592A1 (en) 2019-01-17 2019-01-17 Control device and method and computer program product for an autonomous or semi-autonomous vehicle

Publications (1)

Publication Number Publication Date
DE102019200592A1 true DE102019200592A1 (en) 2020-07-23

Family

ID=69143521

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019200592.6A Withdrawn DE102019200592A1 (en) 2019-01-17 2019-01-17 Control device and method and computer program product for an autonomous or semi-autonomous vehicle

Country Status (2)

Country Link
DE (1) DE102019200592A1 (en)
WO (1) WO2020148056A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160167648A1 (en) * 2014-12-11 2016-06-16 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle interaction with external environment
US9679482B2 (en) * 2012-04-24 2017-06-13 Zumtobel Lighting Gmbh Road and path lighting system
DE102015225410A1 (en) * 2015-12-16 2017-06-22 Bayerische Motoren Werke Aktiengesellschaft Method and control unit for avoiding dangerous situations in traffic
DE202017103902U1 (en) * 2016-07-07 2017-07-20 Zkw Group Gmbh Lighting system for communication between autonomous vehicles and other road users
DE102017205626A1 (en) * 2017-04-03 2018-10-04 Audi Ag Method for operating a lighting device for one or more motor vehicles and motor vehicle

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006050548B4 (en) * 2006-10-26 2014-05-08 Bayerische Motoren Werke Aktiengesellschaft Procedure for warning other road users
DE102014226254A1 (en) * 2014-12-17 2016-06-23 Robert Bosch Gmbh Method for operating a motor vehicle, in particular autonomously or partially autonomously driving / driving, signaling device, motor vehicle
DE102017200781A1 (en) * 2017-01-19 2018-07-19 Bayerische Motoren Werke Aktiengesellschaft Device, means of transportation and method for avoiding traffic accidents
DE102017203896A1 (en) * 2017-03-09 2018-10-18 Bayerische Motoren Werke Aktiengesellschaft Motor vehicle with a lighting module for generating a symbolism

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9679482B2 (en) * 2012-04-24 2017-06-13 Zumtobel Lighting Gmbh Road and path lighting system
US20160167648A1 (en) * 2014-12-11 2016-06-16 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle interaction with external environment
DE102015225410A1 (en) * 2015-12-16 2017-06-22 Bayerische Motoren Werke Aktiengesellschaft Method and control unit for avoiding dangerous situations in traffic
DE202017103902U1 (en) * 2016-07-07 2017-07-20 Zkw Group Gmbh Lighting system for communication between autonomous vehicles and other road users
DE102017205626A1 (en) * 2017-04-03 2018-10-04 Audi Ag Method for operating a lighting device for one or more motor vehicles and motor vehicle

Also Published As

Publication number Publication date
WO2020148056A1 (en) 2020-07-23

Similar Documents

Publication Publication Date Title
EP3204279B1 (en) Method for operating an automatically driven, driverless motor vehicle and monitoring system
EP2915152B1 (en) Method for identifying a vehicle detected by a sensor device
EP3271231B1 (en) Method and device for monitoring a target trajectory to be travelled by a vehicle for absence of collisions
DE102019127058A1 (en) VEHICLE ROUTE PLANNING
DE102018120845A1 (en) Method and device for monitoring an autonomous vehicle
EP4163847B1 (en) Determination of one or more characteristic values and simulation of traffic for an automatically drivable environment
WO2018145951A1 (en) Method for coordinating the traffic of a plurality of motor vehicles within a predetermined infrastructure region and server device, motor vehicle and system
EP3543204B1 (en) Method for operating an industrial truck
DE102019122536A1 (en) EXZENTRIZITÄTSKARTEN
DE112019000352T5 (en) KNOWN LANE SPACES FOR AUTOMATED DRIVING
DE102016215470A1 (en) Concept for warning a road user of a danger area
WO2020048718A1 (en) Concept for monitoring and planning the movement of a means of transportation
DE102015224362B4 (en) Issuing driver information in connection with the operation of a motor vehicle with a trailer
DE102017223621A1 (en) Method and control unit for controlling a function of an at least partially automated vehicle
WO2018233931A1 (en) Environmental monitoring of an ego vehicle
DE102020213294A1 (en) Method for monitoring a construction site area, monitoring system, computer program and storage medium
DE102014219538A1 (en) Method for operating mobile platforms and mobile platform
DE112020006319T5 (en) DRIVING ASSISTANCE DEVICE, DRIVING ASSISTANCE METHOD AND PROGRAM
DE102014224884A1 (en) Method and system for monitoring logistics facilities
DE102019200592A1 (en) Control device and method and computer program product for an autonomous or semi-autonomous vehicle
DE102005059415B4 (en) Lane change assistance system for a vehicle
DE102019206582A1 (en) Device, system, method and computer program for speed control of a vehicle
DE102019001092A1 (en) Method for operating a driver assistance system, as well as electronic computing device, computer program product and data carrier
DE112021000967T5 (en) Parking assistance device and parking assistance method
DE102021125136A1 (en) DEVICE AND METHOD FOR PREDICTING THE TRAJECTORY OF A SURROUNDING VEHICLE

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee