EP3683720A1 - Method and apparatus for disguising environment data for a vehicle - Google Patents

Method and apparatus for disguising environment data for a vehicle Download PDF

Info

Publication number
EP3683720A1
EP3683720A1 EP20150742.3A EP20150742A EP3683720A1 EP 3683720 A1 EP3683720 A1 EP 3683720A1 EP 20150742 A EP20150742 A EP 20150742A EP 3683720 A1 EP3683720 A1 EP 3683720A1
Authority
EP
European Patent Office
Prior art keywords
accident
vehicle
signal
blurring
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP20150742.3A
Other languages
German (de)
French (fr)
Inventor
Marlon Ramon EWERT
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of EP3683720A1 publication Critical patent/EP3683720A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]

Definitions

  • the invention is based on a device or a method for blurring surrounding data for a vehicle according to the type of the independent claims.
  • the present invention also relates to a computer program.
  • a highly automated drivable vehicle is a vehicle that can drive without a driver.
  • the vehicle drives highly automated, for example by automatically recognizing the course of the road, other road users or obstacles, calculating the corresponding control commands in the vehicle and forwarding them to the actuators in the vehicle, which correctly influences the course of the vehicle.
  • the driver is not involved in driving in a highly automated vehicle. Nevertheless, such a vehicle has driver assistance systems.
  • Driver assistance systems are additional electronic devices in motor vehicles to support the driver in certain driving situations. This often focuses on safety aspects, but also on increasing driving comfort. Another aspect is the improvement of the economy.
  • a method for blurring environmental data for a vehicle comprises a step of reading in and a step of outputting.
  • an accident signal is read in, which represents at least one accident position or environmental information of an accident sensed by an environment sensor of the vehicle.
  • a blurring signal is output using the accident signal, the blurring signal being designed to delete the environmental information of the accident at the accident position and additionally or alternatively to block a function of the environment sensor at the accident position.
  • Environment data can be, for example, at least one environment information that was recorded or sensed in an area around the vehicle.
  • the vehicle can be designed, for example, as a means of transport with which people and, additionally or alternatively, objects can be transported.
  • the vehicle can be a highly automated drivable vehicle that senses environmental data in its environment while driving.
  • the vehicle can include one or more environment sensors, which can be implemented, for example, as a camera device.
  • An accident position can be a position where an accident occurred. The accident may have been identified, for example, as a collision between several vehicles or as a breakdown.
  • the method is advantageously designed to delete environmental information from an accident and additionally or alternatively to block a function of the environmental sensor.
  • the function of the environment sensor can, for example, be an operating function of the environment sensor, a (temporary) storage process Transmission of the corresponding data to other road users and, additionally or alternatively, an evaluation process of the environmental information of the accident.
  • a method presented here can thus advantageously prevent sensitive information from an accident, which could violate data protection or the privacy of people involved in the accident, from being recorded, stored and additionally or alternatively disseminated.
  • the accident position that was provided by a device external to the vehicle and additionally or alternatively by a cloud can be read.
  • a vehicle-external device can be, for example, a transmission device that is present in another vehicle and that provides or transmits the accident signal to the vehicle.
  • the accident signal can be transmitted via a so-called "car-to-car communication" between motor vehicles.
  • the accident signal can be transmitted to the vehicle via an infrastructure located around the vehicle, such as a traffic light system, via a so-called “car-to-infrastructure communication". This advantageously makes it possible for the vehicle to be informed about the accident in good time, even though it is not yet at the accident position, for example in order to take an alternative route.
  • the surroundings information of the accident can be read in according to an embodiment which has image information.
  • This image information can have been recorded by the environment sensor in the form of a camera device of the vehicle. It can thus be ensured that sensitive image information is deleted by the accident site in accordance with one embodiment of the method in the step of outputting, storing the image information and additionally or alternatively providing the image information to devices external to the vehicle is blocked.
  • the method can have a step of selecting before the step of reading in, wherein in the step of Selecting the environment information of the accident is selected from another environment information.
  • the step of selecting which can also be referred to as a step of evaluating or comparing, for example, the environmental information of the accident, for example information about the accident itself, damaged or destroyed vehicles, overturned vehicles, but also vehicles with breakdowns a sum of further environmental information can be filtered out, which do not represent an accident. It can thus be ensured that only relevant environment information from an environment sensor, that is to say environment information relating to an accident, is deleted or blocked which could violate the privacy of a person concerned.
  • the environment information of the accident can be selected using a neural network, an artificial intelligence and additionally or alternatively an object recognition in the step of selecting.
  • a situation that has been learned, for example can thereby be recognized quickly and easily, which according to one embodiment can contribute to a learning process of the respective system.
  • the method presented here can further comprise a step of suppressing an object identification of an object at the accident position, which follows in response to the blurring signal.
  • the object can be realized, for example, as a vehicle, one or more people and, additionally or alternatively, a license plate. In this way, it can advantageously be prevented that an object identification is carried out on objects which, for example, would violate data protection of those affected.
  • a position signal which represents a current position of the vehicle can be read in in the reading step, wherein the blurring signal can be output using a comparison result of the accident position with the current position.
  • a signal provided by a satellite navigation device can be read in as the position signal. That means that if the accident position and the position of the vehicle cover within a tolerance range of, for example, 50 meters deviation, the blurring signal can be output because the vehicle is either at the accident position or in the vicinity of the accident position. In this way, the vehicle can advantageously be implemented more cost-effectively, since in this case an environment sensor in the form of a camera can be dispensed with.
  • the blurring signal can be designed, for example, to deactivate an operating function of an environment sensor directed at the accident site at the accident position and, additionally or alternatively, to cover such an environment sensor.
  • the blurring signal can be output to a processing unit of the environment sensor in the step of outputting. In this way, the environmental data within the processing unit of the environmental sensor can advantageously be deleted.
  • This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control unit.
  • control device which is designed to carry out, control or implement the steps of a variant of a method presented here in corresponding devices.
  • This embodiment variant of the invention in the form of a control unit can also quickly and efficiently achieve the object on which the invention is based.
  • control unit can have at least one computing unit for processing signals or data, at least one storage unit for storing signals or data, at least one interface to a sensor or an actuator for reading sensor signals from the sensor or for outputting control signals to the actuator and / or have at least one communication interface for reading in or outputting data which are embedded in a communication protocol.
  • the computing unit can be, for example, a signal processor, a microcontroller or the like, the storage unit can be a flash memory, an EEPROM or a magnetic storage unit.
  • the communication interface can be designed to read or output data wirelessly and / or line-bound, wherein a communication interface that can read or output line-bound data can read this data, for example electrically or optically, from a corresponding data transmission line or can output it to a corresponding data transmission line.
  • a control device can be understood to mean an electrical device that processes sensor signals and outputs control and / or data signals as a function thereof.
  • the control device can have an interface that can be designed in terms of hardware and / or software.
  • the interfaces can be part of a so-called system ASIC, for example, which contains a wide variety of functions of the control unit.
  • the interfaces are separate, integrated circuits or at least partially consist of discrete components.
  • the interfaces can be software modules which are present, for example, on a microcontroller in addition to other software modules.
  • control unit controls a blurring signal, which is provided in order to delete environmental information about an accident at an accident position and / or to block a function of an environmental sensor at the accident position.
  • control unit can, for example, access sensor signals such as an accident signal, which represents at least one accident position or environmental information of an accident sensed by an environmental sensor of the vehicle.
  • the control takes place via actuators such as a reading unit for reading in the accident signal and an output unit for outputting the blurring signal using the accident signal.
  • a computer program product or computer program with program code which can be stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk memory or an optical memory and for implementation, implementation and / or Control of the steps of the method according to one of the embodiments described above is used, in particular if the program product or program is executed on a computer or a device.
  • Fig. 1 shows a schematic representation of a vehicle 100 with a block diagram of a control device 105 for blurring surrounding data according to an embodiment.
  • the vehicle 100 is designed to transport people and / or objects.
  • the vehicle 100 is implemented, for example, as a highly automated or at least partially automated vehicle 100, which has driver assistance systems for safety-related aspects, for example.
  • the vehicle 100 includes the control device 105, which is designed to control a method for blurring surrounding data, in accordance with one exemplary embodiment, by driving a plurality of units and / or components of the vehicle 100, such as a surrounding sensor 110.
  • the environment sensor 110 can be designed as a camera that is designed to detect an area 112 of an environment around the vehicle 100.
  • the control unit 105 accordingly has a reading unit 115 and an output unit 120.
  • the read-in unit 115 is designed to read an accident signal 125.
  • the output unit 120 is designed, for example, to output signals such as a blurring signal 130 to other vehicle components.
  • the accident signal 125 represents either at least one accident position or ambient information of an accident sensed by the environment sensor 110 of the vehicle 100, which can be passed on in image form, for example.
  • the accident can be, for example, a breakdown of another vehicle 135 or a collision of several vehicles 135.
  • the blurring signal 130 contains a command which the control unit 105 issues in order to delete the environmental information of the accident at the accident position and / or to block a function of the environmental sensor 110 at the accident position.
  • the read-in unit 115 of the control device 105 is optionally designed to read in a position signal 140 in accordance with this exemplary embodiment.
  • the position signal 140 represents, for example, the current position of the vehicle 100, which, according to this exemplary embodiment, is received by the satellite 100 from the vehicle 100.
  • the vehicle 100 optionally has a receiving device 150, which is designed to receive vehicle position signals provided by the satellite navigation device 145, which represent the current position of the vehicle 100, and to provide them to the read-in unit 115 in the form of the position signal 140.
  • the environment sensor 110 recognizes the area 112 of the environment around the vehicle 100, the recognized environment data being selected in accordance with this exemplary embodiment.
  • the control unit 105 optionally has a selection device 152, which is designed to read the recognized environment data from the environment sensor 110 and the environment data showing an accident, which can also be referred to as environment information of the accident, from one or more others Select environment information.
  • this means that the selection device 152 consists of a sum of environment data selected or sorted out those environment data that contain, for example, show an accident situation.
  • the sorted out environmental data are made available from the selection device 152 to the control unit 105 or the reading unit 115 via an accident signal 125.
  • the selection device 152 is arranged or implemented in or on the control device 105 or in or on the environment sensor 110.
  • the receiving device 115 is designed to receive an accident signal 125 representing an accident position from the receiving unit 150 of the vehicle 100 in accordance with one exemplary embodiment.
  • the receiving unit 150 is designed to receive at least one external signal from a device 153 outside the vehicle and / or from a cloud 155, the external signal representing the accident position.
  • the receiving unit 150 is designed to provide or send the accident position of the external signal in the form of the accident signal 125 to the reading device 115.
  • the vehicle-external device 153 can transmit the external signal via the cloud 155, for example.
  • the vehicle-external device 153 can be located in the further vehicle 135. Alternatively, the vehicle-external device 153 can be part of a light switch system, for example.
  • the receiving unit 150 receives the vehicle position signal from the satellite navigation device 145 according to this exemplary embodiment. Both the accident signal 125 and the position signal 140 are then provided according to one exemplary embodiment by the receiving unit 150 to the control unit 105, in which, according to an optional exemplary embodiment, the signal generated by the accident signal 125 represented accident position is compared with the current position of the vehicle 100 received via position signal 140.
  • the control unit 105 optionally has a comparison device for this purpose, which is designed to compare the accident position with the current position of the vehicle 100.
  • the blurring signal 130 is output by the output unit 120.
  • output unit 120 therefore outputs the blurring signal 130, which is designed to delete the selected surroundings data in the form of the surroundings information of the accident and / or to block a function of the surroundings sensor 110.
  • the function can include, for example, at least partial intermediate storage and / or evaluation and / or permanent storage of the environment data.
  • the surroundings information of the accident after the output of the blurring signal 130 is thus deleted or blocked in a blurring unit 160 located in the control unit 105 or in a processing unit 165 of the surroundings sensor 110.
  • Car-to-car communication Car2Car or C2C for short, is understood to mean an exchange of information and data between motor vehicles.
  • the aim of this data exchange is to report critical and dangerous situations to the driver at an early stage.
  • the vehicles 100 in question collect data, such as ABS interventions, steering angle, position, direction and speed, and send this data to the other road users, for example by radio (WLAN, UMTS, etc.).
  • the driver's "visibility" should be extended electronically.
  • FIG. 12 shows a flowchart of a method 200 for blurring surrounding data for a vehicle according to an exemplary embodiment.
  • This method 200 is different from that in FIG Figure 1 described control device controllable or executable.
  • the method 200 can be carried out in a vehicle, as shown for example in FIG Figure 1 has been described.
  • the method 200 comprises a step 205 of reading in an accident signal and a step 210 of outputting a blurring signal.
  • step 205 of reading in either a signal representing an accident position or a signal representing environmental information of an accident sensed by an environment sensor is read. This means, for example, that the environment sensor has recognized an accident situation.
  • a blurring signal is output using the accident signal. It is Detection signal provided or designed to delete the environmental information of the accident at the accident position and / or to block a function of the environment sensor at the accident position.
  • the method 200 comprises an optional step 215 of the selection, which according to one exemplary embodiment takes place before the step 205 of the reading.
  • step 215 of the selection the environmental information of the accident is selected from further environmental information, which according to one exemplary embodiment can be done using a neural network and / or artificial intelligence and / or object recognition.
  • the method 200 according to this exemplary embodiment after the step 210 of outputting comprises an optional step 220 of suppressing, in which an object identification of an object at the accident position is suppressed.
  • Object identification can also be implemented in a neural network.
  • the object can be realized, for example, as a vehicle, a person, a license plate, etc.
  • prototypically used highly automated or partially automated vehicles are equipped with a number of environment sensors. These environment sensors detect other road users, pedestrians and structures in the vehicle's surroundings.
  • the environment sensor data is used in an intelligent control unit, which is also referred to as a control unit, to control a highly automated or partially automated vehicle along a prescribed trajectory.
  • a highly automated vehicle can also drive past an accident site.
  • the environment sensors also scan the accident site and possibly carry out object identification or recognize the license plates of other road users or exchange data with a still functioning accident vehicle via, for example, a Car-to-X communication link. This is disadvantageous for data protection reasons and in terms of protecting the victims. This is where the approach presented comes into play.
  • the approach describes a control device and a method 200 for making accidents along a route of a highly automated vehicle unrecognizable.
  • the environment sensor data can be fully evaluated as usual, transmitted to other road users (car-to-x communication) and / or temporarily or permanently saved. While driving past the accident site, only the averted environment sensor data can be evaluated, transmitted to other road users, for example using Car-to-X communication, or saved.
  • environment sensor data are also made unrecognizable for vehicles which pass an accident site from the opposite direction with the aid of method 200 mentioned above. A device and a method 200 for making accidents unrecognizable along a route of a highly automated vehicle are therefore described.
  • an exemplary embodiment comprises a “and / or” link between a first feature and a second feature, this is to be read in such a way that the embodiment according to one embodiment has both the first feature and also has the second feature and, according to a further embodiment, either only the first feature or only the second feature.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Unkenntlichmachen von Umfelddaten für ein Fahrzeug (100). Dabei umfasst das Verfahren einen Schritt (205) des Einlesens und einen Schritt des Ausgebens (210). Im Schritt des Einlesens (205) wird ein Unfallsignal eingelesen (125), das zumindest eine Unfallposition oder eine von einem Umfeldsensor (110) des Fahrzeugs (100) sensierte Umfeldinformation eines Unfalls repräsentiert. Im Schritt des Ausgebens (210) wird ein Unkenntlichmachungssignal (130) unter Verwendung des Unfallsignals (125) ausgegeben, wobei das Unkenntlichmachungssignal (130) dazu vorgesehen ist, um die Umfeldinformation des Unfalls an der Unfallposition zu löschen und/oder eine Funktion des Umfeldsensors (110) an der Unfallposition zu blockieren.The invention relates to a method for blurring surrounding data for a vehicle (100). The method comprises a step (205) of reading in and a step of outputting (210). In the step of reading (205), an accident signal is read in (125), which represents at least one accident position or environmental information of an accident sensed by an environment sensor (110) of the vehicle (100). In the step of outputting (210), a blurring signal (130) is output using the accident signal (125), the blurring signal (130) being provided to delete the environmental information of the accident at the accident position and / or a function of the environmental sensor ( 110) to block at the accident position.

Description

Stand der TechnikState of the art

Die Erfindung geht von einer Vorrichtung oder einem Verfahren zum Unkenntlichmachen von Umfelddaten für ein Fahrzeug nach Gattung der unabhängigen Ansprüche aus. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.The invention is based on a device or a method for blurring surrounding data for a vehicle according to the type of the independent claims. The present invention also relates to a computer program.

Ein hochautomatisiert fahrbares Fahrzeug ist ein Fahrzeug, das ohne Fahrer fahren kann. Das Fahrzeug fährt dabei hochautomatisiert, indem es beispielsweise den Straßenverlauf, andere Verkehrsteilnehmer oder Hindernisse selbstständig erkennt und die entsprechenden Steuerbefehle im Fahrzeug berechnet sowie diese an die Aktoren im Fahrzeug weiterleitet, wodurch der Fahrverlauf des Fahrzeugs korrekt beeinflusst wird. Der Fahrer ist bei einem hochautomatisiert fahrbaren Fahrzeug nicht am Fahrgeschehen beteiligt. Dennoch verfügt ein solches Fahrzeug über Fahrerassistenzsysteme. Fahrerassistenzsysteme sind elektronische Zusatzeinrichtungen in Kraftfahrzeugen zur Unterstützung des Fahrers in bestimmten Fahrsituationen. Hierbei stehen oft Sicherheitsaspekte, aber auch die Steigerung des Fahrkomforts im Vordergrund. Ein weiterer Aspekt ist die Verbesserung der Ökonomie.A highly automated drivable vehicle is a vehicle that can drive without a driver. The vehicle drives highly automated, for example by automatically recognizing the course of the road, other road users or obstacles, calculating the corresponding control commands in the vehicle and forwarding them to the actuators in the vehicle, which correctly influences the course of the vehicle. The driver is not involved in driving in a highly automated vehicle. Nevertheless, such a vehicle has driver assistance systems. Driver assistance systems are additional electronic devices in motor vehicles to support the driver in certain driving situations. This often focuses on safety aspects, but also on increasing driving comfort. Another aspect is the improvement of the economy.

Offenbarung der ErfindungDisclosure of the invention

Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein verbessertes Verfahren zum Unkenntlichmachen von Umfelddaten für ein Fahrzeug, weiterhin ein Steuergerät, das dieses Verfahren verwendet, sowie schließlich ein entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen des im unabhängigen Anspruch angegebenen Steuergeräts möglich.Against this background, the approach presented here is an improved method for blurring environmental data for a Vehicle, a control unit that uses this method, and finally a corresponding computer program according to the main claims. The measures listed in the dependent claims allow advantageous developments and improvements of the control device specified in the independent claim.

Durch den hier vorgestellten Ansatz ist eine Möglichkeit für einen diskreten Umgang mit sensiblen Unfallinformationen geschaffen.The approach presented here creates an opportunity for discreet handling of sensitive accident information.

Es wird ein Verfahren zum Unkenntlichmachen von Umfelddaten für ein Fahrzeug vorgestellt, das einen Schritt des Einlesens und einen Schritt des Ausgebens umfasst. Im Schritt des Einlesens wird ein Unfallsignal eingelesen, das zumindest eine Unfallposition oder eine von einem Umfeldsensor des Fahrzeugs sensierte Umfeldinformation eines Unfalls repräsentiert. Im Schritt des Ausgebens wird ein Unkenntlichmachungssignal unter Verwendung des Unfallsignals ausgegeben, wobei das Unkenntlichmachungssignal dazu ausgebildet ist, um die Umfeldinformation des Unfalls an der Unfallposition zu löschen und zusätzlich oder alternativ eine Funktion des Umfeldsensors an der Unfallposition zu blockieren.A method for blurring environmental data for a vehicle is presented, which comprises a step of reading in and a step of outputting. In the reading step, an accident signal is read in, which represents at least one accident position or environmental information of an accident sensed by an environment sensor of the vehicle. In the step of outputting, a blurring signal is output using the accident signal, the blurring signal being designed to delete the environmental information of the accident at the accident position and additionally or alternatively to block a function of the environment sensor at the accident position.

Als Umfelddaten kann beispielsweise zumindest eine Umfeldinformation bezeichnet werden, die in einem Bereich um das Fahrzeug aufgenommen oder sensiert wurde. Das Fahrzeug kann dabei beispielsweise als Transportmittel ausgeformt sein, mit dem Personen und zusätzlich oder alternativ Gegenstände transportiert werden können. Das Fahrzeug kann ein hochautomatisiert fahrbares Fahrzeug sein, das während eines Fahrbetriebs Umfelddaten in seinem Umfeld sensiert. Hierfür kann das Fahrzeug einen oder mehrere Umfeldsensoren umfassen, die beispielsweise als eine Kameraeinrichtung realisiert sein können. Als Unfallposition kann eine Position bezeichnet werden, an der ein Unfall stattfand. Der Unfall kann dabei beispielsweise als ein Zusammenstoß mehrerer Fahrzeuge oder auch als eine Panne erkannt worden sein. Vorteilhafterweise ist das Verfahren dazu ausgebildet, um Umfeldinformationen eines Unfalls zu löschen und zusätzlich oder alternativ eine Funktion des Umfeldsensors zu blockieren. Die Funktion des Umfeldsensors kann dabei beispielsweise eine Betriebsfunktion des Umfeldsensors, eine (Zwischen-)Speichervorgang, ein Übertragen der entsprechenden Daten an andere Verkehrsteilnehmer und zusätzlich oder alternativ ein Auswertevorgang der Umfeldinformationen des Unfalls sein. Ein hier vorgestelltes Verfahren kann somit vorteilhafterweise verhindern, dass sensible Informationen eines Unfalls, welche beispielsweise einen Datenschutz oder eine Privatsphäre von in den Unfall verwickelten Personen verletzen könnten, überhaupt erst erfasst, gespeichert und zusätzlich oder alternativ verbreitet werden.
Gemäß einer Ausführungsform des Verfahrens kann im Schritt des Einlesens des Unfallsignals die Unfallposition eingelesen werden, die von einer fahrzeugexternen Einrichtung und zusätzlich oder alternativ einer Cloud bereitgestellt wurde. Eine fahrzeugexterne Einrichtung kann beispielsweise eine in einem weiteren Fahrzeug vorhandene Sendeeinrichtung sein, die das Unfallsignal an das Fahrzeug bereitstellt oder übermittelt. In diesem Fall kann das Unfallsignal gemäß einer Ausführungsform über eine sogenannte "Car-to-Car-Kommunikation" zwischen Kraftfahrzeugen übermittelt werden. Gemäß einer weiteren Ausführungsform kann das Unfallsignal über eine um das Fahrzeug liegende Infrastruktur, wie beispielsweise eine Lichtzeichenanlage, an das Fahrzeug über eine sogenannte "Car-to-Infrastructure-Kommunikation" übermittelt werden. Vorteilhafterweise kann dadurch ermöglicht werden, dass das Fahrzeug rechtzeitig über den Unfall informiert ist, obwohl es sich noch nicht an der Unfallposition befindet, um beispielsweise eine alternative Route zu nehmen.
Environment data can be, for example, at least one environment information that was recorded or sensed in an area around the vehicle. The vehicle can be designed, for example, as a means of transport with which people and, additionally or alternatively, objects can be transported. The vehicle can be a highly automated drivable vehicle that senses environmental data in its environment while driving. For this purpose, the vehicle can include one or more environment sensors, which can be implemented, for example, as a camera device. An accident position can be a position where an accident occurred. The accident may have been identified, for example, as a collision between several vehicles or as a breakdown. The method is advantageously designed to delete environmental information from an accident and additionally or alternatively to block a function of the environmental sensor. The function of the environment sensor can, for example, be an operating function of the environment sensor, a (temporary) storage process Transmission of the corresponding data to other road users and, additionally or alternatively, an evaluation process of the environmental information of the accident. A method presented here can thus advantageously prevent sensitive information from an accident, which could violate data protection or the privacy of people involved in the accident, from being recorded, stored and additionally or alternatively disseminated.
According to one embodiment of the method, in the step of reading in the accident signal, the accident position that was provided by a device external to the vehicle and additionally or alternatively by a cloud can be read. A vehicle-external device can be, for example, a transmission device that is present in another vehicle and that provides or transmits the accident signal to the vehicle. In this case, according to one embodiment, the accident signal can be transmitted via a so-called "car-to-car communication" between motor vehicles. According to a further embodiment, the accident signal can be transmitted to the vehicle via an infrastructure located around the vehicle, such as a traffic light system, via a so-called "car-to-infrastructure communication". This advantageously makes it possible for the vehicle to be informed about the accident in good time, even though it is not yet at the accident position, for example in order to take an alternative route.

Im Schritt des Einlesens des Unfallsignals des hier vorgestellten Verfahrens kann die Umfeldinformation des Unfalls gemäß einer Ausführungsform eingelesen werden, die eine Bildinformation aufweist. Diese Bildinformation kann von dem Umfeldsensor in Form einer Kameraeinrichtung des Fahrzeugs aufgenommen worden sein. Somit kann sichergestellt werden, dass sensible Bildinformationen von der Unfallstelle gemäß einer Ausführungsform des Verfahrens im Schritt des Ausgebens gelöscht werden, ein Speichern der Bildinformation und zusätzlich oder alternativ Bereitstellen der Bildinformation an fahrzeugexterne Einrichtungen blockiert wird.In the step of reading in the accident signal of the method presented here, the surroundings information of the accident can be read in according to an embodiment which has image information. This image information can have been recorded by the environment sensor in the form of a camera device of the vehicle. It can thus be ensured that sensitive image information is deleted by the accident site in accordance with one embodiment of the method in the step of outputting, storing the image information and additionally or alternatively providing the image information to devices external to the vehicle is blocked.

Gemäß einer Ausführungsform kann das Verfahren einen Schritt des Selektierens vor dem Schritt des Einlesens aufweisen, wobei im Schritt des Selektierens die Umfeldinformation des Unfalls von einer weiteren Umfeldinformation selektiert wird. Das bedeutet, dass im Schritt des Selektierens, der beispielsweise auch als Schritt des Auswertens oder Vergleichens bezeichnet werden kann, die Umfeldinformation des Unfalls, die beispielsweise Informationen über den Unfall selbst, beschädigte oder zerstörte Fahrzeuge, überschlagene Fahrzeuge, aber auch Fahrzeuge mit Pannen, aus einer Summe von weiteren Umfeldinformationen herausgefiltert werden können, welche keinen Unfall repräsentieren. Somit kann sichergestellt werden, dass lediglich relevante Umfeldinformationen eines Umfeldsensors, also solche Umfeldinformationen, die einen Unfall betreffen, gelöscht, oder blockiert werden, welche eine Privatsphäre eines Betroffenen verletzen könnten.According to one embodiment, the method can have a step of selecting before the step of reading in, wherein in the step of Selecting the environment information of the accident is selected from another environment information. This means that in the step of selecting, which can also be referred to as a step of evaluating or comparing, for example, the environmental information of the accident, for example information about the accident itself, damaged or destroyed vehicles, overturned vehicles, but also vehicles with breakdowns a sum of further environmental information can be filtered out, which do not represent an accident. It can thus be ensured that only relevant environment information from an environment sensor, that is to say environment information relating to an accident, is deleted or blocked which could violate the privacy of a person concerned.

Ferner kann gemäß einer Ausführungsform im Schritt des Selektierens die Umfeldinformation des Unfalls unter Verwendung eines neuronalen Netzes, einer künstlichen Intelligenz und zusätzlich oder alternativ einer Objekterkennung selektiert werden. Vorteilhafterweise kann dadurch eine beispielsweise angelernte Situation schnell und einfach erkannt werden, was gemäß einer Ausführungsform zu einem Lernprozess des jeweiligen Systems beitragen kann.Furthermore, according to one embodiment, the environment information of the accident can be selected using a neural network, an artificial intelligence and additionally or alternatively an object recognition in the step of selecting. Advantageously, a situation that has been learned, for example, can thereby be recognized quickly and easily, which according to one embodiment can contribute to a learning process of the respective system.

Das hier vorgestellte Verfahren kann gemäß einer Ausführungsform weiterhin einen Schritt des Unterdrückens einer Objektidentifizierung eines Objekts an der Unfallposition aufweisen, der ansprechend auf das Unkenntlichmachungssignal folgt. Hierbei kann das Objekt beispielsweise als ein Fahrzeug, eine oder mehrere Personen und zusätzlich oder alternativ ein Nummernschild realisiert sein. Vorteilhafterweise kann auf diese Weise verhindert werden, dass eine Objektidentifizierung an Objekten durchgeführt wird, welche beispielsweise einen Datenschutz der Betroffenen verletzen würde.According to one embodiment, the method presented here can further comprise a step of suppressing an object identification of an object at the accident position, which follows in response to the blurring signal. Here, the object can be realized, for example, as a vehicle, one or more people and, additionally or alternatively, a license plate. In this way, it can advantageously be prevented that an object identification is carried out on objects which, for example, would violate data protection of those affected.

Gemäß einer Ausführungsform kann im Schritt des Einlesens ein Positionssignal, das eine aktuelle Position des Fahrzeugs repräsentiert, eingelesen werden, wobei das Unkenntlichmachungssignal unter Verwendung eines Vergleichsergebnisses der Unfallposition mit der aktuellen Position ausgegeben werden kann. Dabei kann als das Positionssignal ein von einer Satellitennavigationseinrichtung bereitgestelltes Signal eingelesen werden. Das bedeutet, dass wenn sich die Unfallposition und die Position des Fahrzeugs innerhalb eines Toleranzbereichs von beispielsweise 50 Metern Abweichung decken, das Unkenntlichmachungssignal ausgegeben werden kann, da sich das Fahrzeug entweder an der Unfallposition oder in der Nähe der Unfallposition befindet. Vorteilhafterweise kann das Fahrzeug auf diese Weise kostengünstiger realisiert werden, da in diesem Fall auf einen Umfeldsensor in Form einer Kamera verzichtet werden kann. Das Unkenntlichmachungssignal kann in einem solchen Fall dazu ausgebildet sein, um beispielsweise eine Betriebsfunktion eines auf die Unfallstelle gerichteten Umfeldsensors an der Unfallposition zu deaktivieren und zusätzlich oder alternativ einen solchen Umfeldsensor abzudecken.
Gemäß einer Ausführungsform kann im Schritt des Ausgebens das Unkenntlichmachungssignal an eine Verarbeitungseinheit des Umfeldsensors ausgegeben werden. Vorteilhafterweise können auf diese Weise die Umfelddaten innerhalb der Verarbeitungseinheit des Umfeldsensors gelöscht werden.
According to one embodiment, a position signal which represents a current position of the vehicle can be read in in the reading step, wherein the blurring signal can be output using a comparison result of the accident position with the current position. In this case, a signal provided by a satellite navigation device can be read in as the position signal. That means that if the accident position and the position of the vehicle cover within a tolerance range of, for example, 50 meters deviation, the blurring signal can be output because the vehicle is either at the accident position or in the vicinity of the accident position. In this way, the vehicle can advantageously be implemented more cost-effectively, since in this case an environment sensor in the form of a camera can be dispensed with. In such a case, the blurring signal can be designed, for example, to deactivate an operating function of an environment sensor directed at the accident site at the accident position and, additionally or alternatively, to cover such an environment sensor.
According to one embodiment, the blurring signal can be output to a processing unit of the environment sensor in the step of outputting. In this way, the environmental data within the processing unit of the environmental sensor can advantageously be deleted.

Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control unit.

Der hier vorgestellte Ansatz schafft ferner ein Steuergerät, das ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form eines Steuergeräts kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.The approach presented here also creates a control device which is designed to carry out, control or implement the steps of a variant of a method presented here in corresponding devices. This embodiment variant of the invention in the form of a control unit can also quickly and efficiently achieve the object on which the invention is based.

Hierzu kann das Steuergerät zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Steuersignalen an den Aktor und/oder zumindest eine Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EEPROM oder eine magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann.For this purpose, the control unit can have at least one computing unit for processing signals or data, at least one storage unit for storing signals or data, at least one interface to a sensor or an actuator for reading sensor signals from the sensor or for outputting control signals to the actuator and / or have at least one communication interface for reading in or outputting data which are embedded in a communication protocol. The computing unit can be, for example, a signal processor, a microcontroller or the like, the storage unit can be a flash memory, an EEPROM or a magnetic storage unit. The communication interface can be designed to read or output data wirelessly and / or line-bound, wherein a communication interface that can read or output line-bound data can read this data, for example electrically or optically, from a corresponding data transmission line or can output it to a corresponding data transmission line.

Unter einem Steuergerät kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Das Steuergerät kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen des Steuergeräts beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.In the present case, a control device can be understood to mean an electrical device that processes sensor signals and outputs control and / or data signals as a function thereof. The control device can have an interface that can be designed in terms of hardware and / or software. In the case of a hardware configuration, the interfaces can be part of a so-called system ASIC, for example, which contains a wide variety of functions of the control unit. However, it is also possible that the interfaces are separate, integrated circuits or at least partially consist of discrete components. In the case of software-based training, the interfaces can be software modules which are present, for example, on a microcontroller in addition to other software modules.

In einer vorteilhaften Ausgestaltung erfolgt durch das Steuergerät eine Steuerung eines Unkenntlichmachungssignals, das dazu vorgesehen ist, um eine Umfeldinformation eines Unfalls an einer Unfallposition zu löschen und/oder eine Funktion eines Umfeldsensors an der Unfallposition zu blockieren. Hierzu kann das Steuergerät beispielsweise auf Sensorsignale wie ein Unfallsignal, das zumindest eine Unfallposition oder eine von einem Umfeldsensor des Fahrzeugs sensierte Umfeldinformation eines Unfalls repräsentiert, zugreifen. Die Ansteuerung erfolgt über Aktoren wie eine Einleseeinheit zum Einlesen des Unfallsignals und eine Ausgabeeinheit zum Ausgeben des Unkenntlichmachungssignals unter Verwendung des Unfallsignals.In an advantageous embodiment, the control unit controls a blurring signal, which is provided in order to delete environmental information about an accident at an accident position and / or to block a function of an environmental sensor at the accident position. For this purpose, the control unit can, for example, access sensor signals such as an accident signal, which represents at least one accident position or environmental information of an accident sensed by an environmental sensor of the vehicle. The control takes place via actuators such as a reading unit for reading in the accident signal and an output unit for outputting the blurring signal using the accident signal.

Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.Also advantageous is a computer program product or computer program with program code, which can be stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk memory or an optical memory and for implementation, implementation and / or Control of the steps of the method according to one of the embodiments described above is used, in particular if the program product or program is executed on a computer or a device.

Ausführungsbeispiele des hier vorgestellten Ansatzes sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:

  • Fig. 1 eine schematische Darstellung eines Fahrzeugs mit einem Blockschaltbild eines Steuergeräts zum Unkenntlichmachen von Umfelddaten gemäß einem Ausführungsbeispiel; und
  • Fig. 2 ein Ablaufdiagramm eines Verfahrens zum Unkenntlichmachen von Umfelddaten für ein Fahrzeug gemäß einem Ausführungsbeispiel.
Embodiments of the approach presented here are shown in the drawings and explained in more detail in the following description. It shows:
  • Fig. 1 a schematic representation of a vehicle with a block diagram of a control device for blurring surrounding data according to an embodiment; and
  • Fig. 2 a flowchart of a method for blurring surrounding data for a vehicle according to an embodiment.

In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.In the following description of favorable exemplary embodiments of the present invention, the same or similar reference numerals are used for the elements which have a similar effect and which are shown in the various figures, a repeated description of these elements being dispensed with.

Fig. 1 zeigt eine schematische Darstellung eines Fahrzeugs 100 mit einem Blockschaltbild eines Steuergeräts 105 zum Unkenntlichmachen von Umfelddaten gemäß einem Ausführungsbeispiel. Das Fahrzeug 100 ist gemäß diesem Ausführungsbeispiel ausgebildet, um Personen und/oder Gegenstände zu transportieren. Das Fahrzeug 100 ist beispielsweise als ein hochautomatisiertes oder zumindest teilautomatisiertes Fahrzeug 100 realisiert, das beispielsweise aus sicherheitsrelevanten Aspekten Fahrerassistenzsysteme aufweist. Das Fahrzeug 100 umfasst das Steuergerät 105, das ausgebildet ist, um ein Verfahren zum Unkenntlichmachen von Umfelddaten zu steuern, indem es gemäß einem Ausführungsbeispiel mehrere Einheiten und/oder Komponenten des Fahrzeugs 100, wie beispielsweise einen Umfeldsensor 110, ansteuert. Der Umfeldsensor 110 kann gemäß einem Ausführungsbeispiel als eine Kamera ausgebildet sein, die dazu ausgebildet ist, um einen Bereich 112 eines Umfelds um das Fahrzeug 100 zu erkennen. Fig. 1 shows a schematic representation of a vehicle 100 with a block diagram of a control device 105 for blurring surrounding data according to an embodiment. According to this exemplary embodiment, the vehicle 100 is designed to transport people and / or objects. The vehicle 100 is implemented, for example, as a highly automated or at least partially automated vehicle 100, which has driver assistance systems for safety-related aspects, for example. The vehicle 100 includes the control device 105, which is designed to control a method for blurring surrounding data, in accordance with one exemplary embodiment, by driving a plurality of units and / or components of the vehicle 100, such as a surrounding sensor 110. According to one exemplary embodiment, the environment sensor 110 can be designed as a camera that is designed to detect an area 112 of an environment around the vehicle 100.

Das Steuergerät 105 weist dementsprechend eine Einleseeinheit 115 und eine Ausgabeeinheit 120 auf. Die Einleseeinheit 115 ist dazu ausgebildet, um ein Unfallsignal 125 einzulesen. Die Ausgabeeinheit 120 ist ausgebildet, um beispielsweise Signale wie ein Unkenntlichmachungssignal 130 an weitere Fahrzeugkomponenten auszugeben. Das Unfallsignal 125 repräsentiert entweder zumindest eine Unfallposition oder eine von dem Umfeldsensor 110 des Fahrzeugs 100 sensierte Umfeldinformation eines Unfalls, die beispielsweise in Bildform weitergegeben werden kann. Bei dem Unfall kann es sich beispielsweise um eine Panne eines weiteren Fahrzeugs 135 oder um einen Zusammenstoß mehrerer Fahrzeuge 135 handeln. Das Unkenntlichmachungssignal 130 beinhaltet einen Befehl, den das Steuergerät 105 ausgibt, um die Umfeldinformation des Unfalls an der Unfallposition zu löschen und/oder eine Funktion des Umfeldsensors 110 an der Unfallposition zu blockieren. Dadurch wird beispielsweise verhindert, dass eine Privatsphäre möglicher Unfallopfer verletzt wird.
Ferner ist die Einleseeinheit 115 des Steuergeräts 105 optional ausgebildet, um gemäß diesem Ausführungsbeispiel ein Positionssignal 140 einzulesen. Das Positionssignal 140 repräsentiert beispielsweise die aktuelle Position des Fahrzeugs 100, die gemäß diesem Ausführungsbeispiel von einer Satellitennavigationseinrichtung 145 ausgehend von dem Fahrzeug 100 empfangen wird. Gemäß diesem Ausführungsbeispiel weist das Fahrzeug 100 optional eine Empfangseinrichtung 150 auf, die dazu ausgebildet ist, um von der Satellitennavigationseinrichtung 145 bereitgestellte Fahrzeugpositionssignale, welche die aktuelle Position des Fahrzeugs 100 repräsentieren, zu empfangen und in Form des Positionssignals 140 an die Einleseeinheit 115 bereitzustellen.
The control unit 105 accordingly has a reading unit 115 and an output unit 120. The read-in unit 115 is designed to read an accident signal 125. The output unit 120 is designed, for example, to output signals such as a blurring signal 130 to other vehicle components. The accident signal 125 represents either at least one accident position or ambient information of an accident sensed by the environment sensor 110 of the vehicle 100, which can be passed on in image form, for example. The accident can be, for example, a breakdown of another vehicle 135 or a collision of several vehicles 135. The blurring signal 130 contains a command which the control unit 105 issues in order to delete the environmental information of the accident at the accident position and / or to block a function of the environmental sensor 110 at the accident position. This prevents, for example, the privacy of potential accident victims from being violated.
Furthermore, the read-in unit 115 of the control device 105 is optionally designed to read in a position signal 140 in accordance with this exemplary embodiment. The position signal 140 represents, for example, the current position of the vehicle 100, which, according to this exemplary embodiment, is received by the satellite 100 from the vehicle 100. According to this exemplary embodiment, the vehicle 100 optionally has a receiving device 150, which is designed to receive vehicle position signals provided by the satellite navigation device 145, which represent the current position of the vehicle 100, and to provide them to the read-in unit 115 in the form of the position signal 140.

Zusammengefasst erkennt der Umfeldsensor 110 den Bereich 112 des Umfelds um das Fahrzeug 100, wobei die erkannten Umfelddaten gemäß diesem Ausführungsbeispiel selektiert werden. Hierzu weist das Steuergerät 105 gemäß diesem Ausführungsbeispiel optional eine Selektiereinrichtung 152 auf, die dazu ausgebildet ist, um die erkannten Umfelddaten von dem Umfeldsensor 110 einzulesen und die einen Unfall zeigenden Umfelddaten, die auch als Umfeldinformationen des Unfalls bezeichnet werden können, von einer oder mehreren weiteren Umfeldinformation zu selektieren. Das bedeutet gemäß einem Ausführungsbeispiel, dass die Selektiereinrichtung 152 aus einer Summe von Umfelddaten diejenigen Umfelddaten selektiert, bzw. aussortiert, die eine Unfallsituation beinhalten, beispielsweise zeigen. Die aussortierten Umfelddaten werden gemäß einem Ausführungsbeispiel via Unfallsignal 125 von der Selektiereinrichtung 152 an das Steuergerät 105, bzw. die Einleseeinheit 115 bereitgestellt. Gemäß einem Ausführungsbeispiel ist die Selektiereinrichtung 152 in oder an dem Steuergerät 105 oder in oder an dem Umfeldsensor 110 angeordnet oder implementiert.In summary, the environment sensor 110 recognizes the area 112 of the environment around the vehicle 100, the recognized environment data being selected in accordance with this exemplary embodiment. For this purpose, the control unit 105 according to this exemplary embodiment optionally has a selection device 152, which is designed to read the recognized environment data from the environment sensor 110 and the environment data showing an accident, which can also be referred to as environment information of the accident, from one or more others Select environment information. According to one exemplary embodiment, this means that the selection device 152 consists of a sum of environment data selected or sorted out those environment data that contain, for example, show an accident situation. According to one exemplary embodiment, the sorted out environmental data are made available from the selection device 152 to the control unit 105 or the reading unit 115 via an accident signal 125. According to one exemplary embodiment, the selection device 152 is arranged or implemented in or on the control device 105 or in or on the environment sensor 110.

Des Weiteren ist die Empfangseinrichtung 115 dazu ausgebildet, um gemäß einem Ausführungsbeispiel ein eine Unfallposition repräsentierendes Unfallsignal 125 von der Empfangseinheit 150 des Fahrzeugs 100 zu empfangen. Gemäß diesem Ausführungsbeispiel ist die Empfangseinheit 150 dazu ausgebildet, um zumindest ein externes Signal von einer fahrzeugexternen Einrichtung 153 und/oder einer Cloud 155 zu empfangen, wobei das externe Signal die Unfallposition repräsentiert. Die Empfangseinheit 150 ist dazu ausgebildet, um die Unfallposition des externen Signals in Form des Unfallsignals 125 an die Einleseeinrichtung 115 bereitzustellen oder zu senden. Die fahrzeugexterne Einrichtung 153 kann beispielsweise das externe Signal über die Cloud 155 übermitteln. Die fahrzeugexterne Einrichtung 153 kann sich in dem weiteren Fahrzeug 135 befinden. Alternativ kann die fahrzeugexterne Einrichtung 153 beispielsweise Teil einer Lichtschaltanlage sein. Zusätzlich empfängt die Empfangseinheit 150 gemäß diesem Ausführungsbeispiel das Fahrzeugpositionssignal von der Satellitennavigationseinrichtung 145. Sowohl das Unfallsignal 125 als auch das Positionssignal 140 werden daraufhin gemäß einem Ausführungsbeispiel von der Empfangseinheit 150 an das Steuergerät 105 bereitgestellt, in dem gemäß einem optionalen Ausführungsbeispiel die durch das Unfallsignal 125 repräsentierte Unfallposition mit der via Positionssignal 140 empfangenen aktuellen Position des Fahrzeugs 100 verglichen wird. Gemäß einem Ausführungsbeispiel weist das Steuergerät 105 hierfür optional eine Vergleichseinrichtung auf, die dazu ausgebildet ist, um die Unfallposition mit der aktuellen Position des Fahrzeugs 100 zu vergleichen.Furthermore, the receiving device 115 is designed to receive an accident signal 125 representing an accident position from the receiving unit 150 of the vehicle 100 in accordance with one exemplary embodiment. According to this exemplary embodiment, the receiving unit 150 is designed to receive at least one external signal from a device 153 outside the vehicle and / or from a cloud 155, the external signal representing the accident position. The receiving unit 150 is designed to provide or send the accident position of the external signal in the form of the accident signal 125 to the reading device 115. The vehicle-external device 153 can transmit the external signal via the cloud 155, for example. The vehicle-external device 153 can be located in the further vehicle 135. Alternatively, the vehicle-external device 153 can be part of a light switch system, for example. In addition, the receiving unit 150 receives the vehicle position signal from the satellite navigation device 145 according to this exemplary embodiment. Both the accident signal 125 and the position signal 140 are then provided according to one exemplary embodiment by the receiving unit 150 to the control unit 105, in which, according to an optional exemplary embodiment, the signal generated by the accident signal 125 represented accident position is compared with the current position of the vehicle 100 received via position signal 140. According to one exemplary embodiment, the control unit 105 optionally has a comparison device for this purpose, which is designed to compare the accident position with the current position of the vehicle 100.

Decken sich beide Positionen oder befinden sich die beiden Positionen nahe zueinander, so wird gemäß einem Ausführungsbeispiel das Unkenntlichmachungssignal 130 von der Ausgabeeinheit 120 ausgegeben. Die Ausgabeeinheit 120 gibt gemäß diesem Ausführungsbeispiel also das Unkenntlichmachungssignal 130 aus, das dazu ausgebildet ist, um die selektierten Umfelddaten in Form der Umfeldinformationen des Unfalls zu löschen und/oder eine Funktion des Umfeldsensors 110 zu blockieren. Die Funktion kann beispielsweise ein zumindest teilweises Zwischenspeichern und/oder Auswerten und/oder dauerhaftes Speichern der Umfelddaten beinhalten. Gemäß einem Ausführungsbeispiel werden die Umfeldinformationen des Unfalls nach dem Ausgeben des Unkenntlichmachungssignals 130 also in einer sich in dem Steuergerät 105 befindlichen Unkenntlichmachungseinheit 160 oder in einer Verarbeitungseinheit 165 des Umfeldsensors 110 gelöscht oder blockiert.If both positions coincide or if the two positions are close to one another, then according to one exemplary embodiment the blurring signal 130 is output by the output unit 120. The According to this exemplary embodiment, output unit 120 therefore outputs the blurring signal 130, which is designed to delete the selected surroundings data in the form of the surroundings information of the accident and / or to block a function of the surroundings sensor 110. The function can include, for example, at least partial intermediate storage and / or evaluation and / or permanent storage of the environment data. According to one exemplary embodiment, the surroundings information of the accident after the output of the blurring signal 130 is thus deleted or blocked in a blurring unit 160 located in the control unit 105 or in a processing unit 165 of the surroundings sensor 110.

In anderen Worten sind gegenwärtig verfügbare Fahrzeuge noch nicht in der Lage, hochautomatisiert oder autonom zu agieren. Zum einen, weil die entsprechende Technik noch nicht voll ausgereift ist. Zum anderen, weil es heutzutage noch gesetzlich vorgeschrieben ist, dass ein Fahrzeugführer jederzeit selbst in ein Fahrgeschehen eingreifen können muss. Dies erschwert die Umsetzung von hochautomatisiert fahrbaren Fahrzeugen. Dennoch gibt es bereits Systeme, die ein hochautomatisiertes oder teilautomatisiertes Fahren darstellen. Diese Systeme befinden sich in einer intensiven Testphase. Bereits heute ist absehbar, dass in einigen Jahren voll hochautomatisiert fahrbare Fahrzeugsysteme auf den Markt kommen werden, sobald die oben genannten Hürden aus dem Weg geräumt wurden. Solche Fahrerassistenzsysteme greifen teilautomatisiert oder hochautomatisiert in Antrieb, Steuerung (z. B. Gas, Bremse) oder Signalisierungseinrichtungen des Fahrzeuges ein oder warnen durch geeignete Mensch-Maschine-Schnittstellen, kurz "HMI", den Fahrer kurz vor oder während kritischer Situationen. Derzeit sind die meisten Fahrerassistenzsysteme so konzipiert, dass die Verantwortung beim Fahrer bleibt und dieser damit nicht entmündigt wird. Für Fahrerassistenzsysteme kommen verschiedene Arten von Umfeldsensorik zum Einsatz, unter anderem:

  • Ultraschall (Einparkhilfe)
  • Radar (Spurwechselassistent, automatischer Abstandswarner)
  • Lidar (Totwinkel-Überwachung, automatischer Abstandswarner, Abstandsregelung, Pre-Crash und PreBrake)
  • Kamera (Spurverlassenswarnung, Verkehrszeichenerkennung, Spurwechselassistent, Totwinkel Überwachung, Notbremssystem zum Fußgängerschutz)
  • GNSS (Hochgenaue Fahrzeugpositionierung auf einer Karte, Steuerung eins autonomen Fahrzeugs, Safe-Stop).
In other words, currently available vehicles are not yet able to operate in a highly automated or autonomous manner. Firstly, because the corresponding technology is not yet fully developed. On the other hand, because today it is still required by law that a driver must be able to intervene in a driving event at any time. This complicates the implementation of highly automated vehicles. Nevertheless, there are already systems that represent highly automated or partially automated driving. These systems are in an intensive test phase. It is already foreseeable today that fully automated vehicle systems will come onto the market in a few years as soon as the hurdles mentioned above have been cleared. Such driver assistance systems intervene partially or highly automated in the drive, control (e.g. gas, brake) or signaling devices of the vehicle or warn the driver shortly before or during critical situations by means of suitable human-machine interfaces, or "HMI" for short. Most driver assistance systems are currently designed in such a way that responsibility remains with the driver and the driver is therefore not incapacitated. Different types of environment sensors are used for driver assistance systems, including:
  • Ultrasound (parking aid)
  • Radar (lane change assistant, automatic distance warning)
  • Lidar (blind spot monitoring, automatic distance warning, distance control, pre-crash and PreBrake)
  • Camera (lane departure warning, traffic sign recognition, lane change assistant, blind spot monitoring, emergency braking system for pedestrian protection)
  • GNSS (high-precision vehicle positioning on a map, control of an autonomous vehicle, safe stop).

Unter "Car-to-Car-Communication", kurz Car2Car oder C2C, wird ein Austausch von Informationen und Daten zwischen Kraftfahrzeugen verstanden. Ziel dieses Datenaustausches ist es, dem Fahrer frühzeitig kritische und gefährliche Situationen zu melden. Die betreffenden Fahrzeuge 100 sammeln Daten, wie ABS Eingriffe, Lenkwinkel, Position, Richtung und Geschwindigkeit, und senden diese Daten beispielsweise über Funk (WLAN, UMTS, etc.) an die anderen Verkehrsteilnehmer. Dabei soll die "Sichtweite" des Fahrers mit elektronischen Mitteln verlängert werden."Car-to-car communication", Car2Car or C2C for short, is understood to mean an exchange of information and data between motor vehicles. The aim of this data exchange is to report critical and dangerous situations to the driver at an early stage. The vehicles 100 in question collect data, such as ABS interventions, steering angle, position, direction and speed, and send this data to the other road users, for example by radio (WLAN, UMTS, etc.). The driver's "visibility" should be extended electronically.

Unter Car-to-Infrastructure kurz C2I, wird der Austausch von Daten zwischen einem Fahrzeug 100 und einer umliegenden Infrastruktur, z. B. Lichtzeichenanlagen, verstanden. Die genannten Technologien basieren auf einem Zusammenwirken von Sensoren der verschiedenen Verkehrspartner und verwenden neueste Verfahren der Kommunikationstechnologie zum Austausch dieser Informationen.Under car-to-infrastructure C2I for short, the exchange of data between a vehicle 100 and a surrounding infrastructure, e.g. B. light signal systems understood. The technologies mentioned are based on the interaction of sensors from various traffic partners and use the latest methods of communication technology to exchange this information.

Figur 2 zeigt ein Ablaufdiagramm eines Verfahrens 200 zum Unkenntlichmachen von Umfelddaten für ein Fahrzeug gemäß einem Ausführungsbeispiel. Dieses Verfahren 200 ist von dem in Figur 1 beschriebenen Steuergerät ansteuerbar oder ausführbar. Das Verfahren 200 ist dabei in einem Fahrzeug durchführbar, wie es beispielsweise in Figur 1 beschrieben wurde.
Das Verfahren 200 umfasst dabei einen Schritt 205 des Einlesens eines Unfallsignals sowie einen Schritt 210 des Ausgebens eines Unkenntlichmachungssignals. Im Schritt 205 des Einlesens wird entweder ein Signal eingelesen, das eine Unfallposition repräsentiert, oder ein Signal, das eine von einem Umfeldsensor sensierte Umfeldinformation eines Unfalls repräsentiert. Das heißt beispielsweise, dass der Umfeldsensor eine Unfallsituation erkannt hat. Im Schritt 210 des Ausgebens wird ein Unkenntlichmachungssignal unter Verwendung des Unfallsignals ausgegeben. Dabei ist das Unkenntlichmachungssignal dazu vorgesehen oder ausgebildet, die Umfeldinformation des Unfalls an der Unfallposition zu löschen und/oder eine Funktion des Umfeldsensors an der Unfallposition zu blockieren.
Figure 2 FIG. 12 shows a flowchart of a method 200 for blurring surrounding data for a vehicle according to an exemplary embodiment. This method 200 is different from that in FIG Figure 1 described control device controllable or executable. The method 200 can be carried out in a vehicle, as shown for example in FIG Figure 1 has been described.
The method 200 comprises a step 205 of reading in an accident signal and a step 210 of outputting a blurring signal. In step 205 of reading in, either a signal representing an accident position or a signal representing environmental information of an accident sensed by an environment sensor is read. This means, for example, that the environment sensor has recognized an accident situation. In step 210 of outputting, a blurring signal is output using the accident signal. It is Detection signal provided or designed to delete the environmental information of the accident at the accident position and / or to block a function of the environment sensor at the accident position.

Ferner umfasst das Verfahren 200 gemäß diesem Ausführungsbeispiel einen optionalen Schritt 215 des Selektierens, der gemäß einem Ausführungsbeispiel vor dem Schritt 205 des Einlesens stattfindet. Im Schritt 215 des Selektierens wird die Umfeldinformation des Unfalls von einer weiteren Umfeldinformation selektiert, wobei dies gemäß einem Ausführungsbeispiel unter Verwendung eines neuronalen Netzes und/oder einer künstlichen Intelligenz und/oder einer Objekterkennung geschehen kann.Furthermore, the method 200 according to this exemplary embodiment comprises an optional step 215 of the selection, which according to one exemplary embodiment takes place before the step 205 of the reading. In step 215 of the selection, the environmental information of the accident is selected from further environmental information, which according to one exemplary embodiment can be done using a neural network and / or artificial intelligence and / or object recognition.

Außerdem umfasst das Verfahren 200 gemäß diesem Ausführungsbeispiel nach dem Schritt 210 des Ausgebens einen optionalen Schritt 220 des Unterdrückens, in dem eine Objektidentifizierung eines Objekts an der Unfallposition unterdrückt wird. Eine Objektidentifizierung kann auch in einem neuronalen Netz umgesetzt werden. Das Objekt kann beispielsweise als ein Fahrzeug, eine Person, ein Nummernschild, etc. realisiert sein.In addition, the method 200 according to this exemplary embodiment after the step 210 of outputting comprises an optional step 220 of suppressing, in which an object identification of an object at the accident position is suppressed. Object identification can also be implemented in a neural network. The object can be realized, for example, as a vehicle, a person, a license plate, etc.

In anderen Worten kann gesagt werden, dass prototypisch eingesetzte hochautomatisierte oder teilautomatisierte Fahrzeuge mit einer Reihe von Umfeldsensoren ausgestattet sind. Diese Umfeldsensoren erkennen weitere Verkehrsteilnehmer, Fußgänger sowie Strukturen im Fahrzeugumfeld. Mit den Umfeldsensordaten erfolgt in einer intelligenten Steuerungseinheit, die auch als Steuergerät bezeichnet wird, die Steuerung eines hochautomatisiert fahrbaren oder teilautomatisiert fahrbaren Fahrzeugs entlang einer vorgeschrieben Trajektorie. Ein hochautomatisiertes Fahrzeug kann in der Praxis auch an einer Unfallstelle vorbeifahren. In diesem Fall scannen die Umfeldsensoren auch die Unfallstelle und führen eventuell eine Objektidentifizierung durch oder erkennen die Kennzeichen weiterer Verkehrsteilnehmer oder tauschen Daten mit einem noch funktionstüchtigen Unfallfahrzeug über beispielsweise eine Car-to-X Kommunikationsverbindung aus. Dies ist aus datenschutzrechtlichen Gründen und bezüglich eines Schutzes der Opfer von Nachteil. An dieser Stelle kommt der vorgestellte Ansatz zum Tragen.In other words, it can be said that prototypically used highly automated or partially automated vehicles are equipped with a number of environment sensors. These environment sensors detect other road users, pedestrians and structures in the vehicle's surroundings. The environment sensor data is used in an intelligent control unit, which is also referred to as a control unit, to control a highly automated or partially automated vehicle along a prescribed trajectory. In practice, a highly automated vehicle can also drive past an accident site. In this case, the environment sensors also scan the accident site and possibly carry out object identification or recognize the license plates of other road users or exchange data with a still functioning accident vehicle via, for example, a Car-to-X communication link. This is disadvantageous for data protection reasons and in terms of protecting the victims. This is where the approach presented comes into play.

Der Ansatz beschreibt ein Steuergerät und ein Verfahren 200, um Unfälle entlang einer Fahrtroute eines hochautomatisiert fahrbaren Fahrzeugs unkenntlich zu machen.The approach describes a control device and a method 200 for making accidents along a route of a highly automated vehicle unrecognizable.

In einem Ausführungsbeispiel wird im Schritt 210 des Ausgebens eine Unfallstelle in den Umfeldsensordaten, die auch als Umfelddaten bezeichnet werden, eines an der Unfallstelle vorbeifahrenden hochautomatisierten Fahrzeugs unkenntlich gemacht. Die Umfeldsensoren, beispielsweise mit Blickrichtung auf die Unfallstelle, können dabei keine Umfelddaten des Unfallbereichs zwischenspeichern, an weitere Verkehrsteilnehmer übertragen, auswerten oder dauerhaft speichern. Auf diese Weise wird verhindert, dass ein Unfallort dauerhaft auf einer Speichereinheit im Fahrzeug oder in einer Cloud oder auf weiteren Fahrzeugen gespeichert wird oder auf einer HMI eines Fahrzeugs sichtbar ist. Die Unkenntlichmachung der Unfallstelle kann dabei auf unterschiedliche Weise erfolgen:

  • Eine hochgenaue Position eines Unfallorts wird aus der Cloud heraus an die relevanten vorbeifahrenden Fahrzeuge innerhalb eines Mindestabstands zu der Unfallstelle übertragen. Die hochautomatisierten Fahrzeuge vergleichen nun die Position des Unfalls mit der eigenen Position und löschen die entsprechenden Umfelddaten unmittelbar, zum Beispiel nach Auswertung durch die künstliche Intelligenz, kurz KI, für das hochautomatisierte Fahren oder bereits davor, sofern die Unfallstelle mithilfe der Umfeldsensoren einer bestimmten Richtung sichtbar ist. Hierzu kann die Position der Unfallstelle vorab in ein Sensorkoordinatensystem mindestens eines Umfeldsensors transformiert werden. Auf diese Weise kann ein betroffener Umfeldsensor die entsprechenden Daten auch unmittelbar innerhalb der eigenen Verarbeitungseinheit löschen. Die hochgenaue Position der Unfallstelle kann beispielsweise aus einem mit der Cloud vernetzten ECall-System, unter dem ein Notrufsystem für ein Fahrzeug verstanden werden kann, stammen.
  • Ein Unfallfahrzeug sendet seine Position auch nach einem Unfall weiterhin über eine Car-to-X Kommunikationsverbindung an weitere Verkehrsteilnehmer oder ein ECall-System. Ein vorbeifahrendes Fahrzeug empfängt die hochgenauen Positionsdaten über Car-To-X und stellt fest, dass es sich um ein liegen gebliebenes Fahrzeug oder Unfallfahrzeug handelt, da das Fahrzeug sich nicht bewegt aber gleichzeitig beispielsweise auf einer bestimmten Fahrspur einer Straße bezüglich der Position ist. Die vorbeifahrenden hochautomatisierten Fahrzeuge vergleichen die Position des Unfallfahrzeugs mit der eigenen Position und löschen die entsprechenden Umfeldsensordaten unmittelbar, zum Beispiel nach Auswertung durch die KI für das hochautomatisierte Fahren oder davor, sofern die Unfallstelle mithilfe der Umfeldsensoren einer bestimmten Richtung sichtbar ist. Hierzu kann die Position der Unfallstelle in ein Sensorkoordinatensystem mindestens eines Umfeldsensors transformiert werden. Auf diese Weise kann ein betroffener Umfeldsensor die entsprechenden Daten auch unmittelbar innerhalb der eigenen Verarbeitungseinheit löschen.
  • Ein Umfeldsensor oder eine Verarbeitungseinheit eines Umfeldsensors ist mit einer Objekterkennungsfunktion ausgestattet. Diese Objekterkennungsfunktion basiert beispielsweise auf einer künstlichen Intelligenz, die als neuronales Netz ausgeführt sein kann und beispielsweise eine Objektidentifizierung durchführt. Im Rahmen der Fahrzeugentwicklung oder im Rahmen der Entwicklung der entsprechenden KI wird die entsprechende KI für die Objekterkennung auch mit den Daten von Unfällen gespeist. Die KI lernt in diesem Fall nicht nur die Objektidentifizierung, für die sie eigentlich vorgesehen ist, sondern auch die Erkennung von Unfällen entlang einer Fahrtroute, beispielsweise beschädigte oder zerstörte Fahrzeuge, überschlagen Fahrzeuge. Beim Lernen von Unfallstellen wird die KI beispielsweise angewiesen, auf diesen Daten keine Objektidentifizierung durchzuführen, bzw. diese Daten nicht auszuwerten oder unmittelbar zu löschen. Denkbar ist außerdem, dass für die Erkennung von Unfallszenarien basierend auf Daten mindestens eines Umfeldsensors auch eine eigene KI eingesetzt wird. Diese separate KI kann dabei die Speicherung von Umfeldsensordaten auf dem Fahrzeugzentralrechner unterbinden, wenn eine Unfallstelle in den Umfeldsensordaten mindestens eines Umfeldsensors erkannt wurde.
In one exemplary embodiment, in step 210 of outputting, an accident location is made unrecognizable in the environment sensor data, which are also referred to as environment data, of a highly automated vehicle passing the accident location. The environment sensors, for example with a view of the scene of the accident, cannot cache the environment data of the accident area, transfer it to other road users, evaluate it or save it permanently. This prevents an accident location from being permanently stored on a storage unit in the vehicle or in a cloud or on other vehicles or from being visible on an HMI of a vehicle. There are different ways of making the accident site unrecognizable:
  • A highly precise position of an accident location is transmitted from the cloud to the relevant passing vehicles within a minimum distance from the accident site. The highly automated vehicles now compare the position of the accident with their own position and delete the corresponding environment data immediately, for example after evaluation by artificial intelligence, AI for short, for highly automated driving or even before that, provided the scene of the accident is visible in a certain direction using the environment sensors is. For this purpose, the position of the accident site can be transformed in advance into a sensor coordinate system of at least one environment sensor. In this way, an affected environment sensor can also delete the corresponding data directly within its own processing unit. The highly precise position of the accident site can come, for example, from an ECall system networked with the cloud, which can be understood as an emergency call system for a vehicle.
  • An accident vehicle continues to send its position to others via a Car-to-X communication link even after an accident Road users or an ECall system. A passing vehicle receives the highly accurate position data via Car-To-X and determines that it is a broken down vehicle or accident vehicle, since the vehicle is not moving but is at the same time, for example, in a certain lane of a road with respect to the position. The highly automated vehicles passing by compare the position of the accident vehicle with its own position and delete the corresponding environment sensor data immediately, for example after evaluation by the AI for highly automated driving or in front of it, provided the accident location is visible in a certain direction using the environment sensors. For this purpose, the position of the accident site can be transformed into a sensor coordinate system of at least one environment sensor. In this way, an affected environment sensor can also delete the corresponding data directly within its own processing unit.
  • An environment sensor or a processing unit of an environment sensor is equipped with an object detection function. This object recognition function is based, for example, on artificial intelligence, which can be designed as a neural network and, for example, carries out object identification. As part of vehicle development or in the development of the corresponding AI, the corresponding AI for object detection is also fed with the data from accidents. In this case, the AI not only learns the object identification for which it is actually intended, but also the recognition of accidents along a route, such as damaged or destroyed vehicles, overturning vehicles. When learning accident sites, the AI is instructed, for example, not to carry out object identification on this data, or to evaluate this data or delete it immediately. It is also conceivable that a separate AI is also used for the detection of accident scenarios based on data from at least one environment sensor. This separate AI can store environment sensor data on the vehicle central computer prevent when an accident location was detected in the environment sensor data of at least one environment sensor.

Sofern die entsprechenden Umfeldsensordaten vor oder nach der Auswertung unmittelbar verworfen wurden und das Fahrzeug an der Unfallstelle vorbeigefahren ist, inklusive eines Sensorsensierabstands in Gegenrichtung, können die Umfeldsensordaten wie gewohnt vollständig ausgewertet werden, an weitere Verkehrsteilnehmer übertragen werden (Car-to-X Kommunikation) und/oder zwischengespeichert bzw. dauerhaft gespeichert werden. Während der Vorbeifahrt an der Unfallstelle können nur die abgewandten Umfeldsensordaten ausgewertet, an weitere Verkehrsteilnehmer übertragen, beispielsweise mittels Car-to-X Kommunikation, oder gespeichert werden. In einem weiteren Ausführungsbeispiel erfolgt die Unkenntlichmachung von Umfeldsensordaten auch für Fahrzeuge die eine Unfallstelle aus einer Gegenrichtung passieren mit Hilfe des oben genannten Verfahrens 200. Es wird also eine Vorrichtung und ein Verfahren 200 zur Unkenntlichmachung von Unfällen entlang einer Fahrtroute eines hochautomatisierten Fahrzeugs beschrieben.If the corresponding environment sensor data was immediately discarded before or after the evaluation and the vehicle drove past the accident site, including a sensor distance in the opposite direction, the environment sensor data can be fully evaluated as usual, transmitted to other road users (car-to-x communication) and / or temporarily or permanently saved. While driving past the accident site, only the averted environment sensor data can be evaluated, transmitted to other road users, for example using Car-to-X communication, or saved. In a further exemplary embodiment, environment sensor data are also made unrecognizable for vehicles which pass an accident site from the opposite direction with the aid of method 200 mentioned above. A device and a method 200 for making accidents unrecognizable along a route of a highly automated vehicle are therefore described.

Die wesentlichen Vorteile umfassen unter anderem zumindest einen der folgenden Punkte:

  • Umfeldsensordaten von an einer Unfallstelle vorbeifahrenden hochautomatisierten Fahrzeugen können bezüglich der Unfallstelle unkenntlich gemacht werden.
  • Darüber hinaus wird verhindert, Unfallstellen auf einer HMI des Fahrzeugs sichtbar zu machen.
  • Außerdem können die Umfeldsensordaten von Unfallstellen weder zwischengespeichert noch dauerhaft im Fahrzeug oder in der Cloud gespeichert werden.
  • Die Privatsphäre/Würde von Unfallopfern wird gewährleistet.
The main advantages include at least one of the following:
  • Environment sensor data from highly automated vehicles passing an accident site can be made unrecognizable with regard to the accident site.
  • It also prevents accidents from being made visible on the vehicle's HMI.
  • In addition, the environmental sensor data from accident sites can neither be stored temporarily nor stored permanently in the vehicle or in the cloud.
  • The privacy / dignity of accident victims is guaranteed.

Umfasst ein Ausführungsbeispiel eine "und/oder"-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.If an exemplary embodiment comprises a “and / or” link between a first feature and a second feature, this is to be read in such a way that the embodiment according to one embodiment has both the first feature and also has the second feature and, according to a further embodiment, either only the first feature or only the second feature.

Claims (11)

Verfahren (200) zum Unkenntlichmachen von Umfelddaten für ein Fahrzeug (100), wobei das Verfahren (200) die folgenden Schritte umfasst: - Einlesen (205) eines Unfallsignals (125), das zumindest eine Unfallposition oder eine von einem Umfeldsensor (110) des Fahrzeugs (100) sensierte Umfeldinformation eines Unfalls repräsentiert; - Ausgeben (210) eines Unkenntlichmachungssignals (130) unter Verwendung des Unfallsignals (125), wobei das Unkenntlichmachungssignal (130) dazu vorgesehen ist, um die Umfeldinformation des Unfalls an der Unfallposition zu löschen und/oder eine Funktion des Umfeldsensors (110) an der Unfallposition zu blockieren. Method (200) for blurring surrounding data for a vehicle (100), the method (200) comprising the following steps: - Reading in (205) an accident signal (125), which represents at least one accident position or environmental information of an accident sensed by an environment sensor (110) of the vehicle (100); - Outputting (210) a blurring signal (130) using the accident signal (125), the blurring signal (130) being provided to delete the environmental information of the accident at the accident position and / or a function of the environmental sensor (110) at the Block accident position. Verfahren (200) gemäß Anspruch 1, bei dem im Schritt (205) des Einlesens des Unfallsignals (125) die Unfallposition eingelesen wird, die von einer fahrzeugexternen Einrichtung (153) und/oder einer Cloud (155) bereitgestellt wurde.Method (200) according to Claim 1, in which in the step (205) of reading in the accident signal (125) the accident position is read in, which was provided by a device external to the vehicle (153) and / or a cloud (155). Verfahren (200) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (205) des Einlesens des Unfallsignals (125) die Umfeldinformation des Unfalls eingelesen wird, die eine Bildinformation aufweist.Method (200) according to one of the preceding claims, in which in the step (205) of reading in the accident signal (125) the surroundings information of the accident is read, which has image information. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt (215) des Selektierens vor dem Schritt (205) des Einlesens, wobei im Schritt (215) des Selektierens die Umfeldinformation des Unfalls von einer weiteren Umfeldinformation selektiert wird.Method (200) according to one of the preceding claims, with a step (215) of selecting before the step (205) of reading in, wherein in step (215) of selecting the environment information of the accident is selected from further environment information. Verfahren (200) gemäß Anspruch 4, bei dem im Schritt (215) des Selektierens die Umfeldinformation des Unfalls unter Verwendung eines neuronalen Netzes und/oder einer künstlichen Intelligenz und/oder einer Objekterkennung selektiert wird.Method (200) according to Claim 4, in which, in the step (215) of selecting, the environmental information of the accident is selected using a neural network and / or an artificial intelligence and / or an object recognition. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt (220) des Unterdrückens einer Objektidentifizierung eines Objekts an der Unfallposition, ansprechend auf das Unkenntlichmachungssignal (130).Method (200) according to one of the preceding claims, with a step (220) of suppressing an object identification of an object at the accident position in response to the blurring signal (130). Verfahren (200) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (205) des Einlesens ein Positionssignal (140), das eine aktuelle Position des Fahrzeugs (100) repräsentiert, eingelesen wird, wobei das Unkenntlichmachungssignal (130) unter Verwendung eines Vergleichsergebnisses der Unfallposition mit der aktuellen Position ausgegeben wird, insbesondere wobei als das Positionssignal (140) ein von einer Satellitennavigationseinrichtung (145) bereitgestelltes Signal eingelesen wird.Method (200) according to one of the preceding claims, in which in the step (205) of reading in a position signal (140) representing a current position of the vehicle (100) is read in, the blurring signal (130) using a comparison result of Accident position is output with the current position, in particular wherein a signal provided by a satellite navigation device (145) is read in as the position signal (140). Verfahren (200) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (210) des Ausgebens das Unkenntlichmachungssignal (130) an eine Verarbeitungseinheit (165) des Umfeldsensors (110) ausgegeben wird.Method (200) according to one of the preceding claims, in which in the step (210) of outputting the blurring signal (130) is output to a processing unit (165) of the environment sensor (110). Steuergerät (105), das eingerichtet ist, um die Schritte (205, 210, 215, 220) des Verfahrens (200) gemäß einem der vorangegangenen Ansprüche in entsprechenden Einheiten (115, 120,152, 160, 165) auszuführen und/oder anzusteuern.Control device (105) which is set up to execute and / or to control the steps (205, 210, 215, 220) of the method (200) according to one of the preceding claims in corresponding units (115, 120, 152, 160, 165). Computerprogramm, das dazu eingerichtet ist, die Schritte (205, 210, 215, 220) des Verfahrens (200) gemäß einem der Ansprüche 1 bis 8 auszuführen und/oder anzusteuern.Computer program which is set up to execute and / or to control the steps (205, 210, 215, 220) of the method (200) according to one of Claims 1 to 8. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 10 gespeichert ist.Machine-readable storage medium on which the computer program according to claim 10 is stored.
EP20150742.3A 2019-01-18 2020-01-08 Method and apparatus for disguising environment data for a vehicle Withdrawn EP3683720A1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019200607.8A DE102019200607A1 (en) 2019-01-18 2019-01-18 Method and device for blurring surrounding data for a vehicle

Publications (1)

Publication Number Publication Date
EP3683720A1 true EP3683720A1 (en) 2020-07-22

Family

ID=69156195

Family Applications (1)

Application Number Title Priority Date Filing Date
EP20150742.3A Withdrawn EP3683720A1 (en) 2019-01-18 2020-01-08 Method and apparatus for disguising environment data for a vehicle

Country Status (2)

Country Link
EP (1) EP3683720A1 (en)
DE (1) DE102019200607A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19710393A1 (en) * 1997-03-13 1998-09-17 Bosch Gmbh Robert Vehicle data documentation method
DE102016121277A1 (en) * 2015-11-10 2017-05-11 Ford Global Technologies, Llc METHOD AND DEVICE FOR SECURING AND CONTROLLING INDIVIDUAL USER DATA

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19710393A1 (en) * 1997-03-13 1998-09-17 Bosch Gmbh Robert Vehicle data documentation method
DE102016121277A1 (en) * 2015-11-10 2017-05-11 Ford Global Technologies, Llc METHOD AND DEVICE FOR SECURING AND CONTROLLING INDIVIDUAL USER DATA

Also Published As

Publication number Publication date
DE102019200607A1 (en) 2020-07-23

Similar Documents

Publication Publication Date Title
EP2149132B1 (en) Method and a device for identifying traffic-relevant information
DE102017218192A1 (en) Method and device for traffic sign recognition
EP3649519B1 (en) Method for verifying a digital map in a more highly automated vehicle, corresponding device and computer program
EP2562735A1 (en) Method and device for analysing a route section to be driven by a vehicle
DE102016224516A1 (en) Method and device for recognizing at least one pedestrian by a vehicle
DE102019216989B4 (en) Vehicle sensor validation system and method for object validation
DE102021123270B3 (en) Method and control circuit for checking whether a currently active driving mode is operating within its ODD, and system and backend server
DE19937489A1 (en) Monitoring lane changes by motor vehicle involves using distance sensors to monitor semi-areas for whether vehicles/obstructions are located or approaching with critical speed in other lanes
WO2019233777A1 (en) Driving assistance system
DE102020123831A1 (en) Concept for supporting an at least partially automated motor vehicle
DE102015103361A1 (en) TRAFFIC DENSITY SENSITIVITY VOTERS
WO2018188846A1 (en) Driver assistance system for a vehicle
EP1094298B1 (en) Method and device for driving using navigation support
DE102018210852A1 (en) Procedure for the determination of illegal driving behavior by a vehicle
EP3332351A1 (en) Method for operating a driver assistance system of a vehicle, control device and vehicle
DE102016203959A1 (en) Infrastructure recognition apparatus for a vehicle, method for generating a signal, and method for providing repair information
DE102020215885A1 (en) PROCEDURE AND SYSTEM FOR DETECTING AND MITIGATION OF INTERFERENCE
DE102007007283A1 (en) Vehicle for recording surroundings makes information on surroundings available to a vehicle's control unit so as to change a vehicle's performance
DE102016224074A1 (en) Method and device for operating a vehicle
DE102022210507A1 (en) Alarm system to warn vulnerable road users in a given road section
EP3683720A1 (en) Method and apparatus for disguising environment data for a vehicle
DE102017215505A1 (en) Method and device for predicting a construction site-related route change a route for a vehicle
DE102020213588A1 (en) Method and device for operating an automated vehicle
WO2020104355A1 (en) Method and device for storing data for a vehicle
WO2019002160A1 (en) Context-based autonomous control of a vehicle

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN PUBLISHED

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20210123