EP4029757A1 - Verfahren zum steuern einer verkehrssituation - Google Patents

Verfahren zum steuern einer verkehrssituation Download PDF

Info

Publication number
EP4029757A1
EP4029757A1 EP21202312.1A EP21202312A EP4029757A1 EP 4029757 A1 EP4029757 A1 EP 4029757A1 EP 21202312 A EP21202312 A EP 21202312A EP 4029757 A1 EP4029757 A1 EP 4029757A1
Authority
EP
European Patent Office
Prior art keywords
vehicle
image recording
property
traffic
data processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP21202312.1A
Other languages
English (en)
French (fr)
Inventor
Andrew Palmer
Emanuel Brämer
Markus Wilhelm
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Mobility GmbH
Original Assignee
Siemens Mobility GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Mobility GmbH filed Critical Siemens Mobility GmbH
Publication of EP4029757A1 publication Critical patent/EP4029757A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L15/00Indicators provided on the vehicle or train for signalling purposes
    • B61L15/0081On-board diagnosis or maintenance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L27/00Central railway traffic control systems; Trackside control; Communication systems specially adapted therefor
    • B61L27/50Trackside diagnosis or maintenance, e.g. software upgrades
    • B61L27/57Trackside diagnosis or maintenance, e.g. software upgrades for vehicles or trains, e.g. trackside supervision of train conditions

Definitions

  • the invention relates to a method for controlling a traffic situation.
  • the invention also relates to a data processing unit and a system having a data processing unit for executing the method for determining a property of a vehicle.
  • the object of the invention is to provide an improved method for controlling a traffic situation.
  • the invention is also based on the object of providing a data processing unit and a system with a data processing unit for carrying out the method.
  • At least one property of another vehicle can be determined by object recognition based on surroundings sensor data of a vehicle and a traffic control function can be executed based on the determined property if the determined property of the other vehicle is a traffic-relevant property.
  • the roadworthiness of vehicles can thus be checked by the vehicles of the other road users based on the surroundings sensor data of the vehicles. If it is detected that a vehicle is unfit to drive in the form of a traffic-relevant property, various measures in the form of a traffic control function can be carried out in order to ensure that a vehicle is a risk to road safety or to inform the respective driver that his vehicle is a traffic hazard.
  • the vehicle and the additional vehicle are each designed as a rail vehicle, with the rail vehicle and the additional rail vehicle being arranged on one rail track or on two rail tracks arranged next to one another.
  • the rail vehicles can check the roadworthiness that can be seen from the outside of other rail vehicles that are approaching on other tracks or that are driving ahead on other tracks or on the same track. This can improve the safety of rail traffic.
  • the property includes damage and/or dirt and/or the presence of a foreign body and/or a lack of an identification number of the other vehicle.
  • the technical advantage can be achieved that damage, dirt or, for example, the presence of foreign objects on the vehicle can be determined.
  • other externally visible damage to vehicles can be determined. This allows a precise determination of the roadworthiness based on externally visible damage or deviations from the normal condition of the vehicle. This can further increase road safety for road users.
  • the traffic control function includes outputting a warning signal and/or a warning message to the vehicle and/or the additional vehicle and/or reducing a speed of the vehicle and/or the additional vehicle and/or ending a journey of the vehicle and/or the additional vehicle.
  • the technical advantage can be achieved that when determining a traffic-relevant property, efficient control of the traffic situation and avoidance of a traffic hazard can be achieved.
  • warning signals or warning messages can be output to the vehicles involved in the traffic situation, the speed of the vehicles can be reduced or the journeys of the vehicles can be terminated. If traffic-relevant characteristics are present, the vehicles concerned can be secured or the traffic hazard reduced.
  • a traffic-relevant property is a property of a vehicle that can reduce the traffic safety of the vehicle and, in connection therewith, cause a traffic hazard for the respective vehicle and other road users.
  • the comparison includes: adapting and/or aligning the image recording and the reference image recording by performing an alignment of feature points of the image recording of the reference image recording.
  • the technical advantage can be achieved that a precise comparison of the image recordings of the surroundings sensor data with the respective reference image recordings and, associated with this, a precise determination of the deviation and, associated with this, a precise identification of the properties of the checked vehicles can be provided.
  • these are adapted and aligned with one another based on alignments of feature points of the recorded images and the reference recorded images.
  • the comparison of the image recordings with the reference image recordings and the determination of the respective deviations between the recordings can be made more precise.
  • identifying the property includes: classifying the property as a hazardous property or as a non-hazardous property.
  • the technical advantage can be achieved that the respective traffic control functions are only executed in the case of traffic-relevant properties. If there are discrepancies between the image recordings and the reference image recordings, which are based on properties that are not relevant to traffic and which therefore do not pose a threat to traffic, the execution of the traffic control function can be dispensed with. As a result, precise control of the traffic situation can be brought about.
  • the comparison of the image recording with the reference image recording, the determination of the deviation, the identification of the property and the classification of the property are carried out by a trained artificial intelligence.
  • the trained artificial intelligence can be designed in particular by a trained artificial neural network.
  • the comparison of the image recording with the reference image recording, the determination of the deviation, the identification of the property and the classification of the property are carried out by trained personnel.
  • the technical advantage can be achieved that a precise determination can be made, particularly in the case of deviations that are difficult to detect or in the case of properties that are difficult to classify of the traffic-related properties can be provided.
  • assessment by trained personnel can be advantageous over automatic assessment.
  • a combination of execution by the trained artificial intelligence and by trained personnel can also be advantageous.
  • a pre-selection or pre-assessment can be carried out by the artificial intelligence and a final classification or final identification of the individual features can be carried out by the trained personnel.
  • the recognition of the further vehicle in a vehicle recognition is carried out by a trained artificial intelligence.
  • the technical advantage can be achieved that precise object recognition can be provided based on the image recordings of the surroundings sensor data.
  • the trained artificial intelligence can in particular be embodied as a trained artificial neural network, which is trained for object recognition.
  • the method is executed by a data processing unit of the vehicle and/or by an external data processing unit.
  • the method according to the invention can be carried out by a data processing unit within the vehicles and/or by an external data processing unit which is operated, for example, in a rail traffic control center.
  • the respective drivers of the vehicles, in particular the rail vehicles can carry out the process through the in the vehicles trained data processing units are immediately given the appropriate instruction for controlling the traffic situation.
  • the respective drivers of the vehicles can react immediately to the traffic hazard.
  • the execution of the method by the external data processing unit for example in the rail traffic control center, can thus be used to control a global traffic situation that includes a plurality of different vehicles.
  • the vehicles affected by the traffic situation can thus be notified centrally by the control center or controlled or driven to carry out the traffic control function.
  • the environment sensor unit includes an RGB camera, a stereo camera, a LiDAR system or a radar system.
  • the technical advantage can be achieved that a precise determination of the properties of the vehicles is made possible. In this way, in particular, precise control of the traffic situation can be achieved.
  • a computer program product which includes instructions which, when the program is executed by a computing unit, cause the latter to execute the method according to the invention for controlling a traffic situation according to one of the preceding embodiments.
  • a data processing unit is provided which is designed to carry out the method according to the invention for controlling a traffic situation according to one of the preceding embodiments.
  • a system with a data processing unit is provided, which is designed to control the method according to the invention Execute traffic situation according to one of the preceding embodiments.
  • FIG 1 shows a graphical representation of a method for controlling a traffic situation according to an embodiment.
  • the method for controlling a traffic situation is carried out by a system 200 with a data processing unit 202 .
  • the system 200 includes a vehicle 201 in which the data processing unit 202 is designed to execute the method for controlling the traffic situation.
  • a traffic situation with two rail vehicles 201, 203 is shown, which are each moved on rails 215 arranged next to one another.
  • vehicle 201 records surroundings sensor data from a surroundings sensor unit 205, via which further vehicle 203 can be detected.
  • an object recognition which in the embodiment shown by an artificial intelligence 217, for example correspondingly trained artificial neural network, is executed, the additional vehicle 203 is detected based on the surroundings sensor data from surroundings sensor 205 .
  • Images 207 of surroundings sensor unit 205 are recorded for object recognition.
  • the surroundings sensor unit can comprise, for example, an RGB camera, a stereo camera, a LiDAR system or a radar system.
  • reference images 209 of the respectively identified vehicle 203 are then determined.
  • the reference image recordings 209 can be stored in a corresponding database, for example.
  • method 100 for controlling a traffic situation is executed by data processing unit 202 inside vehicle 201 .
  • the corresponding reference image recordings 209 can be stored in a corresponding database of the data processing unit 202 .
  • the method for controlling a traffic situation can be carried out by an external data processing unit (in FIG 1 not shown), which is operated, for example, within a control center for rail traffic.
  • a corresponding system 200 comprises at least the control center and the data processing unit integrated therein.
  • the reference image recordings 209 can be stored in corresponding databases of the external data processing unit.
  • the reference image recordings 209 can be created individually for each rail vehicle that is within a traffic network that is controlled, for example, by the respective control center and can each represent a certain perspective of the respective rail vehicle.
  • the respective surroundings sensor unit 205 is in a front area or in a rear area of the vehicle 201 arranged.
  • the images 207 recorded by surroundings sensor unit 205 thus show the front area or rear area of the additional vehicle 203.
  • the reference image 209 selected for this purpose shows the identical perspective of the additional vehicle 203 in the embodiment shown and thus also represents the front or rear area of the additional vehicle 203 represent.
  • the surroundings sensor units 205 can be formed at any desired points of the vehicle 201, so that any perspectives of the respective further vehicles 203 can be shown in the images 207.
  • different reference image recordings 209 can be displayed in the corresponding databases for different perspectives of a vehicle.
  • the recorded images 207 and the stored reference images 209 of a vehicle 203 can be adapted or aligned to compare the recorded images 207 and the stored reference images 209 .
  • different feature points of the image recording 207 and the respective reference image recording 209 can be aligned with one another. This can be carried out, for example, by algorithms known from the prior art, such as SIFT, SURF, ORB, FAST and others.
  • the data processing unit 202 is able to select the respectively stored reference image recordings 209 corresponding to the recognized vehicle 203.
  • the data processing unit 202 After selection of the respective reference image recordings 209 suitable for the recognized vehicle 203 , the data processing unit 202 compares the image recordings created based on the surroundings sensor data of the surroundings sensor 205 207 with the respectively stored reference image recordings 209.
  • a discrepancy 211 is detected.
  • a comparison recording 213 can be created in the embodiment shown, in which the deviation 211 is highlighted in each case.
  • the deviation 211 is shown as damage located in the lower left corner of the front or rear area of the further vehicle 203 .
  • the damage to the other vehicle 203 is not shown in the reference images 209, which show the other vehicle 203 in a functional state.
  • the data processing unit 202 is thus able to detect the damage to the other vehicle 203.
  • the deviation 211 determined in each case is then identified as a corresponding property of the additional vehicle 203, in the embodiment shown as damage to the additional vehicle 203.
  • the identified property is then classified and the identified property is classified as traffic-relevant or non-traffic-relevant.
  • Traffic-relevant properties are properties that reduce the roadworthiness of the respective vehicle and can jeopardize a corresponding traffic safety of the traffic situation.
  • the property determined in each case is embodied as damage to the other vehicle 203, the property determined is classified as relevant to traffic.
  • the corresponding traffic control function can then be executed.
  • a warning message or a warning signal can be displayed for this purpose, for example the driver of the vehicle 201 or to the driver of the additional vehicle 203 or to the control center for controlling the rail traffic.
  • the method 100 according to the invention is executed by an external data processing unit, for example in the control center, the speed of the vehicle 201 or the other vehicle 203 and/or the journey of the vehicle 201 or the other vehicle can be stopped 203 by sending corresponding requests to the respective driver or by automatically controlling the vehicles 201, 203.
  • the execution of the respective traffic control function or the selection of the appropriate traffic control function can be based on the classification of the classified properties of the additional vehicle 203 . Depending on the hazard potential of the recognized vehicle characteristics, traffic control functions appropriate to the situation can be selected and executed.
  • the method according to the invention for controlling a traffic situation can be carried out by a suitably trained artificial intelligence 217, for example by a suitably trained artificial neural network.
  • images 207 of a plurality of surroundings sensor units 205 can be taken into account for determining the properties of the other vehicle 203 .
  • an identification number shown as xyz, of the other vehicle 203 can also be seen, for example. According to one specific embodiment, this identification number can be taken into account additionally or alternatively, for example to identify the additional vehicle 203 .
  • the two rail vehicles 201, 203 shown can be moved one after the other on the same track 215.
  • the vehicles 201, 203 can be embodied as autonomous motor vehicles, for example.
  • the vehicles 201, 203 shown can be autonomous rail vehicles that are operated without a driver, or at least partially autonomous vehicles that are at least partially controlled by a corresponding vehicle driver.
  • the data communication between vehicles 201, 203 and an external data processing unit can, in particular, be wireless.
  • the external data processing unit can be in the form of a cloud computer or a cloud server, for example.
  • the execution of the method and in particular the recognition of the property and the classification of the property as traffic-relevant or non-traffic-relevant can be carried out during the operation of the vehicles 201, 203 and immediately after recognizing the respective property.
  • the detection of the property or the classification of the property as traffic-relevant or non-traffic-relevant can be carried out at a later point in time than the object detection of the further vehicle 203 by the vehicle 201 .
  • FIG 2 shows a flowchart of the method 100 for controlling a traffic situation according to an embodiment.
  • a further vehicle 203 is initially recognized based on an image recording 207 of at least one surroundings sensor unit 205 of a vehicle 201 .
  • the recorded image 207 of the additional vehicle 203 is compared with a reference recorded image 209 of the additional vehicle 203 .
  • the image recording 207 and the reference image recording 209 can be adapted or aligned to one another in a method step 111 by carrying out an alignment of feature points of the image recording 207 and the reference image recording 209.
  • a method step 105 at least one discrepancy 211 between the image recording 207 of the additional vehicle 203 and the reference image recording 209 of the additional vehicle 203 is then determined.
  • the determined deviation 211 is identified as a property of the other vehicle 203.
  • the property can be classified as a traffic-relevant property or as a non-traffic-relevant property.
  • a traffic control function is then executed in the event that the determined property of the other vehicle 203 is a traffic-relevant property.
  • FIG. 3 shows a schematic representation of a computer program product 300.
  • FIG 3 shows a computer program product 300, comprising instructions which, when the program is executed by a computing unit, cause the latter to execute the method according to one of the above-mentioned embodiments.
  • the computer program product 300 is stored on a storage medium 301 in the embodiment shown.
  • the storage medium 301 can be any storage medium known from the prior art.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren (100) zum Steuern einer Verkehrssituation, umfassend:
- Erkennen (101) eines weiteren Fahrzeugs (203) basierend auf wenigstens einer Bildaufnahme (207) wenigstens einer Umfeldsensoreinheit (205) eines Fahrzeugs (201);
- Vergleichen (103) der Bildaufnahme (207) des weiteren Fahrzeugs (203) mit einer Referenzbildaufnahme (209) des weiteren Fahrzeugs (203);
- Ermitteln (105) von wenigstens einer Abweichung (211) zwischen der Bildaufnahme (207) des Fahrzeugs (203) und der Referenzbildaufnahme (209) des Fahrzeugs (203);
- Identifizieren (107) der Abweichung (211) als Eigenschaft des Fahrzeugs (203); und
- Ausführen (109) einer Verkehrsteuerungsfunktion, wenn die Eigenschaft des weiteren Fahrzeugs (203) eine verkehrsrelevante Eigenschaft ist.

Description

  • Die Erfindung betrifft ein Verfahren zum Steuern einer Verkehrssituation. Außerdem betrifft die Erfindung eine Datenverarbeitungseinheit und ein System mit einer Datenverarbeitungseinheit zum Ausführen des Verfahrens zum Ermitteln einer Eigenschaft eines Fahrzeugs.
  • Triebfahrzeugführer eines Schienenfahrzeugs haben viele Verantwortlichkeiten, die über das Führen des Zuges hinausgehen. Eine dieser Aufgaben ist es, den Zustand der vorbeifahrenden Schienenfahrzeuge auf mögliche Probleme zu beobachten. Zu den möglichen Problemen gehören Schäden am Fahrzeug und die Sauberkeit des Fahrzeugs (insbesondere bei Unfällen mit Wildtieren). Wenn Bahnbetreiber zum fahrerlosen Betrieb übergehen, wird sich keine Person an Bord des Fahrzeugs befinden, die diese Aufgabe übernimmt. Infolgedessen muss diese Verantwortung auf andere Weise wahrgenommen werden.
  • Der Erfindung liegt die Aufgabe zugrunde, ein verbessertes Verfahren zum Steuern einer Verkehrssituation bereitzustellen. Der Erfindung liegt ferner die Aufgabe zugrunde, eine Datenverarbeitungseinheit und ein System mit einer Datenverarbeitungseinheit zum Ausführen des Verfahrens bereitzustellen.
  • Diese Aufgabe wird durch ein Verfahren zum Steuern einer Verkehrssituation, eine Datenverarbeitungseinheit und ein System mit einer Datenverarbeitungseinheit der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.
  • Nach einem Aspekt der Erfindung wird ein Verfahren zum Steuern einer Verkehrssituation bereitgestellt, umfassend:
    • Erkennen eines weiteren Fahrzeugs basierend auf wenigstens einer Bildaufnahme wenigstens einer Umfeldsensoreinheit eines Fahrzeugs;
    • Vergleichen der Bildaufnahme des weiteren Fahrzeugs mit einer Referenzbildaufnahme des weiteren Fahrzeugs;
    • Ermitteln von wenigstens einer Abweichung zwischen der Bildaufnahme des weiteren Fahrzeugs und der Referenzbildaufnahme des weiteren Fahrzeugs;
    • Identifizieren der Abweichung als Eigenschaft des weiteren Fahrzeugs); und
    • Ausführen einer Verkehrsteuerungsfunktion, wenn die Eigenschaft des weiteren Fahrzeugs eine verkehrsrelevante Eigenschaft ist.
  • Hierdurch kann der technische Vorteil erreicht werden, dass ein verbessertes Verfahren zum Steuern einer Verkehrssituation bereitgestellt werden kann. Hierbei kann durch eine Objekterkennung basierend auf Umfeldsensordaten eines Fahrzeugs wenigstens eine Eigenschaft eines weiteren Fahrzeugs ermittelt werden und basierend auf der ermittelten Eigenschaft eine Verkehrsteuerungsfunktion ausgeführt werden, wenn die ermittelte Eigenschaft des weiteren Fahrzeugs eine verkehrsrelevante Eigenschaft ist. Die Verkehrstüchtigkeit von Fahrzeugen kann somit durch die Fahrzeuge der weiteren Verkehrsteilnehmer basierend auf den Umfeldsensordaten der Fahrzeuge überprüft werden. Wird hierbei eine Verkehrsuntüchtigkeit in Form einer verkehrsrelevanten Eigenschaft eines Fahrzeugs erkannt, können verschiedene Maßnahmen in Form einer Verkehrsteuerungsfunktion ausgeführt werden, um ein gegebenenfalls die Verkehrssicherheit gefährdendes Fahrzeug sicherzustellen bzw. den jeweiligen Fahrer auf die Verkehrsgefährdung seines Fahrzeugs hinzuweisen. Indem die bereits im Fahrzeug vorhandenen Umfeldsensordaten zum Ermitteln der Eigenschaften der weiteren in der Verkehrssituation beteiligten Fahrzeuge verwendet werden, benötigt es zum Steuern der Verkehrssituation keiner weiteren Beobachtungssysteme. Durch das Vergleichen der Bildaufnahmen der Umfeldsensordaten mit Referenzaufnahmen zum Ermitteln der Eigenschaften der weiteren Fahrzeuge kann eine technisch möglichst einfache Ermittlung von Merkmalen bereitgestellt werden.
  • Nach einer Ausführungsform sind das Fahrzeug und das weitere Fahrzeug jeweils als Schienenfahrzeug ausgebildet, wobei das Schienenfahrzeug und das weitere Schienenfahrzeug auf einem Schienenweg oder auf zwei nebeneinander angeordneten Schienenwegen angeordnet sind.
  • Hierdurch kann der technische Vorteil erreicht werden, dass eine Überprüfung der Verkehrstüchtigkeit von Schienenfahrzeugen bereitgestellt werden kann. Die Schienenfahrzeuge können hierbei die jeweils auf anderen Gleisen entgegenkommenden bzw. auf anderen Gleisen oder demselben Gleis voranfahrenden weiteren Schienenfahrzeuge auf äußerlich erkennbare Verkehrstüchtigkeit überprüfen. Hierdurch kann die Sicherheit des Schienenverkehrs verbessert werden.
  • Nach einer Ausführungsform umfasst die Eigenschaft eine Beschädigung und/oder eine Verschmutzung und/oder ein Vorhandensein eines Fremdkörpers und/oder ein Fehlen einer Identifikationsnummer des weiteren Fahrzeugs.
  • Hierdurch kann der technische Vorteil erreicht werden, dass Beschädigungen, Verschmutzungen oder beispielsweise das Vorhandensein von Fremdkörpern am Fahrzeug ermittelt werden können. Zusätzlich können weitere äußerlich erkennbare Schäden von Fahrzeugen ermittelt werden. Hierdurch kann eine präzise Bestimmung der Verkehrstüchtigkeit basierend auf äußerlich erkennbaren Schäden bzw. Abweichungen vom Normalzustand der Fahrzeuge erzielt werden. Hierdurch kann die Verkehrssicherheit der Verkehrsteilnehmer weiter erhöht werden.
  • Nach einer Ausführungsform umfasst die Verkehrssteuerungsfunktion ein Ausgeben eines Warnsignals und/oder einer Warnmeldung an das Fahrzeug und/oder das weitere Fahrzeug und/oder ein Reduzieren einer Geschwindigkeit des Fahrzeugs und/oder des weiteren Fahrzeugs und/oder ein Beenden einer Fahrt des Fahrzeugs und/oder des weiteren Fahrzeugs.
  • Hierdurch kann der technische Vorteil erreicht werden, dass beim Ermitteln einer verkehrsrelevanten Eigenschaft eine effiziente Steuerung der Verkehrssituation und das Vermeiden einer Verkehrsgefährdung erzielt werden kann. Hierdurch können an die in der Verkehrssituation beteiligten Fahrzeuge Warnsignale oder Warnmeldungen ausgegeben werden, die Geschwindigkeit der Fahrzeuge reduziert werden bzw. die Fahrten der Fahrzeuge beendet werden. Beim Vorliegen verkehrsrelevanter Eigenschaften können die jeweils betroffenen Fahrzeuge somit gesichert bzw. die Verkehrsgefährdung reduziert werden.
  • Eine verkehrsrelevante Eigenschaft ist im Sinne der Anmeldung eine Eigenschaft eines Fahrzeugs, die die Verkehrssicherheit des Fahrzeugs reduzieren und damit verbunden eine Verkehrsgefährdung für das jeweilige Fahrzeug und weitere Verkehrsteilnehmer hervorrufen kann.
  • Nach einer Ausführungsform umfasst das Vergleichen: Anpassen und/oder Ausrichten der Bildaufnahme und der Referenzbildaufnahme durch Ausführen einer Ausrichtung von Merkmalspunkten der Bildaufnahme der Referenzbildaufnahme.
  • Hierdurch kann der technische Vorteil erreicht werden, dass ein präziser Vergleich der Bildaufnahmen der Umfeldsensordaten mit den jeweiligen Referenzbildaufnahmen und damit verbunden eine präzise Ermittlung der Abweichung und damit verbunden eine präzise Identifikation der Eigenschaften der überprüften Fahrzeuge bereitgestellt werden kann. Zum Vergleichen der Bildaufnahmen mit den jeweiligen Referenzbildaufnahmen werden diese basierend auf Ausrichtungen von Merkmalspunkten der Bildaufnahmen und der Referenzbildaufnahmen angepasst und aufeinander ausgerichtet. Hierdurch kann das Vergleichen der Bildaufnahmen mit den Referenzbildaufnahmen und das Ermitteln der jeweiligen Abweichungen zwischen den Aufnahmen präzisiert werden.
  • Nach einer Ausführungsform umfasst das Identifizieren der Eigenschaft:
    Klassifizieren der Eigenschaft als eine betriebsgefährdende Eigenschaft oder als eine nicht-betriebsgefährdende Eigenschaft.
  • Hierdurch kann der technische Vorteil erreicht werden, dass lediglich bei verkehrsrelevanten Eigenschaften die jeweiligen Verkehrsteuerungsfunktionen ausgeführt werden. Bei Abweichungen zwischen den Bildaufnahmen und den Referenzbildaufnahmen, die auf nicht-verkehrsrelevanten Eigenschaften basieren und durch die somit keine Verkehrsgefährdung zu befürchten ist, kann von der Ausführung der Verkehrsteuerungsfunktion hingegen abgesehen werden. Hierdurch kann eine präzise Steuerung der Verkehrssituation bewirkt werden.
  • Nach einer Ausführungsform werden das Vergleichen der Bildaufnahme mit der Referenzbildaufnahme, das Ermitteln der Abweichung, das Identifizieren der Eigenschaft und das Klassifizieren der Eigenschaft durch eine trainierte künstliche Intelligenz ausgeführt.
  • Hierdurch kann der technische Vorteil erreicht werden, dass eine präzise, verlässliche und schnelle Durchführung der genannten Funktionen bereitgestellt werden kann. Die trainierte künstliche Intelligenz kann insbesondere durch ein trainiertes künstliches neuronales Netz ausgestaltet sein.
  • Nach einer Ausführungsform werden das Vergleichen der Bildaufnahme mit der Referenzbildaufnahme, das Ermitteln der Abweichung, das Identifizieren der Eigenschaft und das Klassifizieren der Eigenschaft durch ein ausgebildetes Personal ausgeführt.
  • Hierdurch kann der technische Vorteil erreicht werden, dass insbesondere bei schwer zu erkennenden Abweichungen bzw. bei schwer zu klassifizierenden Eigenschaften eine präzise Ermittlung der verkehrsrelevanten Eigenschaften bereitgestellt werden kann. Insbesondere bei nicht eindeutig zu klassifizierenden Eigenschaften kann die Beurteilung durch geschultes Personal gegenüber einer automatischen Beurteilung vorteilhaft sein.
  • Alternativ kann auch eine Kombination der Ausführung durch die trainierte künstliche Intelligenz und durch geschultes Personal vorteilhaft sein. Hierzu kann beispielsweise eine Vorauswahl bzw. Vorbegutachtung durch die künstliche Intelligenz durchgeführt werden und eine Endklassifizierung bzw. Endidentifizierung der einzelnen Merkmale durch das geschulte Personal vorgenommen werden.
  • Nach einer Ausführungsform wird das Erkennen des weiteren Fahrzeugs in einer Fahrzeugerkennung durch eine trainierte künstliche Intelligenz ausgeführt.
  • Hierdurch kann der technische Vorteil erreicht werden, dass eine präzise Objekterkennung basierend auf den Bildaufnahmen der Umfeldsensordaten bereitgestellt werden kann. Die trainierte künstliche Intelligenz kann hierbei insbesondere als ein trainiertes künstliches neuronales Netz ausgebildet sein, das zu einer Objekterkennung trainiert ist.
  • Nach einer Ausführungsform wird das Verfahren durch eine Datenverarbeitungseinheit des Fahrzeugs und/oder durch eine externe Datenverarbeitungseinheit ausgeführt.
  • Hierdurch kann der technische Vorteil erreicht werden, dass eine möglichst präzise Steuerung der Verkehrssituation bereitgestellt werden kann. Das erfindungsgemäße Verfahren kann hierbei durch eine Datenverarbeitungseinheit innerhalb der Fahrzeuge und/oder durch eine externe Datenverarbeitungseinheit, die beispielsweise in einem Steuerzentrum des Schienenverkehrs betrieben wird, ausgeführt werden. Den jeweiligen Fahrern der Fahrzeuge, insbesondere der Schienenfahrzeuge, kann bei Ausführung des Verfahrens durch die in den Fahrzeugen ausgebildete Datenverarbeitungseinheiten unmittelbar die entsprechende Anweisung zur Steuerung der Verkehrssituation gegeben werden. Hierdurch können die jeweiligen Fahrer der Fahrzeuge unmittelbar auf die Verkehrsgefährdung reagieren. Durch die Ausführung des Verfahrens durch die externe Datenverarbeitungseinheit, beispielsweise in dem Steuerzentrum des Schienenverkehrs, kann somit eine globale Verkehrssituation gesteuert werden, die eine Mehrzahl verschiedener Fahrzeuge umfasst. Die jeweils in der Verkehrssituation betroffenen Fahrzeuge können somit zentral durch das Steuerzentrum benachrichtigt bzw. zur Ausführung der Verkehrsteuerungsfunktion angesteuert bzw. angetrieben werden.
  • Nach einer Ausführungsform umfasst die Umfeldsensoreinheit eine RGB-Kamera, eine Stereo-Kamera, ein LiDAR-System oder ein Radar-System.
  • Hierdurch kann der technische Vorteil erreicht werden, dass eine präzise Bestimmung der Eigenschaften der Fahrzeuge ermöglicht ist. Hierdurch kann insbesondere eine präzise Steuerung der Verkehrssituation erreicht werden.
  • Nach einem zweiten Aspekt der Erfindung wird ein Computerprogrammprodukt bereitgestellt, welches Befehle umfasst, die bei der Ausführung des Programms durch eine Recheneinheit diese veranlassen, das erfindungsgemäße Verfahren zum Steuern einer Verkehrssituation nach einer der vorhergehenden Ausführungsformen auszuführen.
  • Nach einem dritten Aspekt der Erfindung wird eine Datenverarbeitungseinheit bereitgestellt, die ausgebildet ist, das erfindungsgemäße Verfahren zum Steuern einer Verkehrssituation nach einer der voranstehenden Ausführungsformen auszuführen.
  • Nach einem vierten Aspekt der Erfindung wird ein System mit einer Datenverarbeitungseinheit bereitgestellt, die ausgebildet ist, das erfindungsgemäße Verfahren zum Steuern einer Verkehrssituation nach einer der voranstehenden Ausführungsformen auszuführen.
  • Die oben beschriebenen Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich durch die Erläuterungen der folgenden, stark vereinfachten, schematischen Darstellungen bevorzugter Ausführungsbeispiele. Hierbei zeigen in jeweils schematisierter Darstellung:
  • FIG 1
    eine graphische Darstellung eines Verfahrens zum Steuern einer Verkehrssituation gemäß einer Ausführungsform;
    FIG 2
    ein Ablaufdiagramm eines Verfahrens zum Steuern einer Verkehrssituation gemäß einer Ausführungsform; und
    FIG 3
    eine schematische Darstellung eines Computerprogrammprodukts.
  • FIG 1 zeigt eine graphische Darstellung eines Verfahrens zum Steuern einer Verkehrssituation gemäß einer Ausführungsform.
  • In der Ausführungsform in FIG 1 wird das Verfahren zum Steuern einer Verkehrssituation durch ein System 200 mit einer Datenverarbeitungseinheit 202 ausgeführt. In der gezeigten Ausführungsform umfasst das System 200 ein Fahrzeug 201, in dem die Datenverarbeitungseinheit 202 zum Ausführen des Verfahrens zum Steuern der Verkehrssituation ausgebildet ist.
  • In Fig.1 ist eine Verkehrssituation mit zwei Schienenfahrzeugen 201, 203 dargestellt, die jeweils auf nebeneinander angeordneten Schienenwegen 215 verfahren werden. Zur Steuerung der Verkehrssituation werden durch das Fahrzeug 201 Umfeldsensordaten einer Umfeldsensoreinheit 205 aufgenommen, über die das weitere Fahrzeug 203 detektiert werden kann. Über eine Objekterkennung, die in der gezeigten Ausführungsform durch eine künstliche Intelligenz 217, beispielsweise ein entsprechend trainiertes künstliches neuronales Netz, ausgeführt wird, wird das weitere Fahrzeug 203 basierend auf den Umfeldsensordaten des Umfeldsensors 205 erkannt. Zur Objekterkennung werden Bildaufnahmen 207 der Umfeldsensoreinheit 205 aufgenommen. Die Umfeldsensoreinheit kann hierbei beispielsweise eine RGB-Kamera, eine Stereokamera, ein LiDAR-System oder ein Radarsystem umfassen.
  • Zur Steuerung der Verkehrssituation werden darauffolgend Referenzbildaufnahmen 209 des jeweils identifizierten Fahrzeugs 203 ermittelt. Die Referenzbildaufnahmen 209 können hierzu beispielsweise in einer entsprechenden Datenbank hinterlegt sein. In der gezeigten Ausführungsform wird das Verfahren 100 zur Steuerung einer Verkehrssituation durch die Datenverarbeitungseinheit 202 innerhalb des Fahrzeugs 201 ausgeführt. Die entsprechen Referenzbildaufnahmen 209 können hierbei in einer entsprechenden Datenbank der Datenverarbeitungseinheit 202 gespeichert sein.
  • Alternativ hierzu kann das Verfahren zum Steuern einer Verkehrssituation durch eine externe Datenverarbeitungseinheit (in FIG 1 nicht dargestellt) ausgeführt werden, die beispielsweise innerhalb eines Steuerzentrums des Schienenverkehrs betrieben wird. Ein entsprechendes System 200 umfasst in einer derartigen Ausführungsform wenigstens das Steuerzentrum und die darin integrierte Datenverarbeitungseinheit. In einer derartigen Ausführungsform können die Referenzbildaufnahmen 209 in entsprechenden Datenbanken der externen Datenverarbeitungseinheit gespeichert sein.
  • Die Referenzbildaufnahmen 209 können für jedes Schienenfahrzeug, das innerhalb eines Verkehrsnetzes, das beispielsweise durch das jeweilige Steuerzentrum gesteuert wird, individuell angelegt sein und jeweils eine gewisse Perspektive des jeweiligen Schienenfahrzeugs darstellen.
  • In der gezeigten Ausführungsform ist die jeweilige Umfeldsensoreinheit 205 in einem Frontbereich oder in einem Heckbereich des Fahrzeugs 201 angeordnet. Die durch die Umfeldsensoreinheit 205 aufgenommenen Bildaufnahmen 207 zeigen hierdurch jeweils den Frontbereich oder Heckbereich des weiteren Fahrzeugs 203. Die hierzu ausgewählte Referenzbildaufnahme 209 zeigt in der gezeigten Ausführungsform die identische Perspektive des weiteren Fahrzeugs 203 und stellt damit ebenfalls den Front- oder Heckbereich des weiteren Fahrzeugs 203 dar.
  • Alternativ hierzu können die Umfeldsensoreinheiten 205 an beliebigen Stellen des Fahrzeugs 201 ausgebildet sein, sodass beliebige Perspektiven der jeweiligen weiteren Fahrzeuge 203 in den Bildaufnahmen 207 gezeigt sein können. Hierzu können in den entsprechenden Datenbanken für verschiedene Perspektiven eines Fahrzeugs verschiedene Referenzbildaufnahmen 209 dargestellt sein.
  • Alternativ oder zusätzlich hierzu kann zum Vergleich der Bildaufnahmen 207 mit den gespeicherten Referenzbildaufnahmen 209 eines Fahrzeugs 203 eine Anpassung bzw. eine Ausrichtung der aufgenommenen Bildaufnahmen 207 und der gespeicherten Referenzbildaufnahmen 209 durchgeführt werden. Hierzu können verschiedene Merkmalspunkte der Bildaufnahme 207 und der jeweiligen Referenzbildaufnahme 209 aufeinander ausgerichtet werden. Dies kann beispielsweise durch aus dem Stand der Technik bekannte Algorithmen, wie beispielsweise SIFT, SURF, ORB, FAST und andere ausgeführt werden.
  • Durch die Objekterkennung des weiteren Fahrzeugs 203 ist die Datenverarbeitungseinheit 202 in der Lage, die jeweils für das erkannte Fahrzeug 203 entsprechenden gespeicherten Referenzbildaufnahmen 209 auszuwählen.
  • Nach Auswahl der jeweils für das erkannte Fahrzeug 203 passenden Referenzbildaufnahmen 209 wird durch die Datenverarbeitungseinheit 202 ein Vergleich der basierend auf den Umfeldsensordaten des Umfeldsensors 205 erstellten Bildaufnahmen 207 mit den jeweils abgespeicherten Referenzbildaufnahmen 209 ausgeführt.
  • Basierend auf dem Vergleich der aufgenommenen Bildaufnahmen 207 mit den abgespeicherten Referenzbildaufnahmen 209 wird eine Abweichung 211 erkannt. Hierzu kann in der gezeigten Ausführungsform eine Vergleichsaufnahme 213 erstellt werden, in der jeweils die Abweichung 211 hervorgehoben ist.
  • In der gezeigten Ausführungsform ist die Abweichung 211 als eine in der linken unteren Ecke des Front- oder Heckbereichs des weiteren Fahrzeugs 203 angeordnete Beschädigung dargestellt. Die Beschädigung des weiteren Fahrzeugs 203 ist in den Referenzbildaufnahmen 209 nicht dargestellt, die das weitere Fahrzeug 203 in einem funktionsfähigen Zustand darstellen. Durch den Vergleich der aufgenommenen Bildaufnahmen 207 mit den jeweiligen Referenzbildaufnahmen 209 ist die Datenverarbeitungseinheit 202 somit in der Lage, die Beschädigung des weiteren Fahrzeugs 203 zu detektieren.
  • Darauffolgend wird die jeweils ermittelte Abweichung 211 als eine entsprechende Eigenschaft des weiteren Fahrzeugs 203, in der gezeigten Ausführungsform als eine Beschädigung des weiteren Fahrzeugs 203, identifiziert. Darauffolgend wird eine Klassifizierung der identifizierten Eigenschaft durchgeführt und die identifizierte Eigenschaft als verkehrsrelevant oder als nicht-verkehrsrelevant eingestuft. Verkehrsrelevante Eigenschaften sind hierbei Eigenschaften, die eine Verkehrstüchtigkeit des jeweiligen Fahrzeugs herabsetzen und eine entsprechende Verkehrssicherheit der Verkehrssituation gefährden können. In der gezeigten Ausführungsform, in der die jeweils ermittelte Eigenschaft als eine Beschädigung des weiteren Fahrzeugs 203 ausgebildet ist, wird die ermittelte Eigenschaft als verkehrsrelevant klassifiziert.
  • Darauffolgend kann die entsprechende Verkehrsteuerungsfunktion ausgeführt werden. In der gezeigten Ausführungsform kann hierzu beispielsweise eine Warnmeldung bzw. ein Warnsignal an den Fahrer des Fahrzeugs 201 bzw. an den Fahrer des weiteren Fahrzeugs 203 oder an das Steuerzentrum zum Steuern des Schienenverkehrs ausgegeben werden. Für den Fall, dass das erfindungsgemäße Verfahren 100 durch eine externe Datenverarbeitungseinheit, beispielsweise im Steuerzentrum, ausgeführt wird, kann darüber hinaus eine Geschwindigkeitsreduzierung des Fahrzeugs 201 bzw. des weiteren Fahrzeugs 203 und/oder ein Beenden der Fahrt des Fahrzeugs 201 bzw. des weiteren Fahrzeugs 203 durch das Aussenden entsprechender Aufforderungen an die jeweiligen Fahrer bzw. durch automatisches Steuern der Fahrzeuge 201, 203 bewirkt werden.
  • Die Ausführung der jeweiligen Verkehrsteuerungsfunktion bzw. die Auswahl der geeigneten Verkehrsteuerungsfunktion kann hierbei auf die Klassifikation der klassifizierten Eigenschaften des weiteren Fahrzeugs 203 abgestellt sein. Je nach Gefährdungspotential der erkannten Eigenschaften der Fahrzeuge können entsprechende situationsadäquate Verkehrsteuerungsfunktionen ausgewählt und ausgeführt werden.
  • Das erfindungsgemäße Verfahren zur Steuerung einer Verkehrssituation kann durch eine entsprechend trainierte künstliche Intelligenz 217, beispielsweise durch ein entsprechend trainiertes künstliches neuronales Netz, ausgeführt werden. Alternativ zu der gezeigten Ausführungsform können Bildaufnahmen 207 einer Mehrzahl von Umfeldsensoreinheiten 205 zur Ermittlung der Eigenschaften des weiteren Fahrzeugs 203 berücksichtigt werden.
  • In den dargestellten Bildaufnahmen ist beispielhaft zusätzlich eine als xyz dargestellt Identifikationsnummer des weiteren Fahrzeugs 203 erkennbar. Gemäß einer Ausführungsform kann diese Identifikationsnummer zusätzlich oder alternativ, beispielsweise zur Identifikation des weiteren Fahrzeugs 203 berücksichtigt werden.
  • Alternativ zu der gezeigten Ausführungsform können die beiden gezeigten Schienenfahrzeuge 201, 203 nacheinander auf dem gleichen Schienenweg 215 verfahren werden.
  • Alternativ zu der gezeigten Ausführungsform können die Fahrzeuge 201, 203 beispielsweise als autonom fahrende Kraftfahrzeuge ausgebildet sein.
  • Die dargestellten Fahrzeuge 201, 203 können autonom fahrende Schienenfahrzeuge sein, die fahrerlos betrieben werden, bzw. wenigstens teilweise autonom fahrende Fahrzeuge sein, die wenigstens teilweise von einem entsprechenden Fahrzeugführer gesteuert werden.
  • Die Datenkommunikation zwischen den Fahrzeugen 201, 203 und einer externen Datenverarbeitungseinheit kann insbesondere drahtlos ausgebildet sein. Die externe Datenverarbeitungseinheit kann beispielsweise in Form eines Cloud-Computers bzw. eines Cloud-Servers ausgebildet sein.
  • Die Ausführung des Verfahrens und insbesondere das Erkennen der Eigenschaft und das Klassifizieren der Eigenschaft als verkehrsrelevant bzw. nicht-verkehrsrelevant kann während des Betriebs der Fahrzeuge 201, 203 und unmittelbar nach Erkennen der jeweiligen Eigenschaft ausgeführt werden. Alternativ hierzu kann das Erkennen der Eigenschaft bzw. das Klassifizieren der Eigenschaft als verkehrsrelevant bzw. nicht-verkehrsrelevant zu einem zeitlich späteren Zeitpunkt als die Objekterkennung des weiteren Fahrzeugs 203 durch das Fahrzeug 201 ausgeführt werden.
  • FIG 2 zeigt ein Ablaufdiagramm des Verfahrens 100 zum Steuern einer Verkehrssituation gemäß einer Ausführungsform.
  • Zum Steuern einer Verkehrssituation wird zunächst in einem ersten Verfahrensschritt 101 ein weiteres Fahrzeug 203 basierend auf einer Bildaufnahme 207 wenigstens einer Umfeldsensoreinheit 205 eines Fahrzeugs 201 erkannt.
  • Darauffolgend wird in einem Verfahrensschritt 103 die Bildaufnahme 207 des weiteren Fahrzeugs 203 mit einer Referenzbildaufnahme 209 des weiteren Fahrzeugs 203 verglichen.
  • Zum Vergleichen der Bildaufnahme 207 mit der Referenzbildaufnahme 209 können die Bildaufnahme 207 und die Referenzbildaufnahme 209 in einem Verfahrensschritt 111 aufeinander angepasst bzw. ausgerichtet werden durch ein Ausführen einer Ausrichtung von Merkmalspunkten der Bildaufnahme 207 und der Referenzbildaufnahme 209.
  • Darauffolgend wird in einem Verfahrensschritt 105 wenigstens eine Abweichung 211 zwischen der Bildaufnahme 207 des weiteren Fahrzeugs 203 und der Referenzbildaufnahme 209 des weiteren Fahrzeugs 203 ermittelt.
  • In einem folgenden Verfahrensschritt 107 wird die ermittelte Abweichung 211 als eine Eigenschaft des weiteren Fahrzeugs 203 identifiziert. Hierzu kann in einem Verfahrensschritt 113 die Eigenschaft als eine verkehrsrelevante oder als eine nicht-verkehrsrelevante Eigenschaft klassifiziert werden.
  • In einem Verfahrensschritt 109 wird darauffolgend eine Verkehrsteuerungsfunktion ausgeführt für den Fall, dass die ermittelte Eigenschaft des weiteren Fahrzeugs 203 eine verkehrsrelevante Eigenschaft ist.
  • FIG 3 zeigt eine schematische Darstellung eines Computerprogrammprodukts 300.
  • Figur 3 zeigt ein Computerprogrammprodukt 300, umfassend Befehle, die bei der Ausführung des Programms durch eine Recheneinheit dieses veranlassen, das Verfahren nach einer der oben genannten Ausführungsformen auszuführen. Das Computerprogrammprodukt 300 ist in der gezeigten Ausführungsform auf einem Speichermedium 301 gespeichert. Das Speichermedium 301 kann hierbei ein beliebiges aus dem Stand der Technik bekanntes Speichermedium sein.
  • Obwohl die Erfindung im Detail durch das bevorzugte Ausführungsbeispiel näher illustriert und beschrieben wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen.

Claims (14)

  1. Verfahren (100) zum Steuern einer Verkehrssituation, umfassend:
    - Erkennen (101) eines weiteren Fahrzeugs (203) basierend auf wenigstens einer Bildaufnahme (207) wenigstens einer Umfeldsensoreinheit (205) eines Fahrzeugs (201);
    - Vergleichen (103) der Bildaufnahme (207) des weiteren Fahrzeugs (203) mit einer Referenzbildaufnahme (209) des weiteren Fahrzeugs (203);
    - Ermitteln (105) von wenigstens einer Abweichung (211) zwischen der Bildaufnahme (207) des weiteren Fahrzeugs (203) und der Referenzbildaufnahme (209) des weiteren Fahrzeugs (203);
    - Identifizieren (107) der Abweichung (211) als Eigenschaft des weiteren Fahrzeugs (203); und
    - Ausführen (109) einer Verkehrsteuerungsfunktion, wenn die Eigenschaft des weiteren Fahrzeugs (203) eine verkehrsrelevante Eigenschaft ist.
  2. Verfahren (100) nach Anspruch 1, wobei das Fahrzeug (201) und das weitere Fahrzeug (203) jeweils als Schienenfahrzeuge ausgebildet sind, und wobei das Schienenfahrzeug und das weitere Schienenfahrzeug auf einem Schienenweg (215) oder auf zwei nebeneinander angeordneten Schienenwegen (215) angeordnet sind.
  3. Verfahren (100) nach Anspruch 1 oder 2, wobei die Eigenschaft eine Beschädigung und/oder eine Verschmutzung und/oder ein Vorhandensein eines Fremdkörpers und/oder ein Fehlen einer Identifikationsnummer des weiteren Fahrzeugs (203) umfasst.
  4. Verfahren (100) nach einem der voranstehenden Ansprüche, wobei die Verkehrssteuerungsfunktion ein Ausgeben eines Warnsignals und/oder einer Warnmeldung an das Fahrzeug (201) und/oder das weitere Fahrzeug (203) und/oder ein Reduzieren einer Geschwindigkeit des Fahrzeugs (201) und/oder des weiteren Fahrzeugs (203) und/oder ein Beenden einer Fahrt des Fahrzeugs (201) und/oder des weiteren Fahrzeugs (203) umfasst.
  5. Verfahren (100) nach einem der voranstehenden Ansprüche, wobei das Vergleichen (103) umfasst:
    Anpassen (111) und/oder Ausrichten der Bildaufnahme (207) und der Referenzbildaufnahme (209) durch Ausführen einer Ausrichtung von Merkmalspunkten der Bildaufnahme (207) und der Referenzbildaufnahme (209).
  6. Verfahren (100) nach einem der voranstehenden Ansprüche, wobei das Identifizieren (107) der Eigenschaft umfasst: Klassifizieren (113) der Eigenschaft als eine verkehrsrelevante Eigenschaft oder als eine nicht-verkehrsrelevante Eigenschaft.
  7. Verfahren (100) nach einem der voranstehenden Ansprüche, wobei das Vergleichen (103) der Bildaufnahme (207) mit der Referenzbildaufnahme (209), das Ermitteln (105) der Abweichung (211), das Identifizieren (107) der Eigenschaft und das Klassifizieren (113) der Eigenschaft durch eine trainierte künstliche Intelligenz (217) ausgeführt wird.
  8. Verfahren (100) nach einem der voranstehenden Ansprüche, wobei das Vergleichen (103) der Bildaufnahme (207) mit der Referenzbildaufnahme (209), das Ermitteln (105) der Abweichung (211), das Identifizieren (107) der Eigenschaft und das Klassifizieren (113) der Eigenschaft durch ein ausgebildetes Personal ausgeführt wird.
  9. Verfahren (100) nach einem der voranstehenden Ansprüche, wobei das Erkennen (101) des weiteren Fahrzeugs (203) in einer Objekterkennung durch eine trainierte künstliche Intelligenz (217) ausgeführt wird.
  10. Verfahren (100) nach einem der voranstehenden Ansprüche, wobei das Verfahren (100) durch eine Datenverarbeitungseinheit (202) des Fahrzeugs (201) und/oder durch eine externe Datenverarbeitungseinheit ausgeführt wird.
  11. Verfahren (100) nach einem der voranstehenden Ansprüche, wobei die Umfeldsensoreinheit (205) eine RGB-Kamera, eine Stereo-Kamera, ein LiDAR-System oder ein Radar-System umfasst.
  12. Computerprogrammprodukt (300) umfassend Befehle, die bei der Ausführung des Programms durch eine Datenverarbeitungseinheit (202) diese veranlassen, das Verfahren (100) nach einem der vorhergehenden Ansprüche 1 bis 11 auszuführen.
  13. Datenverarbeitungseinheit (202), die ausgebildet ist, ein Verfahren (100) nach einem der Ansprüche 1 bis 11 auszuführen.
  14. System (200) mit einer Datenverarbeitungseinheit (202), die ausgebildet ist, ein Verfahren (100) nach einem der Ansprüche 1 bis 11 auszuführen.
EP21202312.1A 2021-01-13 2021-10-13 Verfahren zum steuern einer verkehrssituation Withdrawn EP4029757A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021200252.8A DE102021200252A1 (de) 2021-01-13 2021-01-13 Verfahren zum Steuern einer Verkehrssituation

Publications (1)

Publication Number Publication Date
EP4029757A1 true EP4029757A1 (de) 2022-07-20

Family

ID=78134890

Family Applications (1)

Application Number Title Priority Date Filing Date
EP21202312.1A Withdrawn EP4029757A1 (de) 2021-01-13 2021-10-13 Verfahren zum steuern einer verkehrssituation

Country Status (2)

Country Link
EP (1) EP4029757A1 (de)
DE (1) DE102021200252A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006029844B3 (de) * 2006-06-27 2007-10-25 Deutsches Zentrum für Luft- und Raumfahrt e.V. Vorrichtung und Verfahren zur fahrzeugseitigen Überwachung eines schienengebundenen Fahrzeugsverbandes
WO2019092248A1 (de) * 2017-11-10 2019-05-16 Db Fernverkehr Ag Analyseverfahren und analysesystem für mit einem inspektionssystem zur optischen inspektion eines fahrzeugs aufgenommene rohdaten
EP3647153A1 (de) * 2018-11-01 2020-05-06 Hitachi Rail Ltd. Zugkupplungsunterstützungssystem

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014219691A1 (de) 2014-09-29 2016-01-21 Siemens Aktiengesellschaft Verfahren zur Überwachung einer Umgebung einer Schienenfahrbahn und Überwachungssystem

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006029844B3 (de) * 2006-06-27 2007-10-25 Deutsches Zentrum für Luft- und Raumfahrt e.V. Vorrichtung und Verfahren zur fahrzeugseitigen Überwachung eines schienengebundenen Fahrzeugsverbandes
WO2019092248A1 (de) * 2017-11-10 2019-05-16 Db Fernverkehr Ag Analyseverfahren und analysesystem für mit einem inspektionssystem zur optischen inspektion eines fahrzeugs aufgenommene rohdaten
EP3647153A1 (de) * 2018-11-01 2020-05-06 Hitachi Rail Ltd. Zugkupplungsunterstützungssystem

Also Published As

Publication number Publication date
DE102021200252A1 (de) 2022-07-14

Similar Documents

Publication Publication Date Title
DE102015206144B4 (de) Verfahren und Vorrichtung zum sicheren Abstellen eines Fahrzeuges
EP3271231B1 (de) Verfahren und vorrichtung zum überwachen einer von einem fahrzeug abzufahrenden soll-trajektorie auf kollisionsfreiheit
EP2464992B1 (de) Kollisionsüberwachung für ein kraftfahrzeug
DE112017006397B4 (de) System für ein Fahrzeug
DE102016115371A1 (de) Verfahren und vorrichtung zur meidung von rückwärtigem querverkehr
WO2020200792A1 (de) Verfahren zur überprüfung eines umfelderfassungssensors eines fahrzeugs und verfahren zum betrieb eines fahrzeugs
EP3373268A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems für ein fahrzeug auf einer strasse und fahrerassistenzsystem
DE102018127059A1 (de) Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs
DE102018203063A1 (de) Kollisionsrisiko-Vorhersageeinheit
AT523834B1 (de) Verfahren und System zum Testen eines Fahrerassistenzsystems
DE102019105739A1 (de) Verfahren zum zumindest teilautomatisierten Führen eines Kraftfahrzeugs
DE102020113611A1 (de) Verfahren und Sicherheitssystem zum Absichern einer automatisierten Fahrzeugfunktion und Kraftfahrzeug
EP3968213A1 (de) Verfahren und vorrichtung zum ermitteln eines gleisgebundenen schienenpfades in einer gleisanlage
EP1422111B1 (de) Verfahren und Vorrichtung zur Vorhersage des Fahrzeugverhaltens, sowie diesbezügliches Computer-Programm-Produkt
DE102019129904A1 (de) Automatische Fahrkompetenzanalyse
DE102019205957A1 (de) Verfahren zum kontrollierten Befahren einer Gegenfahrbahn
EP4029757A1 (de) Verfahren zum steuern einer verkehrssituation
EP2942253B1 (de) Kraftfahrzeug
DE102017211044A1 (de) Fahrerassistenzsystem zur Kollisionswarnung durch Radwinkelbestimmung benachbarter Fahrzeuge
DE102019104973A1 (de) Verfahren sowie Steuergerät für ein System zum Steuern eines Kraftfahrzeugs
DE102020207990B4 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems und Fahrerassistenzsystem
WO2023202751A1 (de) Verfahren zur prüfung der verletzung einer grenze eines befahrbaren bereichs durch ein fahrzeug und fahrerassistenzsystem
DE102021101363A1 (de) Bildbasiertes Verfahren zum Vereinfachen einer fahrzeugexternen Kontrollübernahme über ein Kraftfahrzeug, Assistenzeinrichtung und Kraftfahrzeug
DE102022204086A1 (de) Verfahren zur Ermittlung einer dynamischen Fremdobjekt-Fahrkorridor-Assoziation
EP4086773A1 (de) Computerimplementiertes verfahren zum automatischen bereitstellen eines hinweises für testprozesse

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN PUBLISHED

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20230121