DE102019206147A1 - Method for capturing image material for checking image evaluation systems, device and vehicle for use in the method, as well as computer program - Google Patents

Method for capturing image material for checking image evaluation systems, device and vehicle for use in the method, as well as computer program Download PDF

Info

Publication number
DE102019206147A1
DE102019206147A1 DE102019206147.8A DE102019206147A DE102019206147A1 DE 102019206147 A1 DE102019206147 A1 DE 102019206147A1 DE 102019206147 A DE102019206147 A DE 102019206147A DE 102019206147 A1 DE102019206147 A1 DE 102019206147A1
Authority
DE
Germany
Prior art keywords
image
images
vehicle
archived
image parts
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019206147.8A
Other languages
German (de)
Inventor
Sebastian Ehmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102019206147.8A priority Critical patent/DE102019206147A1/en
Priority to PCT/EP2020/060208 priority patent/WO2020221575A1/en
Priority to EP20720756.4A priority patent/EP3963504A1/en
Priority to CN202080042025.1A priority patent/CN113924605A/en
Priority to US17/594,748 priority patent/US20230145472A1/en
Publication of DE102019206147A1 publication Critical patent/DE102019206147A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs

Abstract

Der Vorschlag betrifft ein Verfahren zur Erfassung von Bildmaterial zur Überprüfung von bildauswertenden Systemen, wobei überprüft wird, ob eine Objekterkennung von dem bildauswertenden System zeitlich oder örtlich richtig erfolgte. Solche Bildauswertungssysteme werden bspw. in Fahrzeugen (10) eingesetzt. Der Vorschlag betrifft weiterhin die Maßnahme, dass bei Erkennung einer Abweichung bei der Objekterkennung jenseits einer Toleranzgrenze ermittelt wird, welche Bilder oder Bildteile (17) zur genaueren Überprüfung archiviert werden sollen, und die Archivierung dieser ermittelten Bilder oder Bildteile (17) durchgeführt wird. Dies kann durch Weitersenden der zu archivierenden Bilder oder Bildteile (17) an einen Backend-Server (320) geschehen. Die archivierten Bilder werden nachträglich überprüft und die Ergebnisse können zur Verbesserung der Bilderkennungssysteme eingesetzt werden.The proposal relates to a method for capturing image material for checking image evaluation systems, a check being made to determine whether an object was recognized by the image evaluation system correctly in terms of time or location. Such image evaluation systems are used, for example, in vehicles (10). The proposal also relates to the measure that, when a discrepancy in object recognition beyond a tolerance limit is detected, it is determined which images or image parts (17) are to be archived for more precise checking, and these images or image parts (17) are archived. This can be done by forwarding the images or image parts (17) to be archived to a backend server (320). The archived images are subsequently checked and the results can be used to improve the image recognition systems.

Description

Der Vorschlag betrifft das technische Gebiet von Fahrerassistenzsystemen bis hin zu autonom fahrenden Fahrzeugen. Der Vorschlag betrifft insbesondere ein Verfahren zur Erfassung von Bildmaterial zur Überprüfung von bildauswertenden Systemen. Ebenso betrifft der Vorschlag eine Vorrichtung und ein Fahrzeug zur Verwendung bei dem Verfahren sowie ein Computerprogramm.The proposal concerns the technical field from driver assistance systems to autonomous vehicles. The proposal relates in particular to a method for capturing image material for checking image evaluation systems. The proposal also relates to a device and a vehicle for use in the method as well as a computer program.

Zur Zeit wird intensiv an Technologien gearbeitet, die später ein autonomes Fahren ermöglichen sollen. Ein erster Ansatz ist dabei die Einführung von verschiedenen Fahrerassistenzsystemen, die dem Fahrer bestimmte Aufgaben abnehmen. Beispiele von Fahrerassistenzsystemen sind ein Totwinkelwarnassistent, ein Notbremsassistent, ein Einparkassistent, ein Abbiegeassistent, ein Spurhalteassistent, ein Geschwindigkeitsregelassistent usw. Eine weitere Stufe der Entwicklung kann darin bestehen, mehrere Assistenzsysteme zusammen zu fassen. Dabei wird der Fahrer nicht komplett von seinen Aufgaben entlastet, sondern es wird dafür Sorge getragen, dass der Fahrer jederzeit die Steuerung des Fahrzeuges übernehmen kann. Der Fahrer nimmt dann außerdem Überwachungsfunktionen wahr.At the moment, intensive work is being done on technologies that will later enable autonomous driving. A first approach is the introduction of various driver assistance systems that relieve the driver of certain tasks. Examples of driver assistance systems are a blind spot warning assistant, an emergency braking assistant, a parking assistant, a turning assistant, a lane departure warning assistant, a cruise control assistant, etc. A further stage of the development can consist in combining several assistance systems. The driver is not completely relieved of his tasks, but it is ensured that the driver can take control of the vehicle at any time. The driver then also performs monitoring functions.

Für die nahe Zukunft ist deshalb davon auszugehen, dass systemseitig durch den Einsatz neuerer Technologien (Fahrzeug-zu-Fahrzeug-Kommunikation, Einsatz von Datenbanken, Backend-Anbindung, Cloud-Dienste, Server-Einsatz, Fahrzeugsensorik, etc.) umfassende Informationen über Objekte (insb. Fahrzeuge) im sichtbaren und verdeckten/nicht sichtbaren Umfeld des eigenen Fahrzeugs verfügbar sein werden. Im Bereich Fahrzeugsensorik werden insbesondere die folgenden Komponenten genannt, die eine Umfeldbeobachtung ermöglichen: RADAR-Geräte entsprechend Radio Detection and Ranging, LIDAR-Geräte, entsprechend Light Detection and Ranging, hauptsächlich für den Bereich Abstandserfassung/-warnung, und Kameras mit entsprechender Bildverarbeitung für den Bereich der Objekterkennung. Diese Daten über die Umwelt können somit als Basis für systemseitige Fahrempfehlungen, Warnungen etc. herangezogen werden. Beispielsweise sind so Anzeigen/Warnungen darüber denkbar, in welche Richtung (möglicherweise in die eigene Trajektorie) ein anderes, umgebendes Fahrzeug abbiegen will. Insbesondere auch die Verkehrszeichenerkennung wird als Anwendungsfall erwähnt, um den Fahrer auf rechtliche Rahmenbedingungen hinzuweisen.For the near future, it can therefore be assumed that the system will provide comprehensive information about objects through the use of newer technologies (vehicle-to-vehicle communication, use of databases, backend connection, cloud services, server use, vehicle sensors, etc.) (especially vehicles) will be available in the visible and concealed / invisible surroundings of the own vehicle. In the field of vehicle sensors, the following components are mentioned in particular that enable environmental monitoring: RADAR devices corresponding to radio detection and ranging, LIDAR devices corresponding to light detection and ranging, mainly for distance detection / warning, and cameras with corresponding image processing for the Object recognition area. This data about the environment can thus be used as a basis for system-based driving recommendations, warnings, etc. For example, displays / warnings are conceivable about the direction in which (possibly into its own trajectory) another, surrounding vehicle wants to turn. In particular, traffic sign recognition is also mentioned as an application to inform the driver of the legal framework.

Die Fahrzeug-zu-Fahrzeug-Kommunikation ist mittlerweile auch mittels Mobilfunkkommunikation mit Systemen wie LTE entsprechend Long Term Evolution oder 5G möglich. Als Alternative stehen auf WLAN-Technologie beruhende Systeme für die Fahrzeug-Direktkommunikation zur Verfügung, insbesondere das System nach WLAN p. Solche Systeme sind relevant für das Gebiet des „autonomen Fahrens“. Der Begriff „autonomes Fahren“ wird in der Literatur teilweise unterschiedlich benutzt.Vehicle-to-vehicle communication is now also possible using cellular communication with systems such as LTE in accordance with Long Term Evolution or 5G. As an alternative, systems based on WLAN technology are available for direct vehicle communication, in particular the system based on WLAN p. Such systems are relevant for the field of "autonomous driving". The term “autonomous driving” is sometimes used differently in the literature.

Zur Klärung dieses Begriffs wird deshalb hier noch folgender Einschub präsentiert. Unter autonomem Fahren (manchmal auch automatisches Fahren, automatisiertes Fahren oder pilotiertes Fahren genannt) ist die Fortbewegung von Fahrzeugen, mobilen Robotern und fahrerlosen Transportsystemen zu verstehen, die sich weitgehend autonom verhalten. Es gibt verschiedene Abstufungen des Begriffs autonomes Fahren. Dabei wird auf bestimmten Stufen auch dann von autonomen Fahren gesprochen, wenn noch ein Fahrer im Fahrzeug befindlich ist, der ggfs. nur noch die Überwachung des automatischen Fahrvorgangs übernimmt. In Europa haben die verschiedenen Verkehrsministerien (in Deutschland war die Bundesanstalt für Straßenwesen beteiligt) zusammengearbeitet und die folgenden Autonomiestufen definiert.

  • • Level 0: „Driver only“, der Fahrer fährt selbst, lenkt, gibt Gas, bremst etc.
  • • Level 1: Bestimmte Assistenzsysteme helfen bei der Fahrzeugbedienung (u.a. ein Abstandsregelsystem - Automatic Cruise Control ACC).
  • • Level 2: Teilautomatisierung. U.a. automatisches Einparken, Spurhaltefunktion, allgemeine Längsführung, Beschleunigen, Abbremsen etc. werden von den Assistenzsystemen übernommen (u.a. Stauassistent).
  • • Level 3: Hochautomatisierung. Der Fahrer muss das System nicht dauernd überwachen. Das Fahrzeug führt selbstständig Funktionen wie das Auslösen des Blinkers, Spurwechsel und Spurhalten durch. Der Fahrer kann sich anderen Dingen zuwenden, wird aber bei Bedarf innerhalb einer Vorwarnzeit vom System aufgefordert, die Führung zu übernehmen. Diese Form der Autonomie ist auf Autobahnen technisch machbar. Der Gesetzgeber arbeitet darauf hin, Level 3-Fahrzeuge zuzulassen. Die gesetzlichen Rahmenbedingungen wurden dafür bereits geschaffen.
  • • Level 4: Vollautomatisierung. Die Führung des Fahrzeugs wird dauerhaft vom System übernommen. Werden die Fahraufgaben vom System nicht mehr bewältigt, kann der Fahrer aufgefordert werden, die Führung zu übernehmen.
  • • Level 5: Kein Fahrer erforderlich. Außer dem Festlegen des Ziels und dem Starten des Systems ist kein menschliches Eingreifen erforderlich.
To clarify this term, the following insert is presented here. Autonomous driving (sometimes also called automatic driving, automated driving or piloted driving) means the locomotion of vehicles, mobile robots and driverless transport systems that are largely autonomous. There are different grades of the term autonomous driving. At certain levels, autonomous driving is also used when there is still a driver in the vehicle who may only be responsible for monitoring the automatic driving process. In Europe the various transport ministries (in Germany the Federal Highway Research Institute was involved) worked together and defined the following levels of autonomy.
  • • Level 0: "Driver only", the driver drives himself, steers, accelerates, brakes etc.
  • • Level 1: Certain assistance systems help to operate the vehicle (including a distance control system - Automatic Cruise Control ACC).
  • • Level 2: partial automation. Automatic parking, lane keeping function, general longitudinal guidance, acceleration, braking, etc. are taken over by the assistance systems (including traffic jam assistant).
  • • Level 3: high automation. The driver does not have to constantly monitor the system. The vehicle independently performs functions such as activating the indicator, changing lanes and keeping in lane. The driver can do other things, but if necessary, the system prompts them to take the lead within a warning period. This form of autonomy is technically feasible on motorways. Legislators are working to allow Level 3 vehicles. The legal framework for this has already been created.
  • • Level 4: full automation. The system is permanently in charge of the vehicle. If the system can no longer handle the driving tasks, the driver can be asked to take the lead.
  • • Level 5: No driver required. No human intervention is required other than setting the destination and starting the system.

Automatisierte Fahrfunktionen ab Stufe 3 nehmen dem Fahrer die Verantwortung für die Steuerung des Fahrzeugs ab. Vom VDA wurde eine ähnliche Einteilung der verschiedenen Autonomiestufen herausgegeben, die ebenfalls benutzt werden kann.Automated driving functions from level 3 relieve the driver of the responsibility for controlling the vehicle. The VDA issued a similar classification of the various levels of autonomy, which can also be used.

Aufgrund der derzeitigen Entwicklung hin zu höheren Autonomiestufen, wo aber viele Fahrzeuge nach wie vor noch vom Fahrer gesteuert werden, ist davon auszugehen, dass entsprechende zusätzliche Informationen mittelfristig bereits für manuell geführte Fahrzeuge und nicht erst langfristig für hochautomatisierte Systeme genutzt werden können.Due to the current development towards higher levels of autonomy, where many vehicles are still controlled by the driver, it can be assumed that corresponding additional information can be used for manually operated vehicles in the medium term and not only in the long term for highly automated systems.

Für die Fahrer-Fahrzeug-Interaktion stellt sich hierbei die Frage, wie diese Informationen so dargestellt werden können, dass ein echter Mehrwert für den menschlichen Fahrer entsteht und er die bereitgestellten Informationen auch schnell, respektive intuitiv, verorten kann. Folgende Lösungen in diesem Bereich sind dabei schon aus dem Stand der Technik bekannt.For the driver-vehicle interaction, the question arises as to how this information can be presented in such a way that real added value is created for the human driver and he can also locate the information provided quickly, or intuitively. The following solutions in this area are already known from the prior art.

Eine Zukunftsvision in der Automobilbranche ist es, die Windschutzscheibe des eigenen Fahrzeugs mit virtuellen Elementen bespielen zu können, um dem Fahrer einige Vorteile zu ermöglichen. Genutzt wird die sogenannte „Augmented Reality“-Technologie (AR) oder „Mixed Reality“ (MR)-Technologie. Weniger geläufig ist der entsprechende deutschsprachige Begriff der „erweiterten Realität“ bzw. „gemischten Realität“. Dabei wird die reale Umgebung mit virtuellen Elementen angereichert. Das hat mehrere Vorteile: Der Blick nach unten, auf andere Displays als der Windschutzscheibe, entfällt, da viele relevante Informationen beim Blick durch die Windschutzscheibe erscheinen. So muss der Fahrer seinen Blick nicht von der Fahrbahn abwenden. Außerdem ist durch die positionsgenaue Verortung der virtuellen Elemente in der realen Umwelt ein geringerer kognitiver Aufwand seitens des Fahrers wahrscheinlich, da keine Interpretation einer Grafik auf einem gesonderten Display erfolgen muss. Hinsichtlich des automatischen Fahrens kann ebenfalls ein Mehrwert erzeugt werden. Diesbezüglich wird auf den Artikel „3D-FRC: Depiction of the future road course in the Head-Up-Display“ von C.A. Wiesner, M. Ruf D. Sirim und G. Klinker in 2017 IEEE International Symposium on Mixed and Augmented Reality hingewiesen, in dem diese Vorteile genauer erläutert werden.A vision of the future in the automotive industry is to be able to display virtual elements on the windshield of one's own vehicle in order to provide the driver with a number of advantages. The so-called "Augmented Reality" technology (AR) or "Mixed Reality" (MR) technology is used. The corresponding German-language term “augmented reality” or “mixed reality” is less common. The real environment is enriched with virtual elements. This has several advantages: There is no need to look down at displays other than the windshield, as a lot of relevant information appears when looking through the windshield. The driver does not have to take his eyes off the road. In addition, the precise positioning of the virtual elements in the real environment means that less cognitive effort is likely on the part of the driver, since no graphic has to be interpreted on a separate display. With regard to automatic driving, added value can also be generated. In this regard, see the article "3D-FRC: Depiction of the future road course in the Head-Up-Display" by C.A. Wiesner, M. Ruf D. Sirim and G. Klinker in the 2017 IEEE International Symposium on Mixed and Augmented Reality, in which these advantages are explained in more detail.

Da die technologischen Mittel heutzutage entsprechend begrenzt sind, kann davon ausgegangen werden, dass mittelfristig keine voll bespielbaren Windschutzscheiben in Fahrzeugen anzutreffen sein werden. Zurzeit werden Head-Up Displays in den Fahrzeugen eingesetzt. Diese haben auch den Vorteil, dass das Bild des HUD näher an der realen Umwelt erscheint. Bei diesen Displays handelt es sich eigentlich um Projektionseinheiten, die ein Bild auf die Windschutzscheibe projizieren. Dieses Bild befindet sich jedoch aus der Sicht des Fahrers je nach Bauart des Moduls wenige Meter bis 15 Meter vor dem Fahrzeug.Since the technological resources are correspondingly limited nowadays, it can be assumed that in the medium term there will be no fully playable windshields in vehicles. Head-up displays are currently being used in vehicles. These also have the advantage that the image of the HUD appears closer to the real environment. These displays are actually projection units that project an image onto the windshield. However, from the driver's point of view, this image is a few meters to 15 meters in front of the vehicle, depending on the type of module.

Das „Bild“ setzt sich dabei folgendermaßen zusammen: Es handelt sich dabei weniger um ein virtuelles Display, sondern eher um eine Art „Schlüsselloch“ in die virtuelle Welt. Die virtuelle Umgebung wird theoretisch über die reale Welt gelegt und enthält die virtuellen Objekte, die den Fahrer bei der Fahrt unterstützen und informieren. Die begrenzte Anzeigefläche des HUD hat zur Folge, dass davon nur ein Ausschnitt gesehen werden kann. Man schaut also durch die Anzeigefläche des HUD auf den Ausschnitt der virtuellen Welt. Da diese virtuelle Umgebung die reale Umgebung ergänzt, spricht man in diesem Fall auch von einer „Mixed Reality“.The “picture” is composed as follows: It is less a virtual display, but rather a kind of “keyhole” into the virtual world. The virtual environment is theoretically superimposed on the real world and contains the virtual objects that support and inform the driver while driving. The limited display area of the HUD means that only a section of it can be seen. So you look through the display area of the HUD at the section of the virtual world. Since this virtual environment supplements the real environment, one speaks in this case of a "mixed reality".

Ein großer Vorteil der bisher bekannten „Augmented Reality“-Anzeigen (AR-Anzeigen) besteht darin, die entsprechenden Anzeigen direkt innerhalb bzw. als Teil der Umwelt darzustellen. Relativ naheliegende Beispiele beziehen sich meist auf den Bereich der Navigation. Während klassische Navigationsanzeigen (in herkömmlichen HUD) in der Regel schematische Darstellungen anzeigen (z.B. einen rechtwinklig verlaufenden Pfeil nach rechts als Zeichen dafür, dass bei nächster Gelegenheit rechts abgebogen werden soll, bieten AR-Anzeigen wesentlich effektivere Möglichkeiten. Da die Anzeigen als „Teil der Umwelt“ dargestellt werden können, sind äußerst schnelle und intuitive Interpretationen für den Nutzer möglich.A great advantage of the previously known "Augmented Reality" displays (AR displays) is that the corresponding displays can be displayed directly within or as part of the environment. Relatively obvious examples mostly relate to the area of navigation. While classic navigation displays (in conventional HUDs) usually show schematic representations (e.g. a right-angled arrow pointing to the right as a sign that you should turn right at the next opportunity, AR displays offer much more effective possibilities Environment ”, extremely fast and intuitive interpretations for the user are possible.

Bei Bilderfassungssystemen mit Bildauswertung im Sinne einer Objekterkennung ist es wichtig, die korrekte Funktion der Bilderfassung und Bildauswertung im laufenden Betrieb zu überprüfen. Dies kann in einer Testphase oder auch im Normalbetrieb erfolgen.In image acquisition systems with image evaluation in the sense of object recognition, it is important to check the correct functioning of the image acquisition and image evaluation during operation. This can be done in a test phase or in normal operation.

Aus der US 2016/0170414 A1 ist ein Fahrzeug-basiertes System zur Verkehrszeichenerkennung bekannt. Dabei werden Umgebungssensoren wie LIDAR-Sensor, RADAR-Sensor und Kamera eingesetzt. Auch die Position des Fahrzeuges wird über GPS erfasst. Die erkannten Verkehrszeichen werden mit ihrer Position nach extern berichtet und dort in einer Datenbank eingetragen.From the US 2016/0170414 A1 a vehicle-based system for recognizing traffic signs is known. Environmental sensors such as LIDAR sensors, RADAR sensors and cameras are used. The position of the vehicle is also recorded via GPS. The recognized traffic signs are reported externally with their position and entered there in a database.

Aus der US 2017/0069206 A1 ist ein Fahrzeug-basiertes System zur Überprüfung von Verkehrszeichenerkennungen bekannt. Dabei werden ebenfalls Umgebungssensoren wie LIDAR-Sensor, RADAR-Sensor und Kamera eingesetzt. Ebenfalls werden die erkannten Verkehrszeichen mit ihrer Position nach extern berichtet und dort in einer Datenbank eingetragen. Um Fehlerkennungen zu entlarven, werden verschiedene Überprüfungsmaßnahmen vorgeschlagen, darunter manuelle Sichtprüfungen durch Fachpersonal, Sichtprüfungen durch „Crowdsourcing“, Computer-gestützte Analyse und statistische Analyse.From the US 2017/0069206 A1 a vehicle-based system for checking traffic sign recognition is known. Environmental sensors such as LIDAR sensors, RADAR sensors and cameras are also used. The recognized traffic signs and their position are also reported externally and entered there in a database. In order to expose false identifications, various Verification measures proposed, including manual visual inspections by skilled personnel, visual inspections by “crowdsourcing”, computer-aided analysis and statistical analysis.

Aus der US 2018/0260639 A1 ist ein Fahrzeug-basiertes System und ein Verfahren zur Verkehrszeichenerkennung bekannt. Die erkannten Verkehrszeichen werden mit ihrer Position in einer Bildverarbeitungseinheit abgespeichert.From the US 2018/0260639 A1 a vehicle-based system and a method for recognizing traffic signs are known. The recognized traffic signs are stored with their position in an image processing unit.

Die bekannten Lösungen sind mit verschiedenen Nachteilen behaftet. Dies wurde im Rahmen der Erfindung erkannt. Bei den heute bekannten Bilderfassungsverfahren für den Einsatz im Fahrerassistenzbereich besteht das Problem, dass deren korrekte Funktion im laufenden Betrieb nicht oder nur unzureichend überprüft werden. Fehlerkennungen oder sogar Fehlklassifizierungen von Objekten sind daher möglich.The known solutions have various disadvantages. This was recognized within the scope of the invention. With the image acquisition methods known today for use in the driver assistance area, there is the problem that their correct functioning is not or only insufficiently checked during operation. Incorrect identifications or even incorrect classifications of objects are therefore possible.

Es besteht also der Bedarf für weitere Verbesserungen bei der Überprüfung von Fahrzeugbasierten Bilderfassungssystemen, insbesondere für Überprüfungsverfahren, die eine nachträgliche Überprüfung bei Fehlerkennungen ermöglichen.There is therefore a need for further improvements in the checking of vehicle-based image acquisition systems, in particular for checking methods that enable a subsequent check in the event of incorrect detection.

Die Erfindung setzt sich zur Aufgabe, einen solchen Ansatz zu finden. Dabei soll auch der Aufwand für die Archivierung der Bilddaten als Voraussetzung für die nachträgliche Überprüfung gering gehalten werden. Diese Aufgabe wird durch ein Verfahren zur Erfassung von Bildmaterial zur Überprüfung von bildauswertenden Systemen gemäß Anspruch 1, eine Vorrichtung und ein Fahrzeug zur Verwendung bei dem Verfahren nach den Ansprüchen 9 und 14 sowie ein Computerprogramm gemäß Anspruch 15 gelöst.The object of the invention is to find such an approach. The effort for archiving the image data as a prerequisite for subsequent checking should also be kept low. This object is achieved by a method for capturing image material for checking image evaluation systems according to claim 1, a device and a vehicle for use in the method according to claims 9 and 14 and a computer program according to claim 15.

Die abhängigen Ansprüche beinhalten vorteilhafte Weiterbildungen und Verbesserungen der Erfindung entsprechend der nachfolgenden Beschreibung dieser Maßnahmen.The dependent claims contain advantageous developments and improvements of the invention according to the following description of these measures.

Wie bei dem Ansatz von US 2018/0260639 A1 werden die Bilddaten zur Überprüfung von Fehlerkennungen abgespeichert. Allerdings werden die Bilddaten in einer fahrzeugseitigen Vorrichtung abgespeichert.As with the US 2018/0260639 A1 the image data are stored for checking incorrect identifications. However, the image data are stored in a device on the vehicle.

Gemäß des Vorschlages wird in einem Verfahren zur Erfassung von Bildmaterial zur Überprüfung von bildauswertenden Systemen überprüft, ob eine Objekterkennung von dem bildauswertenden System zeitlich oder örtlich richtig erfolgte. Wenn ja, brauchen keine Bilddaten zur nachträglichen Analyse zurückbehalten werden. Wenn allerdings Abweichungen bei der zeitlichen oder örtlichen Analyse erkannt wurden, die jenseits einer Toleranzgrenze liegen, wird in einem Schritt ermittelt, welche Bilder oder Bildteile zur genaueren Überprüfung archiviert werden sollen, und es erfolgt die Archivierung dieser ermittelten Bilder oder Bildteile. Das Verfahren bietet den Vorteil, dass ein Bildauswertesystem, das sicherheitsrelevante Daten liefert, im laufenden Betrieb überprüft werden kann, wobei der Speicheraufwand für die Überprüfung gering ist. Besonders vorteilhaft kann das Verfahren zum Testen der Bildauswertesysteme, die sich noch im Entwicklungsstadium befinden, eingesetzt werden. Das Verfahren kann aber auch in Serienprodukten vorteilhaft eingesetzt werden. Das ist vorteilhaft, um nachträgliche Verbesserungen an dem verbauten Bildauswertesystem vornehmen zu können.According to the proposal, a method for capturing image material for checking image evaluating systems is used to check whether an object was recognized by the image evaluating system correctly in terms of time or location. If so, there is no need to retain any image data for subsequent analysis. If, however, deviations in the temporal or spatial analysis have been recognized that are beyond a tolerance limit, it is determined in one step which images or image parts are to be archived for more precise checking, and these images or image parts are archived. The method offers the advantage that an image evaluation system that supplies safety-relevant data can be checked during operation, the memory expenditure for the check being low. The method can be used particularly advantageously for testing the image evaluation systems that are still in the development stage. However, the process can also be used advantageously in series products. This is advantageous in order to be able to make subsequent improvements to the built-in image evaluation system.

In einer vorteilhaften Variante wird zur Bildauswertung ein Objekterkennungsalgorithmus eingesetzt und es wird eine Überprüfung durchgeführt, ob eine Objekterkennung richtig erfolgte. Für diese Überprüfung wird eine Normerkennungsdistanz festgelegt. Die Normerkennungsdistanz gibt an, ab welcher Distanz der Objekterkennungsalgorithmus die Objekterkennung liefern sollte, d.h. bei dieser Normerkennungsdistanz sollte das Bildauswertesystem das betreffende Objekt erkennen. Es wird dann ermittelt, bei welcher Distanz zu dem erkannten Objekt die Objekterkennung tatsächlich erfolgte. Wenn diese Distanz von der Normerkennungsdistanz abweicht, werden die Bilder oder Bildteile, die von der Normerkennungsdistanz bis zur tatsächlichen Objekterkennungsdistanz aufgenommen wurden, zur genaueren Überprüfung archiviert.In an advantageous variant, an object recognition algorithm is used for image evaluation and a check is carried out to determine whether an object was recognized correctly. A standard recognition distance is specified for this check. The standard recognition distance indicates the distance from which the object recognition algorithm should deliver the object recognition, i.e. at this standard recognition distance, the image evaluation system should recognize the object in question. It is then determined at what distance to the recognized object the object recognition actually took place. If this distance deviates from the standard recognition distance, the images or image parts that were recorded from the standard recognition distance to the actual object recognition distance are archived for more detailed checking.

Der Vorschlag kann besonders vorteilhaft für den Test von Bildauswertesystemen bei Fahrzeugen eingesetzt werden. Diese sind mittlerweile mit bildgebenden Umgebungserfassungssensoren wie Kamera, LIDAR- oder RADAR-Sensoren ausgestattet. Durch sie werden Verkehrszeichen, vorausfahrende Fahrzeuge und andere Verkehrsteilnehmer, Kreuzungen, Abbiegestellen, Schlaglöcher usw. erfasst. Solche Fahrzeuge sind auch mit Positionserfassungssystemen ausgestattet. Mit der ermittelten Position des Fahrzeuges kann überprüft werden, ob eine Abweichung bei der Bilderkennung vorliegt. Im einfachsten Fall erfasst das Fahrzeug die Position des erkannten Objektes, selbst wenn es an der Stelle des Objektes vorbeikommt. Damit kann dann die Distanz zwischen Fahrzeug und Objekt errechnet werden. In einer anderen Ausführungsform kann die Position des Objektes aus einer hochgenauen Karte entnommen werden. In einer weiteren Variante kann die Position ausgehend von der Position des Fahrzeuges geschätzt werden.The proposal can be used particularly advantageously for testing image evaluation systems in vehicles. These are now equipped with imaging sensors such as cameras, LIDAR or RADAR sensors. They are used to record traffic signs, vehicles ahead and other road users, intersections, turning points, potholes, etc. Such vehicles are also equipped with position detection systems. The determined position of the vehicle can be used to check whether there is a discrepancy in the image recognition. In the simplest case, the vehicle detects the position of the recognized object, even if it passes the location of the object. This can then be used to calculate the distance between the vehicle and the object. In another embodiment, the position of the object can be taken from a highly accurate map. In a further variant, the position can be estimated based on the position of the vehicle.

Für die Ermittlung der Positionsdaten des Fahrzeuges und des Objektes bietet sich Satellitennavigation und/oder Odometrie an. Ein Oberbegriff für solche Satellitennavigationssysteme ist GNSS was für Global Navigation Satellite System steht. Bestehende Satellitennavigationssysteme sind das Global Positioning System (GPS), Galileo, GLONASS (Globalnaja nawigazionnaja sputnikowaja sistema) oder Beidou.Satellite navigation and / or odometry are suitable for determining the position data of the vehicle and the object. A generic term for such satellite navigation systems is GNSS, which stands for Global Navigation Satellite System. Existing satellite navigation systems are the Global Positioning System (GPS), Galileo, GLONASS (Globalnaja nawigazionnaja sputnikowaja sistema) or Beidou.

In einer Ausführungsform werden die Bilder oder Bildteile, die von der Normerkennungsdistanz bis zur Objekterkennungsdistanz aufgenommen wurden, an eine externe Archivierungsstelle gesendet. Das hat den Vorteil, dass so nur die problematischen Bilder archiviert werden müssen. Die Archivierung in einer externen Stelle hat den Vorteil, dass die Bilder nicht erst im Fahrzeug archiviert werden müssen. Die Auswertung soll sowieso in der externen Stelle durch Experten geschehen, die dann auch in der Lage sind, das Bildauswertesystem zu verbessern.In one embodiment, the images or image parts that were recorded from the standard recognition distance to the object recognition distance are sent to an external archiving location. This has the advantage that only the problematic images have to be archived. Archiving in an external location has the advantage that the images do not have to be archived in the vehicle first. Anyway, the evaluation should be done in the external office by experts who are then also able to improve the image evaluation system.

In einer anderen Variante werden die Bilder oder Bildteile, die von der Normerkennungsdistanz bis zur Objekterkennungsdistanz aufgenommen wurden, in einer im Fahrzeug angeordneten Speichereinheit archiviert. Dazu muss der entsprechende Speicher im Fahrzeug vorgesehen werden. Die archivierten Bilder können später von Experten ausgelesen werden. Dies könnte bei einem Werkstattbesuch erfolgen. Eine vorteilhafte andere Variante besteht darin, die im Fahrzeug zwischengespeicherten Bilder dann zur externen Stelle zu übertragen, wenn das Fahrzeug zurück am Wohnort des Fahrzeugbesitzers steht. Moderne Fahrzeuge sind mit WLAN, ausgestattet. Wenn diese nun in das private WLAN-Netzwerk des Fahrzeugbesitzers eingebucht wird, kann die Übertragung der archivierten Bilddaten mit hoher Datenrate erfolgen. Gegenüber der unmittelbaren Übertragung über ein Mobilfunkkommunikationssystem, in das das Fahrzeug während der Fahrt eingebucht ist, hat das den Vorteil, dass weniger Kosten für den Fahrzeugbesitzer anfallen, und dass das Mobilfunknetz weniger belastet wird. Dessen Kapazität wird durch vielfältige andere Anwendungen ausgenutzt.In another variant, the images or image parts that were recorded from the standard recognition distance to the object recognition distance are archived in a storage unit arranged in the vehicle. For this purpose, the corresponding memory must be provided in the vehicle. The archived images can later be read out by experts. This could be done during a workshop visit. Another advantageous variant consists in transferring the images temporarily stored in the vehicle to the external location when the vehicle is back at the home of the vehicle owner. Modern vehicles are equipped with WiFi. If this is now logged into the vehicle owner's private WLAN network, the archived image data can be transmitted at a high data rate. Compared to direct transmission via a cellular communication system into which the vehicle is registered while driving, this has the advantage that there are fewer costs for the vehicle owner and that the cellular network is less stressed. Its capacity is used by various other applications.

Alternativ kann vorgesehen werden, dass weitere Bilder oder Bildteile archiviert werden, um die Überprüfungsmöglichkeiten zu erweitern. Dabei ist es vorteilhaft, wenn die Bilder oder Bildteile, die von der Normerkennungsdistanz bis zur Objekterkennungsdistanz aufgenommen wurden, mit hoher Qualität archiviert werden, und die weiteren Bilder oder anderen Bildteile mit einer geringeren Qualität archiviert werden. So kann der Speicheraufwand wie auch der Übertragungsaufwand für die Archivierung weitere Bilder oder Bildteile gering gehalten werden.Alternatively, it can be provided that further images or image parts are archived in order to expand the possibilities for checking. It is advantageous if the images or image parts that were recorded from the standard recognition distance to the object recognition distance are archived with high quality, and the other images or other image parts are archived with a lower quality. In this way, the storage effort as well as the transmission effort for archiving further images or image parts can be kept low.

In einer erweiterten Ausführungsform kann vorgesehen werden, dass bereits im Fahrzeug eine erste Analyse der problematischen Bilddaten erfolgt. Dies kann z.B. so erfolgen, dass ermittelt wird, ob eine zwischenzeitliche Verdeckung des Objektes durch andere Objekte die Fehlerkennung erklären kann. Dies kommt im öffentlichen Straßenverkehr vielfältig vor, z.B. wenn Busse oder LKWs Straßenschilder verdecken. In dem Fall wäre die Fehlerkennung erklärbar und es werden ggfs. keine Daten archiviert oder nur ein reduzierter Datensatz (z.B. nur wenige Sekunden vor der ersten erfolgreichen Objekterkennung).In an extended embodiment it can be provided that an initial analysis of the problematic image data takes place in the vehicle. This can e.g. take place in such a way that it is determined whether an interim concealment of the object by other objects can explain the error detection. This occurs in many ways in public road traffic, e.g. when buses or trucks cover up street signs. In this case, the error identification could be explained and no data may be archived or only a reduced data set (e.g. only a few seconds before the first successful object identification).

Daneben besteht noch eine vorteilhafte Variante darin, die Größe der zu archivierenden Bildausschnitte und/oder den Aufzeichnungszeitraum der zu archivierenden Bilder/Bildausschnitte in Abhängigkeit von einem oder mehreren der folgenden Umgebungsparameter zu bestimmen:

  • • Genauigkeit der Positionsbestimmung des Fahrzeuges und/oder Objektes
  • • Uhrzeit, insbesondere mit Tag/Nacht-Unterscheidung
  • • Wetterlage
  • • Verkehrslage
  • • Fahrbahnbeschaffenheit.
Dies ist immer dann von Vorteil, wenn die Umgebungsbedingungen nicht immer gleich sind. In der Praxis ist es eigentlich immer so, dass die Umgebungsbedingungen ständig wechseln. Wenn immer die gleiche Zahl der Bilder oder Bildteile archiviert werden, könnte es bei wechselnden Umgebungsbedingungen leicht passieren, dass gerade wichtige Szenen verpasst werden und so die Ursachen der Probleme nicht gefunden werden können.In addition, an advantageous variant consists in determining the size of the image sections to be archived and / or the recording period of the images / image sections to be archived as a function of one or more of the following environmental parameters:
  • • Accuracy of the position determination of the vehicle and / or object
  • • Time, especially with a day / night distinction
  • • Weather condition
  • • Traffic situation
  • • Condition of the road.
This is always an advantage when the ambient conditions are not always the same. In practice it is actually always the case that the ambient conditions change constantly. If the same number of images or image parts are always archived, it could easily happen with changing ambient conditions that important scenes are missed and the causes of the problems cannot be found.

Für eine Vorrichtung zur Verwendung bei dem Verfahren nach einem der vorhergehenden Ansprüche ist es vorteilhaft, wenn die Vorrichtung eine Bilderzeugungseinrichtung, eine Recheneinrichtung und eine Speichereinrichtung aufweist. Die Recheneinrichtung wird dabei so ausgelegt, dass sie eine Objekterkennung bei den von der Bilderzeugungseinrichtung gelieferten Bildern durchführen kann. Die Recheneinrichtung hat dann auch die Aufgabe, zu ermitteln, ob die Objekterkennung zeitlich oder örtlich richtig erfolgte. Dabei wird die Recheneinrichtung weiter so ausgelegt, bei Erkennung einer Abweichung bei der Objekterkennung jenseits einer Toleranzgrenze zu ermitteln, welche Bilder oder Bildteile zur genaueren Überprüfung archiviert werden sollen, und einen Befehl zur Archivierung dieser ermittelten Bilder oder Bildteile zu geben.For a device for use in the method according to one of the preceding claims, it is advantageous if the device has an image generation device, a computing device and a storage device. The computing device is designed in such a way that it can perform object recognition on the images supplied by the image generation device. The computing device then also has the task of determining whether the object was recognized correctly in terms of time or location. In this case, the computing device is further designed to determine which images or image parts are to be archived for more precise checking upon detection of a discrepancy in object recognition beyond a tolerance limit, and to issue a command to archive these determined images or image parts.

In einer besonders vorteilhaften Variante weist die Vorrichtung zusätzlich ein Kommunikationsmodul auf und das Kommunikationsmodul ist ausgelegt, die ermittelten Bilder oder Bildteile zu einer externen Archivierungsstelle zu senden nach Erhalt des Befehls zur Archivierung dieser ermittelten Bilder oder Bildteile. Die externe Archivierungsstelle kann ein Rechenzentrum des Herstellers des Bildauswertesystems oder des Fahrzeuges sein. In a particularly advantageous variant, the device additionally has a communication module and the communication module is designed to send the determined images or image parts to an external archiving point after receiving the command to archive these determined images or image parts. The external archiving agency can be a data center of the manufacturer of the image evaluation system or the vehicle.

Daneben wird noch die Variante vorgeschlagen, wobei die Vorrichtung eine Speichereinrichtung aufweist, und die Speichereinrichtung ausgelegt ist, die ermittelten Bilder oder Bildteile zu speichern nach Erhalt des Befehls zur Archivierung dieser ermittelten Bilder oder Bildteile. Bei dieser Variante findet die Archivierung im Fahrzeug statt, solange bis die Daten ausgelesen werden. Wie oben beschrieben, könnte das Auslesen in einer Werkstatt stattfinden oder die Daten könnten bei Rückkehr über das heimische WLAN-Netzwerk zu der externen Archivierungsstelle übertragen werden.In addition, the variant is proposed in which the device has a storage device and the storage device is designed to store the determined images or image parts after receiving the command to archive these determined images or image parts. With this variant, the archiving takes place in the vehicle until the data is read out. As described above, the readout could take place in a workshop or the data could be transmitted to the external archiving center via the home WLAN network on return.

Für die fahrzeugseitige Zwischenspeicherung der Daten ist es vorteilhaft, wenn die Speichereinrichtung als Ringspeicher ausgebildet ist, bei dem bei Speicherüberlauf die ältesten zuvor gespeicherten Bilder oder Bildteile von den neuen Bildern oder Bildteilen überschrieben werden.For the intermediate storage of the data in the vehicle, it is advantageous if the storage device is designed as a ring memory in which the oldest previously stored images or image parts are overwritten by the new images or image parts in the event of a memory overflow.

Als Bilderzeugungseinrichtung kann in vorteilhafter Weise eine Videokamera oder ein LIDAR- oder ein RADAR-Sensor eingesetzt werden. Für die Schnittstelle für die drahtlose Kommunikation ist es vorteilhaft, eine Schnittstelle nach wenigstens einem der Kommunikationssysteme WLAN entsprechend eines Standards der IEEE 802.11 Standard Familie oder einem LTE oder 5G Mobilfunkkommunikationssystem entsprechend eines 3GPP Standards einzusetzen.A video camera or a LIDAR or a RADAR sensor can advantageously be used as the image generating device. For the interface for wireless communication it is advantageous to use an interface according to at least one of the communication systems WLAN according to a standard of the IEEE 802.11 standard family or an LTE or 5G mobile radio communication system according to a 3GPP standard.

Für ein Fahrzeug zur Verwendung bei dem Verfahren ist es vorteilhaft, wenn das Fahrzeug mit einer Vorrichtung ausgestattet ist, die der vorgeschlagenen Vorrichtung entspricht.For a vehicle to be used in the method, it is advantageous if the vehicle is equipped with a device that corresponds to the proposed device.

Für ein Computerprogramm, das in einer Recheneinrichtung zur Abarbeitung kommt, um die Schritte zur Erfassung von Bildmaterial nach dem erfindungsgemäßen Verfahren durchzuführen, gelten die entsprechenden Vorteile wie zu dem erfindungsgemäßen Verfahren beschrieben.For a computer program that is processed in a computing device in order to carry out the steps for capturing image material using the method according to the invention, the corresponding advantages as described for the method according to the invention apply.

Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden nachfolgend anhand der Figuren näher erläutert.Embodiments of the invention are shown in the drawings and are explained in more detail below with reference to the figures.

Es zeigen:

  • 1 das typische Cockpit eines Fahrzeuges;
  • 2 eine Prinzip-Darstellung der verschiedenen Kommunikations-Möglichkeiten, die in einem Fahrzeug vorgesehen werden;
  • 3 ein Blockschaltbild der Bordelektronik des Fahrzeuges;
  • 4 eine erste Darstellung einer Fahrsituation zur Erläuterung der Problematik bei der Überprüfung der Funktion eines Bildauswertesystems des Fahrzeuges;
  • 5 eine zweite Darstellung einer Fahrsituation zur Erläuterung der Problematik bei der Überprüfung der Funktion eines Bildauswertesystems des Fahrzeuges;
  • 6 ein Flussdiagramm für ein Programm zur Erfassung von Bildmaterial für die Überprüfung der Funktion des Bildauswertesystems;
  • 7 eine Darstellung der Variation der Bildqualität zur Archivierung von Bildmaterial in Abhängigkeit von den Umgebungsbedingungen; und
  • 8 eine Darstellung der Variation der Aufzeichnungsdauer zur Archivierung von Bildmaterial in Abhängigkeit von den Umgebungsbedingungen.
Show it:
  • 1 the typical cockpit of a vehicle;
  • 2 a principle illustration of the various communication options that are provided in a vehicle;
  • 3 a block diagram of the vehicle's on-board electronics;
  • 4th a first representation of a driving situation to explain the problem when checking the function of an image evaluation system of the vehicle;
  • 5 a second representation of a driving situation to explain the problem when checking the function of an image evaluation system of the vehicle;
  • 6th a flow chart for a program for acquiring image material for checking the function of the image evaluation system;
  • 7th a representation of the variation in the image quality for archiving image material as a function of the environmental conditions; and
  • 8th a representation of the variation of the recording time for archiving image material depending on the environmental conditions.

Die vorliegende Beschreibung veranschaulicht die Prinzipien der erfindungsgemäßen Offenbarung. Es versteht sich somit, dass Fachleute in der Lage sein werden, verschiedene Anordnungen zu konzipieren, die zwar hier nicht explizit beschrieben werden, die aber Prinzipien der erfindungsgemäßen Offenbarung verkörpern und in ihrem Umfang ebenfalls geschützt sein sollen.The present description illustrates the principles of the disclosure of the invention. It is therefore understood that those skilled in the art will be able to design various arrangements which, although not explicitly described here, embody principles of the disclosure according to the invention and are also intended to be protected in their scope.

1 zeigt das typische Cockpit eines Fahrzeuges 10. Dargestellt ist ein Personenkraftwagen Pkw. Als Fahrzeug 10 kämen allerdings beliebige andere Fahrzeuge ebenfalls in Betracht. Beispiele von weiteren Fahrzeugen sind: Busse, Nutzfahrzeuge, insbesondere Lastkraftwagen Lkw, Landmaschinen, Baumaschinen, Schienenfahrzeuge usw. Der Einsatz der Erfindung wäre allgemein bei Landfahrzeugen, Schienenfahrzeugen, Wasserfahrzeugen und Luftfahrzeugen möglich. 1 shows the typical cockpit of a vehicle 10 . A passenger car is shown. As a vehicle 10 However, any other vehicles could also be considered. Examples of further vehicles are: buses, utility vehicles, in particular trucks, trucks, agricultural machines, construction machines, rail vehicles, etc. The use of the invention would generally be possible in land vehicles, rail vehicles, water vehicles and aircraft.

In dem Cockpit sind zwei Anzeigeeinheiten eines Infotainmentsystems dargestellt. Es handelt sich um einen berührungsempfindlichen Bildschirm 30, der in der Mittelkonsole angebracht ist und das Kombiinstrument 110, welches im Armaturenbrett angebracht ist. Bei der Fahrt liegt die Mittelkonsole nicht im Sichtfeld des Fahrers. Deshalb werden die Zusatzinformationen während der Fahrt nicht auf der Anzeigeeinheit 30 eingeblendet.Two display units of an infotainment system are shown in the cockpit. It is a touch sensitive screen 30th which is mounted in the center console and the instrument cluster 110 , which is attached to the dashboard. When driving, the center console is not in the driver's field of vision. Therefore, the additional information is not shown on the display unit while driving 30th faded in.

Der berührungsempfindliche Bildschirm 30 dient dabei insbesondere zur Bedienung von Funktionen des Fahrzeugs 10. Beispielsweise können darüber ein Radio, ein Navigationssystem, eine Wiedergabe von gespeicherten Musikstücken und/oder eine Klimaanlage, andere elektronische Einrichtungen oder andere Komfortfunktionen oder Applikationen des Fahrzeugs 10 gesteuert werden. Zusammengefasst wird häufig von einem „Infotainmentsystem“ gesprochen. Ein Infotainmentsystem bezeichnet bei Kraftfahrzeugen, speziell Pkw, die Zusammenführung von Autoradio, Navigationssystem, Freisprecheinrichtung, Fahrerassistenzsystemen und weiterer Funktionen in einer zentralen Bedieneinheit. Der Begriff Infotainment ist ein Kofferwort, zusammengesetzt aus den Worten Information und Entertainment (Unterhaltung). Zur Bedienung des Infotainmentsystems wird hauptsächlich der berührungsempfindliche Bildschirm 30 („Touchscreen“) benutzt, wobei dieser Bildschirm 30 insbesondere von einem Fahrer des Fahrzeugs 10, aber auch von einem Beifahrer des Fahrzeugs 10 gut eingesehen und bedient werden kann. Unterhalb des Bildschirms 30 können zudem mechanische Bedienelemente, beispielsweise Tasten, Drehregler oder Kombinationen hiervon, wie beispielsweise Drückdrehregler, in einer Eingabeeinheit 50 angeordnet sein. Typischerweise ist auch eine Lenkradbedienung von Teilen des Infotainmentsystems möglich. Diese Einheit ist nicht separat dargestellt, sondern wird als Teil der Eingabeeinheit 50 betrachtet.The touch-sensitive screen 30th is used in particular to operate functions of the vehicle 10 . For example, a radio, a navigation system, a playback of stored pieces of music and / or an air conditioning system, other electronic devices or other comfort functions or applications of the vehicle can be used 10 being controlled. In summary, an "infotainment system" is often spoken. In motor vehicles, especially passenger cars, an infotainment system refers to the combination of car radio, navigation system, hands-free system, driver assistance systems and other functions in a central operating unit. The term infotainment is a suitcase word, composed of the words information and entertainment (entertainment). The touch-sensitive screen is mainly used to operate the infotainment system 30th ("Touchscreen") is used, this screen 30th in particular by a driver of the vehicle 10 , but also from a passenger in the vehicle 10 can be easily viewed and operated. Below the screen 30th In addition, mechanical control elements, for example buttons, rotary controls or combinations thereof, such as rotary push-buttons, can be used in an input unit 50 be arranged. Typically, parts of the infotainment system can also be operated using the steering wheel. This unit is not shown separately, but is part of the input unit 50 considered.

1 zeigt auch ein Head-Up Display 20. Das Head-Up Display 20 ist im Fahrzeug 10 aus Sicht des Fahrers hinter dem Kombiinstrument 110 im Armaturenbrettbereich angebracht. Es handelt sich um eine Bildprojektionseinheit. Durch Projektion auf die Windschutzscheibe werden Zusatzinformationen in das Sichtfeld des Fahrers eingeblendet. Diese Zusatzinformationen erscheinen so, als seien sie auf eine Projektionsfläche 21 im Abstand von 7 - 15 m vor dem Fahrzeug 10 projiziert. Durch diese Projektionsfläche 21 hindurch bleibt aber die reale Welt sichtbar. Mit den eingeblendeten Zusatzinformationen wird quasi eine virtuelle Umgebung erzeugt. Die virtuelle Umgebung wird theoretisch über die reale Welt gelegt und enthält die virtuellen Objekte, die den Fahrer bei der Fahrt unterstützen und informieren. Es wird aber nur auf einen Teil der Windschutzscheibe projiziert, so dass die Zusatzinformationen nicht beliebig im Sichtfeld des Fahrers angeordnet werden können. Diese Darstellungsart ist auch unter dem Begriff „augmented reality“ bekannt. 1 also shows a head-up display 20th . The head-up display 20th is in the vehicle 10 from the driver's point of view behind the instrument cluster 110 attached in the dashboard area. It is an image projection unit. Additional information is displayed in the driver's field of vision by being projected onto the windshield. This additional information appears as if it were on a projection surface 21st at a distance of 7-15 m in front of the vehicle 10 projected. Through this projection surface 21st but the real world remains visible through it. A virtual environment is created with the additional information displayed. The virtual environment is theoretically superimposed on the real world and contains the virtual objects that support and inform the driver while driving. However, it is only projected onto part of the windshield, so that the additional information cannot be arranged anywhere in the driver's field of vision. This type of representation is also known under the term “augmented reality”.

2 zeigt eine Systemarchitektur für die Fahrzeugkommunikation mittels Mobilfunk. Die Fahrzeuge 10 sind mit einem On-Board-Kommunikationsmodul 160 mit entsprechender Antenneneinheit ausgestattet, so dass es an den verschiedenen Arten der Fahrzeugkommunikation V2V und V2X teilnehmen kann. 1 zeigt, dass das Fahrzeug 10 mit der Mobilfunk-Basisstation 210 eines Mobilfunk-Anbieters kommunizieren kann. 2 shows a system architecture for vehicle communication using cellular radio. The vehicles 10 come with an on-board communication module 160 Equipped with a corresponding antenna unit so that it can participate in the various types of vehicle communication V2V and V2X. 1 shows that the vehicle 10 with the cellular base station 210 of a mobile network provider can communicate.

Eine solche Basisstation 210 kann eine eNodeB-Basisstation eines LTE-Mobilfunkanbieters (Long Term Evolution) sein. Die Basisstation 210 und die entsprechende Ausrüstung ist Teil eines Mobilfunk-Kommunikationsnetzwerks mit einer Vielzahl von Mobilfunkzellen, wobei jede Zelle von einer Basisstation 210 bedient wird.Such a base station 210 can be an eNodeB base station from an LTE cellular network provider (Long Term Evolution). The base station 210 and the corresponding equipment is part of a cellular communications network comprising a plurality of cellular cells, each cell from a base station 210 is served.

Die Basisstation 210 ist nahe einer Hauptstraße positioniert, auf der die Fahrzeuge 10 fahren. In der Terminologie von LTE entspricht ein mobiles Endgerät einer Benutzerausrüstung UE, die es einem Benutzer ermöglicht, auf Netzwerkdienste zuzugreifen, wobei er sich über die Funkschnittstelle mit dem UTRAN oder dem Evolved-UTRAN verbindet. Typischerweise entspricht eine solche Benutzerausrüstung einem Smartphone. Solche mobilen Endgeräte werden von den Passagieren in den Fahrzeugen 10 verwendet. Zusätzlich sind die Fahrzeuge 10 jeweils mit einem On-Board-Kommunikationsmodul 160 ausgestattet. Dieses On-Board-Kommunikationsmodul 160 entspricht einem LTE-Kommunikationsmodul, mit dem das Fahrzeug 10 mobile Daten empfangen kann (Downlink) und solche Daten in Aufwärtsrichtung senden kann (Uplink). Dieses On-Board-Kommunikationsmodul 160 kann ferner mit einem WLAN p-Modul ausgestattet sein, um an einem Ad-hoc-V2X-Kommunikationsmodus teilnehmen zu können. V2V- und V2X-Kommunikation wird aber auch durch die neue 5. Generation von Mobilfunksystemen unterstützt. Dort wird die entsprechende Funkschnittstelle als PC5 Schnittstelle bezeichnet. In Bezug auf das LTE-Mobilfunk-Kommunikationssystem besteht das Evolved UMTS Terrestrial Radio Access-Netzwerk E-UTRAN von LTE aus mehreren eNodeBs, die die E-UTRA-Benutzerebene (PDCP / RLC / MAC / PHY) und die Steuerebene (RRC) bereitstellen. Die eNodeBs sind mittels der sogenannten X2-Schnittstelle miteinander verbunden. Die eNodeBs sind auch über die sogenannte S1-Schnittstelle mit dem EPC (Evolved Packet Core) 200 verbunden.The base station 210 is positioned near a main road on which the vehicles 10 drive. In LTE terminology, a mobile terminal corresponds to a user equipment UE that enables a user to access network services, connecting to the UTRAN or the Evolved UTRAN via the radio interface. Typically, such user equipment corresponds to a smartphone. Such mobile terminals are used by the passengers in the vehicles 10 used. In addition, the vehicles are 10 each with an on-board communication module 160 fitted. This on-board communication module 160 corresponds to an LTE communication module with which the vehicle 10 can receive mobile data (downlink) and send such data in the uplink direction (uplink). This on-board communication module 160 can also be equipped with a WLAN p-module in order to be able to participate in an ad hoc V2X communication mode. V2V and V2X communication is also supported by the new 5th generation of mobile radio systems. There the corresponding radio interface is referred to as the PC5 interface. With regard to the LTE mobile radio communication system, LTE's Evolved UMTS Terrestrial Radio Access Network E-UTRAN consists of several eNodeBs that provide the E-UTRA user level (PDCP / RLC / MAC / PHY) and the control level (RRC) . The eNodeBs are connected to one another using the so-called X2 interface. The eNodeBs are also connected to the EPC (Evolved Packet Core) via the so-called S1 interface 200 connected.

Aus dieser allgemeinen Architektur zeigt 2, dass die Basisstation 210 über die S1-Schnittstelle mit dem EPC 200 verbunden ist und der EPC 200 mit dem Internet 300 verbunden ist. Ein Backend-Server 320, an den die Fahrzeuge 10 Nachrichten senden können und von diesem empfangen können, ist ebenfalls mit dem Internet 300 verbunden. In dem hierzu betrachtenden Fall kann der Backend-Server 320 in einem Rechenzentrum des Fahrzeugherstellers untergebracht sein. Schließlich ist auch eine Straßeninfrastrukturstation 310 gezeigt. Diese kann beispielsweise durch eine straßenseitige Einheit, die im Fachjargon oft als Road Side Unit RSU 310 bezeichnet wird, veranschaulicht werden. Zur Vereinfachung der Implementierung wird davon ausgegangen, dass allen Komponenten eine Internetadresse zugewiesen wurde, typischerweise in Form einer IPv6-Adresse, so dass die Pakete, die Nachrichten zwischen den Komponenten transportieren, entsprechend geroutet werden können. Die erwähnten verschiedenen Schnittstellen sind standardisiert. Es wird diesbezüglich auf die entsprechenden LTE Spezifikationen verwiesen, die veröffentlicht sind.From this general architecture shows 2 that the base station 210 via the S1 interface with the EPC 200 connected and the EPC 200 with the Internet 300 connected is. A backend server 320 to which the vehicles 10 Being able to send and receive messages is also with the Internet 300 connected. In the case under consideration, the backend server 320 be housed in a data center of the vehicle manufacturer. Finally, there is also a road infrastructure station 310 shown. This can be done, for example, by a roadside unit, often referred to in technical jargon as the Road Side Unit RSU 310 will be illustrated. To simplify the implementation, it is assumed that all components have been assigned an Internet address, typically in the form of an IPv6 address, so that the packets that transport messages between the components can be routed accordingly. The various interfaces mentioned are standardized. In this regard, reference is made to the corresponding LTE specifications that are published.

3 zeigt schematisch ein Blockschaltbild der Bordelektronik 200 zu der auch das Infotainmentsystem des Fahrzeuges 10 gehört. Zur Bedienung des Infotainmentsystems dient die berührungsempfindliche Anzeigeeinheit 30, eine Recheneinrichtung 40, eine Eingabeeinheit 50 und ein Speicher 60. Die Anzeigeeinheit 30 umfasst sowohl eine Anzeigefläche zum Anzeigen veränderlicher grafischer Informationen als auch eine über der Anzeigefläche angeordnete Bedienoberfläche (berührungssensitive Schicht) zum Eingeben von Befehlen durch einen Benutzer. Sie kann als LCD-Touchscreen-Display ausgebildet sein. 3 shows a schematic block diagram of the on-board electronics 200 to which also the infotainment system of the vehicle 10 heard. The touch-sensitive display unit is used to operate the infotainment system 30th , a computing device 40 , an input unit 50 and a memory 60 . The display unit 30th comprises both a display area for displaying variable graphic information and a user interface (touch-sensitive layer) arranged above the display area for the input of commands by a user. It can be designed as an LCD touchscreen display.

Die Anzeigeeinheit 30 ist über eine Datenleitung 70 mit der Recheneinrichtung 40 verbunden. Die Datenleitung kann nach dem LVDS-Standard ausgelegt sein, entsprechend Low Voltage Differential Signalling. Über die Datenleitung 70 empfängt die Anzeigeeinheit 30 Steuerdaten zum Ansteuern der Anzeigefläche des Touchscreens 30 von der Recheneinrichtung 40. Über die Datenleitung 70 werden auch Steuerdaten der eingegebenen Befehle von dem Touchscreen 30 zu der Recheneinrichtung 40 übertragen. Mit der Bezugszahl 50 ist die Eingabeeinheit bezeichnet. Ihr zugehörig sind die schon erwähnten Bedienelemente wie Tasten, Drehregler, Schieberegler, oder Drehdrückregler, mit deren Hilfe die Bedienperson über die Menüführung Eingaben machen kann. Unter Eingabe wird allgemein das Anwählen einer ausgewählten Menüoption verstanden, wie auch das Ändern eines Parameters, das Ein- und Ausschalten einer Funktion usw.The display unit 30th is via a data line 70 with the computing device 40 connected. The data line can be designed according to the LVDS standard, corresponding to low voltage differential signaling. Via the data line 70 receives the display unit 30th Control data for controlling the display area of the touch screen 30th from the computing device 40 . Via the data line 70 are also control data of the commands entered from the touchscreen 30th to the computing device 40 transfer. With the reference number 50 the input unit is designated. Associated with it are the control elements already mentioned, such as buttons, rotary controls, slide controls or rotary push-button controls, with the help of which the operator can make entries via the menu navigation. Input is generally understood to mean the selection of a selected menu option, as well as changing a parameter, switching a function on and off, etc.

Die Speichereinrichtung 60 ist über eine Datenleitung 80 mit der Recheneinrichtung 40 verbunden. In dem Speicher 60 ist ein Piktogrammverzeichnis und/oder Symbolverzeichnis hinterlegt mit den Piktogrammen und/oder Symbolen für die möglichen Einblendungen von Zusatzinformationen.The storage device 60 is via a data line 80 with the computing device 40 connected. In the memory 60 a list of pictograms and / or symbols is stored with the pictograms and / or symbols for the possible insertion of additional information.

Die weiteren Teile des Infotainmentsystems Kamera 150, Radio 140, Navigationsgerät 130, Telefon 120 und Kombiinstrument 110 sind über den Datenbus 100 mit der Vorrichtung zur Bedienung des Infotainmentsystems verbunden. Als Datenbus 100 kommt die Highspeed-Variante des CAN-Bus nach ISO Standard 11898-2 in Betracht. Alternativ käme z.B. auch der Einsatz eines auf Ethernet-Technologie beruhenden Bussystems wie BroadR-Reach in Frage. Auch Bussysteme, bei denen die Datenübertragung über Lichtwellenleiter geschieht, sind einsetzbar. Als Beispiele werden genannt der MOST Bus (Media Oriented System Transport) oder der D2B Bus (Domestic Digital Bus). An den Datenbus 100 ist auch eine Fahrzeug-Messeinheit 170 angeschlossen. Diese Fahrzeug-Messeinheit 170 dient der Erfassung der Bewegung des Fahrzeuges, insbesondere der Erfassung der Beschleunigungen des Fahrzeuges. Sie kann als konventionelle IMU-Einheit, entsprechend Inertial Measurement Unit, ausgebildet sein. In einer IMU-Unit finden sich typischerweise Beschleunigungssensoren und Drehratensensoren wie ein Laser-Gyroskop oder ein Magnetometer-Gyroskop. Die Fahrzeug-Messeinheit 170 kann als Teil der Odometrie des Fahrzeuges 10 angesehen werden. Dazu gehören aber auch die Raddrehzahlsensoren. The other parts of the infotainment system camera 150 , Radio 140 , Navigation device 130 , Phone 120 and instrument cluster 110 are via the data bus 100 connected to the device for operating the infotainment system. As a data bus 100 the high-speed variant of the CAN bus follows ISO standard 11898-2 into consideration. Alternatively, for example, a bus system based on Ethernet technology such as BroadR-Reach could also be used. Bus systems in which data is transmitted via fiber optics can also be used. Examples are the MOST bus (Media Oriented System Transport) or the D2B bus (Domestic Digital Bus). To the data bus 100 is also a vehicle measuring unit 170 connected. This vehicle measuring unit 170 is used to record the movement of the vehicle, in particular to record the accelerations of the vehicle. It can be designed as a conventional IMU unit, corresponding to the inertial measurement unit. In an IMU unit there are typically acceleration sensors and rotation rate sensors such as a laser gyroscope or a magnetometer gyroscope. The vehicle measuring unit 170 can be used as part of the vehicle's odometry 10 be considered. But this also includes the wheel speed sensors.

Hier wird noch erwähnt, dass die Kamera 150 als konventionelle Videokamera ausgelegt sein kann. In diesem Fall nimmt sie 25 Vollbilder/s auf, was bei dem Interlace-Aufnahmemodus 50 Halbbildern/s entspricht. Alternativ kann eine Spezialkamera eingesetzt werden, die mehr Bilder/s aufnimmt, um die Genauigkeit der Objekterkennung bei sich schneller bewegenden Objekten zu erhöhen, oder die Licht in einem anderen als dem sichtbaren Spektrum aufnimmt. Es können mehrere Kameras zur Umfeldbeobachtung eingesetzt werden. Daneben könnten auch die schon erwähnten RADAR- oder LIDAR-Systeme ergänzend oder alternativ eingesetzt werden, um die Umfeldbeobachtung durchzuführen oder zu erweitern. Für die drahtlose Kommunikation nach innen und außen ist das Fahrzeug 10 mit dem Kommunikationsmodul 160 ausgestattet, wie bereits erwähnt.It is also mentioned here that the camera 150 can be designed as a conventional video camera. In this case, it records 25 frames / s, which is the interlace recording mode 50 Corresponds to fields / s. Alternatively, a special camera can be used that records more images / s in order to increase the accuracy of the object recognition in faster moving objects, or that records light in a spectrum other than the visible. Several cameras can be used to monitor the surroundings. In addition, the RADAR or LIDAR systems already mentioned could also be used in addition or as an alternative to carry out or expand the observation of the surroundings. The vehicle is responsible for wireless internal and external communication 10 with the communication module 160 equipped, as already mentioned.

Die Kamera 150 wird hauptsächlich zur Objekterkennung eingesetzt. Typische Objekte, die erkannt werden sollen, sind Verkehrszeichen, vorausfahrende/umgebende/parkende Fahrzeuge und andere Verkehrsteilnehmer, Kreuzungen, Abbiegestellen, Schlaglöcher usw. Wenn ein Objekt mit einem Bedeutungspotenzial erkannt worden ist, kann über das Infotainmentsystem eine Information ausgegeben werden. Typischerweise werden z.B. Symbole für die erkannten Verkehrszeichen eingeblendet. Es kann sich auch um ein Warnmeldung handeln, wenn von dem Objekt eine Gefahr ausgeht. Über das HUD 20 werden die Informationen direkt in das Sichtfeld des Fahrers projiziert. Als Beispiel für ein Objekt, von dem eine Gefahr ausgeht, wird der Fall genannt, dass die Bildauswertung der von der Kamera 150 gelieferten Bilder ergeben hat, dass ein Reh am Fahrbahnrand steht. Die Bildauswertung findet in der Recheneinheit 40 statt. Dazu können bekannte Algorithmen zur Objekterkennung eingesetzt werden. Im Ergebnis wird ein Gefahrensymbol an der Position des Rehs eingeblendet. Die Einblendung sollte dabei so erfolgen, dass die Einblendung des Gefahrensymbols das Reh nicht verdeckt, weil sonst der Fahrer nicht genau erkennen kann, worin die Gefahr besteht.The camera 150 is mainly used for object recognition. Typical objects to be recognized are traffic signs, vehicles driving ahead / surrounding / parked and other road users, intersections, turning points, potholes, etc. If an object with a potential meaning has been recognized, information can be output via the infotainment system. Typically, for example, symbols for the recognized traffic signs are displayed. It can also be a warning if the object poses a hazard. About the HUD 20th the information is projected directly into the driver's field of vision. As an example of an object that poses a danger, the case is mentioned that the image evaluation is carried out by the camera 150 The images provided showed that a deer is standing on the edge of the road. The image evaluation takes place in the processing unit 40 instead of. Known algorithms for object recognition can be used for this purpose. As a result, a danger symbol is displayed at the position of the deer. The display should be done in such a way that the display of the danger symbol does not cover the deer, otherwise the driver cannot see exactly what the danger is.

Die Objekterkennungsalgorithmen werden von der Recheneinheit 40 abgearbeitet. Es hängt von der Leistungsfähigkeit dieser Recheneinheit ab, wie viele Bilder pro Sekunde analysiert werden können.The object recognition algorithms are used by the processing unit 40 processed. It depends on the performance of this processing unit depends on how many images can be analyzed per second.

Mit der Bezugszahl 151 ist ein Motorsteuergerät bezeichnet. Die Bezugszahl 152 entspricht einem ESP-Steuergerät und die Bezugszahl 153 bezeichnet ein Getriebe-Steuergerät. Weitere Steuergeräte, wie ein zusätzliches Fahrdynamik-Steuergerät (für Fahrzeuge mit elektrisch verstellbaren Dämpfern), Airbag-Steuergerät usw., können im Fahrzeug vorhanden sein. Die Vernetzung solcher Steuergeräte, die alle der Kategorie des Antriebsstrangs zugerechnet werden, geschieht typischerweise mit dem CAN-Bussystem (Controller Area Network) 104, welches als ISO Norm standardisiert ist, meist als ISO 11898-1 . Für verschiedene Sensoren 161 bis 163 im Kraftfahrzeug, die nicht mehr nur an einzelne Steuergeräte angeschlossen werden sollen, ist es ebenfalls vorgesehen, dass sie an das Bussystem 104 angeschlossen werden und deren Sensordaten über den Bus zu den einzelnen Steuergeräten übertragen werden. Beispiele von Sensoren im Kraftfahrzeug sind Raddrehzahlsensoren, Lenkwinkelsensoren, Beschleunigungssensoren, Drehratensensoren, Reifendrucksensoren, Abstandssensoren, Klopfsensoren, Luftgütesensoren usw. Insbesondere die Raddrehzahlsensoren und die Lenkwinkelsensoren sind der Odometrie des Fahrzeuges zuzurechnen. Die Beschleunigungssensoren und Drehratensensoren können auch direkt an die Fahrzeug-Messeinheit 170 angeschlossen sein.With the reference number 151 is called an engine control unit. The reference number 152 corresponds to an ESP control unit and the reference number 153 refers to a transmission control unit. Other control units, such as an additional driving dynamics control unit (for vehicles with electrically adjustable dampers), airbag control units, etc., can be present in the vehicle. The networking of such control devices, all of which are assigned to the drive train category, typically takes place with the CAN bus system (Controller Area Network) 104, which is standardized as an ISO standard, mostly as ISO 11898-1 . For different sensors 161 to 163 In motor vehicles, which are no longer to be connected only to individual control units, it is also provided that they are connected to the bus system 104 connected and whose sensor data are transmitted to the individual control units via the bus. Examples of sensors in motor vehicles are wheel speed sensors, steering angle sensors, acceleration sensors, yaw rate sensors, tire pressure sensors, distance sensors, knock sensors, air quality sensors, etc. In particular, the wheel speed sensors and the steering angle sensors are included in the odometry of the vehicle. The acceleration sensors and yaw rate sensors can also be connected directly to the vehicle measuring unit 170 be connected.

Die 4 und 5 zeigen die prinzipielle Funktionsweise eines Bildauswertesystems, wie es in Fahrzeugen eingesetzt wird. Gezeigt ist das Kamerabild, das von der Frontkamera 150 des Fahrzeuges 10 aufgenommen wird. Es wurde das Beispiel der Verkehrszeichenerkennung gewählt. 4 zeigt das Kamerabild aus naher Entfernung zu dem Verkehrszeichen 15. 5 zeigt das Kamerabild aus weiterer Entfernung zu dem Verkehrszeichen 15. Es handelt sich um ein Verkehrszeichen 15, mit dem ein absolutes Überholverbot angezeigt wird. Für die Auslegung des Verkehrszeichenerkennungssystem ist vorgeschrieben, dass bei Annäherung des Fahrzeuges 10 an das Verkehrszeichen 15 unter Normbedingungen eine Erkennung in einer Normerkennungsdistanz von 80 m Abstand zum Verkehrszeichen erfolgen sollte. 4 zeigt das Kamerabild für die Situation, in der die Annäherung bis zu einer Entfernung von 20 m stattgefunden hat. In 5 ist die Situation dargestellt, wo das Fahrzeug 10 noch 40 m von dem Verkehrszeichen 15 entfernt ist. Es ergibt sich bei der Bildauswertung, dass die Verkehrszeichenerkennung erst in der Distanz von 40 m erfolgte. Die Überprüfungsfunktion des Bildauswertesystems stellt fest, dass die Verkehrszeichenerkennung unter den gegebenen Bedingungen zu spät erfolgte. Die Überprüfungsfunktion führt dann einen Test durch, mit dem eine Vorauswertung der aufgenommenen Bilder stattfindet. Dabei ergibt sich wie dargestellt, dass ein vorausfahrender Lkw 12 im Kamerabild zu sehen ist. Wie in 5 zu sehen ist, ist das Verkehrszeichen 15 unmittelbar rechts neben dem Lkw 12 zu sehen. Daraus folgert die Überprüfungsfunktion, dass das Verkehrszeichen 15 in weiterer Distanz von dem Lkw verdeckt wurde. Aus dem Grund werden die aufgenommenen Bilder in der Entfernung von 80 m bis zur tatsächlichen Verkehrszeichenerkennung in der Distanz von 40 m mit geringerer Qualität archiviert.The 4th and 5 show the basic functionality of an image evaluation system as it is used in vehicles. What is shown is the camera image from the front camera 150 of the vehicle 10 is recorded. The example of traffic sign recognition was chosen. 4th shows the camera image from a close distance to the traffic sign 15th . 5 shows the camera image from a further distance to the traffic sign 15th . It is a traffic sign 15th , with which an absolute no overtaking is indicated. For the design of the traffic sign recognition system it is prescribed that when the vehicle approaches 10 at the traffic sign 15th Under standard conditions, recognition should take place at a standard recognition distance of 80 m from the traffic sign. 4th shows the camera image for the situation in which the approach took place up to a distance of 20 m. In 5 is the situation shown where the vehicle 10 40 m from the traffic sign 15th away. The image evaluation shows that the traffic sign recognition only took place at a distance of 40 m. The checking function of the image evaluation system determines that the traffic sign recognition occurred too late under the given conditions. The checking function then carries out a test with which a preliminary evaluation of the recorded images takes place. As shown, this shows that a truck driving ahead 12th can be seen in the camera image. As in 5 can be seen is the road sign 15th immediately to the right of the truck 12th to see. From this, the verification function concludes that the traffic sign 15th was covered by the truck at a further distance. For this reason, the images recorded are archived with lower quality at a distance of 80 m up to the actual traffic sign recognition at a distance of 40 m.

Die 4 und 5 dienen auch zur Erklärung einer weiteren Fehlerkennungssituation. Dabei erfolgte im Abstand von 40 m zunächst eine Erkennung des Verkehrszeichens 15 für ein eingeschränktes Überholverbot, das für Lkws gilt. Im Abstand von 20 m zum Verkehrszeichen 15 wurde dann erst erkannt, dass es sich um das Verkehrszeichen 15 für ein absolutes Überholverbot handelt. In dieser Situation reagiert die Überprüfungsfunktion wie folgt: Der durch Hinterlegung markierte Bereich 17 des aufgenommenen Kamerabildes wird bei den zu archivierenden Bildern mit hoher Qualität archiviert. Die restlichen Teile der Bilder werden mit geringerer Qualität aufgezeichnet. Dies gilt für alle Bilder, die ab dem Abstand von 40 m bis zu dem Abstand von 20 m aufgenommen wurden.The 4th and 5 also serve to explain another false detection situation. The traffic sign was initially recognized at a distance of 40 m 15th for a restricted no-overtaking ban that applies to trucks. At a distance of 20 m from the traffic sign 15th was only then recognized that it was the traffic sign 15th acts for an absolute ban on overtaking. In this situation, the verification function reacts as follows: The area marked by the background 17th of the recorded camera image is archived with high quality for the images to be archived. The remaining parts of the images are recorded with lower quality. This applies to all pictures taken from a distance of 40 m up to a distance of 20 m.

6 zeigt ein Flussdiagramm für ein Programm, mit dem die Überprüfungsfunktion realisiert wird. Diese Variante des Programms ist für die zweite erläuterte Variante gedacht, bei der zunächst eine Fehlerkennung des Verkehrszeichen erfolgte, und erst bei weiterer Annäherung eine korrekte Erkennung des Verkehrszeichens erfolgte. Mit der Bezugszahl 310 ist der Programmstart bezeichnet. Im Programmschritt 312 erfolgt die Abarbeitung des Algorithmus zur Verkehrszeichenerkennung. Es handelt sich um einen Objekterkennungsalgorithmus, der eine Mustererkennung auf Basis von in einer Tabelle abgespeicherten Mustern vornimmt. Alle gültigen Verkehrszeichen sind ja bekannt und deren Muster können in einer Tabelle abgespeichert werden. Typischerweise wird die Mustererkennung durch eine Faltungsoperation verbessert, bei der die aufgenommenen Bilder mit den bekannten Mustern gefaltet werden. Solche Algorithmen sind dem Fachmann bekannt und stehen zur Verfügung. Wenn auf diese Weise ein Verkehrszeichen erkannt wurde, wird auch die Erkennungsdistanz zum Verkehrszeichen ermittelt und abgespeichert. 6th shows a flow diagram for a program with which the checking function is implemented. This variant of the program is intended for the second variant explained, in which the road sign was initially identified incorrectly and the road sign was only correctly identified when the vehicle was approached further. With the reference number 310 the program start is designated. In the program step 312 the processing of the algorithm for traffic sign recognition takes place. It is an object recognition algorithm that recognizes patterns based on patterns stored in a table. All valid traffic signs are known and their patterns can be saved in a table. Typically, the pattern recognition is improved by a convolution operation in which the recorded images are folded with the known patterns. Such algorithms are known to the person skilled in the art and are available. If a traffic sign has been recognized in this way, the recognition distance to the traffic sign is also determined and stored.

Im Programmschritt 314 wird überprüft, ob die Verkehrszeichenerkennung normgerecht war oder nicht. Bei dem betrachteten Fall war die Verkehrszeichenerkennung aus zwei Gründen fehlerhaft. Zunächst erfolgte die Erkennung nicht in der Normerkennungsdistanz von 80 m Abstand zum Verkehrszeichen 15. Des Weiteren erfolgte zunächst eine Erkennung eines eingeschränkten Überholverbots, was bei weiterer Annäherung revidiert wurde zu einem absoluten Überholverbot. Wenn bei diesem Programmschritt eine normgerechte Verkehrszeichenerkennung festgestellt wird, brauchen keine Bilder zur Kontrolle archiviert zu werden und das Programm endet im Schritt 322. Im betrachteten Fall wurde aber eine fehlerhafte Verkehrszeichenerkennung erkannt. Dann wird das Programm mit Programmschritt 316 fortgesetzt. In Programmschritt 316 findet eine Berechnung der Anzahl problematischer Bilder statt. Weil eine Abweichung von der Normerkennungsdistanz vorliegt, kann die Berechnung wie folgt erfolgen. Die erste Erkennung erfolgte bei 40 m Entfernung. Die korrekte Erkennung erfolgte erst bei 20 m Entfernung. Es interessieren daher die Bilder ab der Normerkennungsdistanz von 80 m bis zur Entfernung von 20 m.In the program step 314 it is checked whether the traffic sign recognition was standardized or not. In the case under consideration, the traffic sign recognition was defective for two reasons. Initially, the detection did not take place within the standard detection distance of 80 m from the traffic sign 15th . Furthermore, a restricted overtaking ban was initially recognized, which was revised as it got closer to an absolute no-overtaking ban. If in this program step a standard-compliant traffic sign recognition is determined, no images need to be archived for control and the program ends in step 322 . In the case under consideration, however, incorrect traffic sign recognition was recognized. Then the program with program step 316 continued. In program step 316 the number of problematic images is calculated. Because there is a deviation from the standard recognition distance, the calculation can be carried out as follows. The first detection took place at a distance of 40 m. The correct detection only took place at a distance of 20 m. We are therefore interested in the images from the standard recognition distance of 80 m up to a distance of 20 m.

Im Programmschritt 316 wird zusätzlich überprüft, ob die Fehlerkennung erklärbar ist. Dabei wird durch Bildanalyse festgestellt, dass ein Lkw 12 vorausfährt und dieser vermutlich das Verkehrszeichen 15 bis zur ersten Erkennung verdeckt hat. Somit wird gefolgert, dass die Bilder in dem Entfernungsbereich von 80 m bis 40 m weniger wichtig sind für die nachträgliche Überprüfung. Diese Bilder werden deshalb mit geringerer Qualität abgespeichert.In the program step 316 an additional check is made as to whether the error identification can be explained. It is determined by image analysis that a truck 12th drives ahead and this is probably the traffic sign 15th covered up to the first detection. It is therefore concluded that the images in the distance range from 80 m to 40 m are less important for the subsequent verification. These images are therefore saved with a lower quality.

Im Programmschritt 318 erfolgt eine Berechnung der problematischen Bildausschnitte. In dem Fall der Verkehrszeichenerkennung wird der in den 4 und 5 markierte Bildausschnitt um das Verkehrszeichen 15 herum als relevant ausgewählt. Dieser Bildausschnitt wird deshalb im Bereich von einer Distanz von 40 m bis 20 m mit hoher Bildqualität ausgewählt.In the program step 318 the problematic image details are calculated. In the case of traffic sign recognition, the 4th and 5 marked image section around the traffic sign 15th around selected as relevant. This image section is therefore selected with high image quality in the range from a distance of 40 m to 20 m.

Im Programmschritt 320 erfolgt dann die Übertragung der problematischen Bilder und der problematischen Bildausschnitte von dem Speicher 60 zu dem Kommunikationsmodul 160 und das Kommunikationsmodul 160 sendet diese Bilddaten über Mobilfunk zum dem Backend-Server 320. Dort werden sie archiviert. Die archivierten Bilder werden später in dem Rechenzentrum von Experten ausgewertet oder maschinell mit künstlicher Intelligenz. Die Überprüfung hat den Zweck, mögliche Probleme der Bildauswertungssystems zu erkennen. Die Ergebnisse der Überprüfungen können zur Verbesserung der Auswertealgorithmen herangezogen werden. Im Idealfall kann der verbesserte Auswertealgorithmus per OTA Download (Over the Air) an das Fahrzeug 10 zurück übertragen werden und dort installiert werden. Es kann sich aber auch ergeben, dass mit der Überprüfung ein systematischer Fehler festgestellt wird, der auf einer Fehljustierung der Kamera 150 beruht. In dem Fall könnte eine Nachricht an das Fahrzeug 10 gesendet werden, um den Fahrer zu informieren, dass er die Werkstatt aufsuchen soll. Das Programm endet im Programmschritt 322.In the program step 320 the problematic images and the problematic image details are then transmitted from the memory 60 to the communication module 160 and the communication module 160 sends this image data to the backend server via cellular network 320 . They are archived there. The archived images are later evaluated by experts in the data center or by machines with artificial intelligence. The purpose of the check is to identify possible problems in the image evaluation system. The results of the checks can be used to improve the evaluation algorithms. Ideally, the improved evaluation algorithm can be downloaded to the vehicle via OTA (Over the Air) 10 transferred back and installed there. However, the result can also be that the check reveals a systematic error due to incorrect adjustment of the camera 150 is based. In that case a message could be sent to the vehicle 10 to inform the driver to go to the workshop. The program ends in the program step 322 .

Die Anzahl und Qualität der zu archivierenden Bilder kann von verschiedenen Faktoren beeinflusst werden. Neben den bereits vorgestellten Fällen werden insbesondere noch folgende Einflussfaktoren genannt:The number and quality of the images to be archived can be influenced by various factors. In addition to the cases already presented, the following influencing factors are mentioned in particular:

WetterbedingungenWeather conditions

Bei widrigen Wetterbedingungen ist die Sicht stark eingeschränkt. Dies kann so weit gehen, dass gar keine Objekterkennung mehr möglich ist. Allerdings können hier die anderen Umgebungserfassungssensoren RADAR-Sensor und LIDAR-Sensor bessere Ergebnisse liefern. Jedenfalls kann vorgesehen werden, dass bei widrigen Wetterbedingungen die Anzahl der zu archivierenden Bilder oder Bildteile eingeschränkt wird, weil die entsprechenden Objekte aus der Normerkennungsdistanz nicht erfassbar sind.In adverse weather conditions, visibility is severely restricted. This can go so far that object detection is no longer possible. However, the other environment detection sensors RADAR sensor and LIDAR sensor can deliver better results here. In any case, it can be provided that, in adverse weather conditions, the number of images or image parts to be archived is restricted because the corresponding objects cannot be detected from the standard recognition distance.

PositionsgenauigkeitPositional accuracy

Die Genauigkeit der Positionsermittlung basierend auf GNSS-Signalen und Odometrie-Signalen kann ebenfalls wetterabhängig sein. Sie kann aber auch von anderen Einflussfaktoren abhängen. Als Beispiel wird das Umfeld, in dem das Fahrzeug sich bewegt, genannt. In der Stadt kann durch starke Bebauung der Empfang der Satelliten-Signale eingeschränkt sein. Dies kann auch bei Überland-Fahrten der Fall sein. In Wäldern können die Satelliten-Signale abgeschwächt sein. Im Gebirge kann bedingt durch die Tektonik ebenfalls ein schlechter Empfang vorherrschen. In solchen Fällen wird deshalb vorgeschlagen, dass mehr Bilder oder Bildteile aufgezeichnet werden. Dann ist es wahrscheinlicher, dass die relevanten Streckenabschnitte trotz der Positionsungenauigkeit mit aufgezeichnet wurden.The accuracy of the position determination based on GNSS signals and odometry signals can also depend on the weather. But it can also depend on other influencing factors. The environment in which the vehicle is moving is cited as an example. In the city, the reception of satellite signals can be restricted due to heavy buildings. This can also be the case when driving overland. The satellite signals can be weakened in forests. Due to the tectonics, poor reception can also prevail in the mountains. In such cases, it is therefore suggested that more images or parts of images be recorded. Then it is more likely that the relevant route sections were recorded despite the positional inaccuracy.

FahrbahnbeschaffenheitRoad surface condition

Die Fahrbahnbeschaffenheit kann ebenfalls einen ähnlichen Einfluss haben. Auf Kopfsteinpflaster sind starke Erschütterungen vorhanden, so dass die aufgenommenen Bilder verwackelt sein können. Bei Glätte durch Eis, Schnee oder Regen wird von den Antriebschlupfregelungen eine Reibwertschätzung ermittelt. Wenn der Schlupf entsprechend groß ist, sind die Odometrie-Daten nicht mehr so verlässlich und es sollte dieser Einfluss wie bei dem Einfluss durch Positionsungenauigkeiten berücksichtigt werden.The road surface can also have a similar influence. There are strong vibrations on cobblestones, so that the recorded images may be blurred. When it is slippery due to ice, snow or rain, the drive slip control determines an estimate of the coefficient of friction. If the slip is correspondingly large, the odometry data are no longer as reliable and this influence should be taken into account as with the influence due to position inaccuracies.

UhrzeitTime

Ersichtlich wird die Bildqualität sehr stark mit der Tageszeit variieren. Hier sollte wenigstens zwischen Tag- und Nachtzeiten unterschieden werden. Zu Nachtzeiten sollten eher die Daten von RADAR- oder LIDAR-Sensoren aufgezeichnet werden als die Kamera-Bilddaten.It can be seen that the image quality will vary greatly with the time of day. A distinction should at least be made between daytime and nighttime. At night, the data from RADAR or LIDAR sensors are recorded as the camera image data.

VerkehrsbedingungenTraffic conditions

Hier kann unterschieden werden, ob sich das Fahrzeug im Stadtverkehr, auf der Autobahn, auf der Landstraße usw. bewegt. Im Stadtverkehr kommt es auf besonders genaue Erfassung der Verkehrsschilder an. Hier kann die Anzahl der aufzuzeichnenden Bilder erhöht werden. Im Stau auf der Autobahn kann die Anzahl der aufzuzeichnenden Bilder hingegen reduziert werden.A distinction can be made here as to whether the vehicle is moving in city traffic, on the motorway, on the country road, etc. In city traffic, it is particularly important to record the traffic signs precisely. The number of images to be recorded can be increased here. In a traffic jam on the motorway, however, the number of images to be recorded can be reduced.

Im Fahrzeug erfolgt die Zwischenspeicherung der zu archivierenden Bilder oder Bildteile 17. Dazu kann der Speicher 60 eingesetzt werden. Bei der praktischen Implementierung wird in dem Speicher 60 ein Ringspeicher eingerichtet. Dieser wird so verwaltet, dass die neu aufgenommenen Bilder hintereinander in den freien Speicherbereich des Ringspeichers geschrieben werden. Wenn das Ende des freien Speicherbereiches erreicht ist, wird der bereits beschriebene Teil des Ringspeichers überschrieben. Durch die Verwaltung des allokierten Speicherbereiches als Ringspeicher wird immer der älteste Teil des Speichers überschrieben. Die Bilder oder Bildteile 17 können unkomprimiert oder komprimiert abgespeichert werden. Allerdings ist es empfehlenswert, ein verlustfreies Komprimierungsverfahren einzusetzen, damit nicht irgendein relevanter Bildinhalt verloren gehen kann. Als Beispiel eines verlustfreien Kompressionsverfahrens wird der FFmpeg-Codec genannt. Die Bilddaten werden in einem entsprechenden Dateiformat abgespeichert. Hier kommen verschiedene Daten-Container-Formate in Frage. Als Beispiel werden genannt das ADTF Format, das für den Fahrzeugbereich entwickelt wurde, und das TIFF-Format. Andere Container-Formate für die Abspeicherung von Bild- und Tondaten sind MPEG, Ogg, Audio Video Interleave, DIVX, Quicktime, Matroska etc. Werden die Bilder während der Fahrt zum Backend-Server 320 übertragen, kann es ausreichend sein, den Ringspeicher für 20 s Aufzeichnungsdauer auszulegen. Es kann auch ein separater Speicher im Fahrzeug vorgesehen werden, auf dem die Bilder archiviert werden. Hier bietet sich z.B. eine USB-Festplatte an, die abgenommen werden kann, um sie mit einem Rechner zu verbinden, der zum Auswerten der archivierten Bilder eingesetzt wird.The images or parts of images to be archived are temporarily stored in the vehicle 17th . The memory 60 can be used. In practical implementation, in the memory 60 a ring buffer set up. This is managed in such a way that the newly recorded images are written one after the other into the free memory area of the ring buffer. When the end of the free memory area is reached, the part of the ring buffer already written is overwritten. By managing the allocated memory area as a ring memory, the oldest part of the memory is always overwritten. The pictures or parts of the picture 17th can be saved uncompressed or compressed. However, it is recommended to use a lossless compression process so that any relevant image content cannot be lost. The FFmpeg codec is mentioned as an example of a lossless compression method. The image data are saved in a corresponding file format. Various data container formats come into question here. The ADTF format, which was developed for the automotive sector, and the TIFF format are cited as examples. Other container formats for storing image and sound data are MPEG, Ogg, Audio Video Interleave, DIVX, Quicktime, Matroska, etc. The images become the backend server during the journey 320 transmitted, it may be sufficient to design the ring buffer for a recording duration of 20 s. A separate memory can also be provided in the vehicle on which the images are archived. A USB hard drive, for example, is ideal here, which can be removed in order to connect it to a computer that is used to evaluate the archived images.

7 zeigt noch den Effekt, wie durch die Reduktion der Bildqualität die zu archivierende Menge an Daten verringert werden kann. Von oben nach unten wird die Menge an Bilddaten für die verschiedenen Bildqualitäten Full HD mit einer Auflösung von 1920 X 1080 Bildpunkten, SD mit einer Auflösung von 640 X 480 Bildpunkten und VCD mit einer Auflösung von 352 X 288 Bildpunkten dargestellt. 7th also shows the effect of how the amount of data to be archived can be reduced by reducing the image quality. From top to bottom, the amount of image data for the various image qualities is displayed: Full HD with a resolution of 1920 X 1080 pixels, SD with a resolution of 640 X 480 pixels and VCD with a resolution of 352 X 288 pixels.

Die 8 zeigt dann noch den Effekt der Variation der Anzahl der Bilder oder Bildteile 17 in Abhängigkeit von der Positionsgenauigkeit oder den Wetterbedingungen etc. Wird die Aufzeichnungsdauer wegen Positionsungenauigkeit auf 160 m Distanz erhöht, fallen dementsprechend doppelt so viele Daten zur Archivierung an. Bei Reduktion auf 40 m Distanz dementsprechend nur halb so viele.The 8th then shows the effect of the variation in the number of images or image parts 17th depending on the position accuracy or the weather conditions, etc. If the recording time is increased to 160 m due to position inaccuracy, twice as much data is required for archiving. When reducing to a distance of 40 m, only half as many.

Alle hierin erwähnten Beispiele wie auch bedingte Formulierungen sind ohne Einschränkung auf solche speziell angeführten Beispiele zu verstehen. So wird es zum Beispiel von Fachleuten anerkannt, dass das hier dargestellte Blockdiagramm eine konzeptionelle Ansicht einer beispielhaften Schaltungsanordnung darstellt. In ähnlicher Weise ist zu erkennen, dass ein dargestelltes Flussdiagramm, Zustandsübergangsdiagramm, Pseudocode und dergleichen verschiedene Varianten zur Darstellung von Prozessen darstellen, die im Wesentlichen in computerlesbaren Medien gespeichert und somit von einem Computer oder Prozessor ausgeführt werden können. Das in den Patentansprüchen genannte Objekt kann ausdrücklich auch eine Person sein.All examples mentioned herein as well as conditional formulations are to be understood without restriction to such specifically cited examples. For example, it will be appreciated by those skilled in the art that the block diagram presented herein is a conceptual view of exemplary circuitry. In a similar way, it can be seen that a depicted flowchart, state transition diagram, pseudocode and the like represent different variants for the representation of processes that can essentially be stored in computer-readable media and thus executed by a computer or processor. The object named in the patent claims can expressly also be a person.

Es sollte verstanden werden, dass das vorgeschlagene Verfahren und die zugehörigen Vorrichtungen in verschiedenen Formen von Hardware, Software, Firmware, Spezialprozessoren oder einer Kombination davon implementiert werden können. Spezialprozessoren können anwendungsspezifische integrierte Schaltungen (ASICs), Reduced Instruction Set Computer (RISC) und / oder Field Programmable Gate Arrays (FPGAs) umfassen. Vorzugsweise wird das vorgeschlagene Verfahren und die Vorrichtung als eine Kombination von Hardware und Software implementiert. Die Software wird vorzugsweise als ein Anwendungsprogramm auf einer Programmspeichervorrichtung installiert. Typischerweise handelt es sich um eine Maschine auf Basis einer Computerplattform, die Hardware aufweist, wie beispielsweise eine oder mehrere Zentraleinheiten (CPU), einen Direktzugriffsspeicher (RAM) und eine oder mehrere Eingabe/Ausgabe (I/O) Schnittstelle(n). Auf der Computerplattform wird typischerweise außerdem ein Betriebssystem installiert. Die verschiedenen Prozesse und Funktionen, die hier beschrieben wurden, können Teil des Anwendungsprogramms sein oder ein Teil, der über das Betriebssystem ausgeführt wird.It should be understood that the proposed method and associated devices can be implemented in various forms of hardware, software, firmware, special purpose processors, or a combination thereof. Specialty processors can include application-specific integrated circuits (ASICs), reduced instruction set computers (RISC), and / or field programmable gate arrays (FPGAs). The proposed method and the device are preferably implemented as a combination of hardware and software. The software is preferably installed as an application program on a program storage device. Typically, it is a computer platform-based machine that includes hardware such as one or more central processing units (CPU), random access memory (RAM), and one or more input / output (I / O) interfaces. An operating system is also typically installed on the computer platform. The various processes and functions described here can be part of the application program or a part that is executed by the operating system.

Die Offenbarung ist nicht auf die hier beschriebenen Ausführungsbeispiele beschränkt. Es gibt Raum für verschiedene Anpassungen und Modifikationen, die der Fachmann aufgrund seines Fachwissens als auch zu der Offenbarung zugehörend in Betracht ziehen würde.The disclosure is not restricted to the exemplary embodiments described here. There is room for various adaptations and modifications which those skilled in the art, based on their expert knowledge as well as belonging to the disclosure, would consider.

Die Erfindung wird in den Ausführungsbeispielen am Beispiel des Einsatzes in Fahrzeugen genauer erläutert. Hier wird auch auf die Einsatzmöglichkeit bei Flugzeugen und Helikoptern zum Beispiel bei Landemanövern oder Sucheinsätzen etc. hingewiesen.The invention is explained in more detail in the exemplary embodiments using the example of use in vehicles. This also applies to the Possible use in airplanes and helicopters, for example during landing maneuvers or search missions etc.

Auch bei ferngesteuerten Geräten wie Drohnen und Robotern, bei denen die es sehr stark auf Bildauswertung ankommt, kann die Erfindung eingesetzt werden. Andere Einsatzmöglichkeiten betreffen ein Smartphone, ein Tablet Computer, ein Personal Assistant oder eine Daten-Brille.The invention can also be used for remote-controlled devices such as drones and robots, where image evaluation is very important. Other possible uses concern a smartphone, a tablet computer, a personal assistant or data glasses.

BezugszeichenlisteList of reference symbols

1010
Fahrzeugvehicle
1212
Lkwtruck
1515th
VerkehrsschildTraffic sign
1717th
BildteilImage part
2020th
Head-Up DisplayHead-Up Display
3030th
berührungsempfindliche Anzeigeeinheittouch-sensitive display unit
4040
RecheneinheitArithmetic unit
5050
EingabeeinheitInput unit
6060
SpeichereinheitStorage unit
7070
Datenleitung zur AnzeigeeinheitData line to the display unit
8080
Datenleitung zur SpeichereinheitData line to the storage unit
9090
Datenleitung zur EingabeeinheitData line to the input unit
100100
DatenbusData bus
110110
KombiinstrumentInstrument cluster
120120
Telefonphone
130130
Navigationsgerätnavigation device
140140
Radioradio
150150
Kameracamera
160160
KommunikationsmodulCommunication module
170170
Fahrzeug-MesseinheitVehicle measuring unit
200200
Evolved Packet CoreEvolved Packet Core
310-322310-322
verschiedene Programmschritte eines Computerprogrammsdifferent program steps of a computer program

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • US 2016/0170414 A1 [0014]US 2016/0170414 A1 [0014]
  • US 2017/0069206 A1 [0015]US 2017/0069206 A1 [0015]
  • US 2018/0260639 A1 [0016, 0021]US 2018/0260639 A1 [0016, 0021]

Zitierte Nicht-PatentliteraturNon-patent literature cited

  • ISO Standard 11898-2 [0052]ISO Standard 11898-2 [0052]
  • ISO 11898-1 [0056]ISO 11898-1 [0056]

Claims (15)

Verfahren zur Erfassung von Bildmaterial zur Überprüfung von bildauswertenden Systemen, wobei überprüft wird, ob eine Objekterkennung von dem bildauswertenden System zeitlich oder örtlich richtig erfolgte, dadurch gekennzeichnet, dass bei Erkennung einer Abweichung jenseits einer Toleranzgrenze ermittelt wird, welche Bilder oder Bildteile (17) zur genaueren Überprüfung archiviert werden sollen und die Archivierung dieser ermittelten Bilder oder Bildteile (17) durchgeführt wird.A method for capturing image material for checking image evaluation systems, whereby it is checked whether an object was recognized by the image evaluation system correctly in terms of time or location, characterized in that when a deviation beyond a tolerance limit is recognized, it is determined which images or image parts (17) are to be used should be archived for a more precise examination and the archiving of these determined images or image parts (17) is carried out. Verfahren nach Anspruch 1, wobei zur Bildauswertung ein Objekterkennungsalgorithmus eingesetzt wird und wobei zur Überprüfung ob eine Objekterkennung richtig erfolgte, überprüft wird, bei welcher Distanz zu dem erkannten Objekt (15) die Objekterkennung erfolgte, wobei eine Normerkennungsdistanz festgelegt wird, die angibt, ab welcher Distanz der Objekterkennungsalgorithmus die Objekterkennung liefern sollte und bei Abweichung von dieser Normerkennungsdistanz die Bilder oder Bildteile (17), die von der Normerkennungsdistanz bis zur Objekterkennungsdistanz aufgenommen wurden, zur genaueren Überprüfung archiviert werden.Procedure according to Claim 1 , wherein an object recognition algorithm is used for image evaluation and wherein, to check whether an object recognition has taken place correctly, it is checked at what distance to the recognized object (15) the object recognition took place, a standard recognition distance being established which indicates the distance from which the object recognition algorithm is Object recognition should deliver and, if there is a deviation from this standard recognition distance, the images or image parts (17) that were recorded from the standard recognition distance to the object recognition distance are archived for more detailed checking. Verfahren nach Anspruch 1 oder 2, wobei das bildauswertende System ein bildauswertendes System für ein Fahrzeug (10) ist und wobei zur Erkennung einer Abweichung bei der Bilderkennung die Positionsdaten des Fahrzeuges (10) und die Positionsdaten des Objektes (15) ausgewertet werden zur Ermittlung einer Distanz zwischen Fahrzeug (10) und Objekt (15).Procedure according to Claim 1 or 2 , the image evaluation system being an image evaluation system for a vehicle (10) and the position data of the vehicle (10) and the position data of the object (15) being evaluated to determine a distance between the vehicle (10) in order to detect a discrepancy in the image recognition and object (15). Verfahren nach Anspruch 3, wobei die Positionsdaten des Fahrzeuges (10) und des Objektes (15) durch Satellitennavigation und/oder Odometrie ermittelt werden.Procedure according to Claim 3 , the position data of the vehicle (10) and of the object (15) being determined by satellite navigation and / or odometry. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Bilder oder Bildteile (17), die von der Normerkennungsdistanz bis zur Objekterkennungsdistanz aufgenommen wurden, an eine externe Archivierungsstelle (320) gesendet werden.Method according to one of the preceding claims, wherein the images or image parts (17) which were recorded from the standard recognition distance to the object recognition distance are sent to an external archiving location (320). Verfahren nach einem der vorhergehenden Ansprüche, wobei die Bilder oder Bildteile (17), die von der Normerkennungsdistanz bis zur Objekterkennungsdistanz aufgenommen wurden, in einer im Fahrzeug (10) angeordneten Speichereinheit (60) archiviert werden.Method according to one of the preceding claims, wherein the images or image parts (17) recorded from the standard recognition distance to the object recognition distance are archived in a storage unit (60) arranged in the vehicle (10). Verfahren nach einem der vorhergehenden Ansprüche, wobei weitere Bilder oder Bildteile (17) archiviert werden und wobei die Bilder oder Bildteile (17), die von der Normerkennungsdistanz bis zur Objekterkennungsdistanz aufgenommen wurden, mit hoher Qualität archiviert werden und die weiteren Bilder oder anderen Bildteile mit einer geringeren Qualität archiviert werden.Method according to one of the preceding claims, wherein further images or image parts (17) are archived and wherein the images or image parts (17) that were recorded from the standard recognition distance to the object recognition distance are archived with high quality and the further images or other image parts are archived as well of a lower quality can be archived. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Größe der zu archivierenden Bildausschnitte und/oder der Aufzeichnungszeitraum der zu archivierenden Bilder/Bildteile (17) in Abhängigkeit von einem oder mehreren der folgenden Umgebungsparameter bestimmt wird: • Genauigkeit der Positionsbestimmung des Fahrzeuges und/oder Objektes • Uhrzeit, insbesondere mit Tag/Nacht-Unterscheidung • Wetterlage • Verkehrsbedingungen • Fahrbahnbeschaffenheit.Method according to one of the preceding claims, wherein the size of the image sections to be archived and / or the recording period of the images / image parts (17) to be archived is determined as a function of one or more of the following environmental parameters: • Accuracy of the position determination of the vehicle and / or object • Time, especially with a day / night distinction • Weather condition • Traffic conditions • Condition of the road. Vorrichtung zur Verwendung bei dem Verfahren nach einem der vorhergehenden Ansprüche, aufweisend eine Bilderzeugungseinrichtung, eine Recheneinrichtung (40) und eine Speichereinrichtung (60), wobei die Recheneinrichtung (40) ausgelegt ist, eine Objekterkennung bei den von der Bilderzeugungseinrichtung gelieferten Bildern durchzuführen und zu ermitteln, ob die Objekterkennung zeitlich oder örtlich richtig erfolgte, dadurch gekennzeichnet, dass die Recheneinrichtung (40) ausgelegt ist, bei Erkennung einer Abweichung bei der Objekterkennung jenseits einer Toleranzgrenze zu ermitteln, welche Bilder oder Bildteile (17) zur genaueren Überprüfung archiviert werden sollen und einen Befehl zur Archivierung dieser ermittelten Bilder oder Bildteile (17) zu geben.Device for use in the method according to one of the preceding claims, comprising an image generation device, a computing device (40) and a storage device (60), the computing device (40) being designed to perform and determine object recognition in the images supplied by the image generation device whether the object recognition was carried out correctly in terms of time or location, characterized in that the computing device (40) is designed to determine which images or image parts (17) are to be archived for more precise checking when a discrepancy in object recognition is recognized beyond a tolerance limit To give the command to archive these identified images or image parts (17). Vorrichtung nach Anspruch 9, wobei die Vorrichtung ein Kommunikationsmodul (160) aufweist und das Kommunikationsmodul (160) ausgelegt ist, die ermittelten Bilder oder Bildteile (17) zu einer externen Archivierungsstelle (320) zu senden nach Erhalt des Befehls zur Archivierung dieser ermittelten Bilder oder Bildteile (17).Device according to Claim 9 , wherein the device has a communication module (160) and the communication module (160) is designed to send the determined images or image parts (17) to an external archiving location (320) after receiving the command to archive these determined images or image parts (17) . Vorrichtung nach Anspruch 9, wobei die Vorrichtung eine Speichereinrichtung (60) aufweist und die Speichereinrichtung (60) ausgelegt ist, die ermittelten Bilder oder Bildteile (17) zu archivieren nach Erhalt des Befehls zur Archivierung dieser ermittelten Bilder oder Bildteile (17).Device according to Claim 9 wherein the device has a storage device (60) and the storage device (60) is designed to archive the determined images or image parts (17) after receiving the command to archive these determined images or image parts (17). Vorrichtung nach Anspruch 11, wobei die Speichereinrichtung (60) als Ringspeicher ausgebildet ist, bei dem bei Speicherüberlauf die ältesten zuvor gespeicherten Bilder oder Bildteile (17) von den neuen Bildern oder Bildteilen (17) überschrieben werden.Device according to Claim 11 , wherein the storage device (60) is designed as a ring memory in which the oldest previously stored images or image parts (17) are overwritten by the new images or image parts (17) in the event of a memory overflow. Vorrichtung nach einem der Ansprüche 8 bis 12, wobei die Bilderzeugungseinrichtung eine Videokamera (150) oder ein LI DAR- oder ein RADAR-Sensor ist und wobei das Kommunikationsmodul (160) für die drahtlose Kommunikation nach wenigstens einem der Kommunikationssysteme WLAN entsprechend eines Standards der IEEE 802.11 Standard Familie oder einem LTE oder 5G Mobilfunkkommunikationssystem entsprechend eines 3GPP Standards ausgelegt ist.Device according to one of the Claims 8 to 12th , wherein the image generation device is a video camera (150) or a LI DAR or a RADAR sensor and wherein the communication module (160) is for wireless communication according to at least one of the communication systems WLAN is designed according to a standard of the IEEE 802.11 standard family or an LTE or 5G mobile radio communication system according to a 3GPP standard. Fahrzeug zur Verwendung bei dem Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass das Fahrzeug (10) mit einer Vorrichtung nach einem der Ansprüche 8 bis 13 ausgestattet ist.Vehicle for use in the method according to one of the Claims 1 to 8th , characterized in that the vehicle (10) with a device according to one of Claims 8 to 13 Is provided. Computerprogramm, dadurch gekennzeichnet, dass das Computerprogramm ausgelegt ist, bei Abarbeitung in einer Recheneinrichtung (40) die Schritte des Verfahrens nach einem der Ansprüche 1 bis 8 durchzuführen.Computer program, characterized in that the computer program is designed, when processed in a computing device (40), to carry out the steps of the method according to one of the Claims 1 to 8th perform.
DE102019206147.8A 2019-04-30 2019-04-30 Method for capturing image material for checking image evaluation systems, device and vehicle for use in the method, as well as computer program Pending DE102019206147A1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102019206147.8A DE102019206147A1 (en) 2019-04-30 2019-04-30 Method for capturing image material for checking image evaluation systems, device and vehicle for use in the method, as well as computer program
PCT/EP2020/060208 WO2020221575A1 (en) 2019-04-30 2020-04-09 Method for capturing image material for monitoring image-analysing systems, device and vehicle for use in the method and computer program
EP20720756.4A EP3963504A1 (en) 2019-04-30 2020-04-09 Method for capturing image material for monitoring image-analysing systems, device and vehicle for use in the method and computer program
CN202080042025.1A CN113924605A (en) 2019-04-30 2020-04-09 Method for detecting image material for inspecting an image analysis system, device and vehicle for use in the method, and computer program
US17/594,748 US20230145472A1 (en) 2019-04-30 2020-04-09 Method for capturing image material for monitoring image-analysing systems, device and vehicle for use in the method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019206147.8A DE102019206147A1 (en) 2019-04-30 2019-04-30 Method for capturing image material for checking image evaluation systems, device and vehicle for use in the method, as well as computer program

Publications (1)

Publication Number Publication Date
DE102019206147A1 true DE102019206147A1 (en) 2020-11-05

Family

ID=72838973

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019206147.8A Pending DE102019206147A1 (en) 2019-04-30 2019-04-30 Method for capturing image material for checking image evaluation systems, device and vehicle for use in the method, as well as computer program

Country Status (1)

Country Link
DE (1) DE102019206147A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160305794A1 (en) * 2013-12-06 2016-10-20 Hitachi Automotive Systems, Ltd. Vehicle position estimation system, device, method, and camera device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160305794A1 (en) * 2013-12-06 2016-10-20 Hitachi Automotive Systems, Ltd. Vehicle position estimation system, device, method, and camera device

Similar Documents

Publication Publication Date Title
DE102019115783A1 (en) COLLISION PREVENTION FOR A CONNECTED VEHICLE BASED ON A DIGITAL BEHAVIOR TWIN
DE102019102195B4 (en) Autonomous drive system for a vehicle, vehicle with such an autonomous drive system and method for detecting a collision between an autonomous vehicle and an object
DE102017221871A1 (en) Method for calculating the movement data of the head of a driver of a vehicle, data glasses and vehicle for use in the method and computer program
EP3830522B1 (en) Method for estimating the quality of localisation in the self-localisation of a vehicle, device for carrying out the method, vehicle, and computer program
DE102018118215B4 (en) Method for updating a map of the surroundings, device for carrying out method steps of the method on the vehicle, vehicle, device for carrying out method steps of the method on the central computer, and computer-readable storage medium
EP3762684A1 (en) Overlaying additional information on a display unit
DE102017221191A1 (en) Method for displaying the course of a safety zone in front of a vehicle or an object with a display unit, device for carrying out the method and motor vehicle and computer program
DE102018117135A1 (en) VEHICLE ASSISTANCE OF AN ADVANCED REALITY FOR COLOR BLINDNESS
DE102019118461A1 (en) OVERVIEW OF VEHICLE AD INDICATORS
DE102018105951A1 (en) SYSTEM AND METHOD FOR DYNAMICALLY DISPLAYING IMAGES ON AN ELECTRONIC DISPLAY DEVICE OF A VEHICLE
DE102017107816A1 (en) Driving support device
DE102018207440A1 (en) Method for calculating an "augmented reality" display for displaying a navigation route on an AR display unit, device for carrying out the method, and motor vehicle and computer program
DE102018120517A1 (en) Detecting Track Conditions in Adaptive Cruise Control Systems
DE102019217642A1 (en) Method for capturing image material for checking image evaluation systems, device and vehicle for use in the method, as well as computer program
DE102017122261A1 (en) Method for monitoring a surrounding area of a motor vehicle and camera system
DE102018102661A1 (en) VEHICLE-FREE ENTERTAINMENT SYSTEM
DE102018107738A1 (en) Infrastructure of vehicle position verification
DE112016007472T5 (en) WARNINGS TO DRIVERS OF VEHICLES BEFORE ELEVATED SIGNS
DE112021001082T5 (en) DRIVE CONTROL DEVICE AND HMI CONTROL DEVICE
DE102018215186A1 (en) Concept for monitoring and planning a movement of a means of transportation
EP2813999B1 (en) Augmented reality system and method of generating and displaying augmented reality object representations for a vehicle
DE102020117340A1 (en) A method for capturing the surroundings with at least two independent imaging sensors for capturing the surroundings, a device for carrying out the method, a vehicle and a correspondingly designed computer program
DE102018204325A1 (en) Method, device and means of transport for a kinetosevermeidende, virtual representation of multimedia content in a means of transport
DE112021005818T5 (en) ADJUSTABLE AUTOMATIC WINDOW TINTING FOR AUTONOMOUS VEHICLES
DE102017122543A1 (en) A method for assisting a driver of a motor vehicle when overtaking an object and driver assistance system

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009030000

Ipc: G06V0030120000