DE102019206147A1 - Method for capturing image material for checking image evaluation systems, device and vehicle for use in the method, as well as computer program - Google Patents
Method for capturing image material for checking image evaluation systems, device and vehicle for use in the method, as well as computer program Download PDFInfo
- Publication number
- DE102019206147A1 DE102019206147A1 DE102019206147.8A DE102019206147A DE102019206147A1 DE 102019206147 A1 DE102019206147 A1 DE 102019206147A1 DE 102019206147 A DE102019206147 A DE 102019206147A DE 102019206147 A1 DE102019206147 A1 DE 102019206147A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- images
- vehicle
- archived
- image parts
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
Abstract
Der Vorschlag betrifft ein Verfahren zur Erfassung von Bildmaterial zur Überprüfung von bildauswertenden Systemen, wobei überprüft wird, ob eine Objekterkennung von dem bildauswertenden System zeitlich oder örtlich richtig erfolgte. Solche Bildauswertungssysteme werden bspw. in Fahrzeugen (10) eingesetzt. Der Vorschlag betrifft weiterhin die Maßnahme, dass bei Erkennung einer Abweichung bei der Objekterkennung jenseits einer Toleranzgrenze ermittelt wird, welche Bilder oder Bildteile (17) zur genaueren Überprüfung archiviert werden sollen, und die Archivierung dieser ermittelten Bilder oder Bildteile (17) durchgeführt wird. Dies kann durch Weitersenden der zu archivierenden Bilder oder Bildteile (17) an einen Backend-Server (320) geschehen. Die archivierten Bilder werden nachträglich überprüft und die Ergebnisse können zur Verbesserung der Bilderkennungssysteme eingesetzt werden.The proposal relates to a method for capturing image material for checking image evaluation systems, a check being made to determine whether an object was recognized by the image evaluation system correctly in terms of time or location. Such image evaluation systems are used, for example, in vehicles (10). The proposal also relates to the measure that, when a discrepancy in object recognition beyond a tolerance limit is detected, it is determined which images or image parts (17) are to be archived for more precise checking, and these images or image parts (17) are archived. This can be done by forwarding the images or image parts (17) to be archived to a backend server (320). The archived images are subsequently checked and the results can be used to improve the image recognition systems.
Description
Der Vorschlag betrifft das technische Gebiet von Fahrerassistenzsystemen bis hin zu autonom fahrenden Fahrzeugen. Der Vorschlag betrifft insbesondere ein Verfahren zur Erfassung von Bildmaterial zur Überprüfung von bildauswertenden Systemen. Ebenso betrifft der Vorschlag eine Vorrichtung und ein Fahrzeug zur Verwendung bei dem Verfahren sowie ein Computerprogramm.The proposal concerns the technical field from driver assistance systems to autonomous vehicles. The proposal relates in particular to a method for capturing image material for checking image evaluation systems. The proposal also relates to a device and a vehicle for use in the method as well as a computer program.
Zur Zeit wird intensiv an Technologien gearbeitet, die später ein autonomes Fahren ermöglichen sollen. Ein erster Ansatz ist dabei die Einführung von verschiedenen Fahrerassistenzsystemen, die dem Fahrer bestimmte Aufgaben abnehmen. Beispiele von Fahrerassistenzsystemen sind ein Totwinkelwarnassistent, ein Notbremsassistent, ein Einparkassistent, ein Abbiegeassistent, ein Spurhalteassistent, ein Geschwindigkeitsregelassistent usw. Eine weitere Stufe der Entwicklung kann darin bestehen, mehrere Assistenzsysteme zusammen zu fassen. Dabei wird der Fahrer nicht komplett von seinen Aufgaben entlastet, sondern es wird dafür Sorge getragen, dass der Fahrer jederzeit die Steuerung des Fahrzeuges übernehmen kann. Der Fahrer nimmt dann außerdem Überwachungsfunktionen wahr.At the moment, intensive work is being done on technologies that will later enable autonomous driving. A first approach is the introduction of various driver assistance systems that relieve the driver of certain tasks. Examples of driver assistance systems are a blind spot warning assistant, an emergency braking assistant, a parking assistant, a turning assistant, a lane departure warning assistant, a cruise control assistant, etc. A further stage of the development can consist in combining several assistance systems. The driver is not completely relieved of his tasks, but it is ensured that the driver can take control of the vehicle at any time. The driver then also performs monitoring functions.
Für die nahe Zukunft ist deshalb davon auszugehen, dass systemseitig durch den Einsatz neuerer Technologien (Fahrzeug-zu-Fahrzeug-Kommunikation, Einsatz von Datenbanken, Backend-Anbindung, Cloud-Dienste, Server-Einsatz, Fahrzeugsensorik, etc.) umfassende Informationen über Objekte (insb. Fahrzeuge) im sichtbaren und verdeckten/nicht sichtbaren Umfeld des eigenen Fahrzeugs verfügbar sein werden. Im Bereich Fahrzeugsensorik werden insbesondere die folgenden Komponenten genannt, die eine Umfeldbeobachtung ermöglichen: RADAR-Geräte entsprechend Radio Detection and Ranging, LIDAR-Geräte, entsprechend Light Detection and Ranging, hauptsächlich für den Bereich Abstandserfassung/-warnung, und Kameras mit entsprechender Bildverarbeitung für den Bereich der Objekterkennung. Diese Daten über die Umwelt können somit als Basis für systemseitige Fahrempfehlungen, Warnungen etc. herangezogen werden. Beispielsweise sind so Anzeigen/Warnungen darüber denkbar, in welche Richtung (möglicherweise in die eigene Trajektorie) ein anderes, umgebendes Fahrzeug abbiegen will. Insbesondere auch die Verkehrszeichenerkennung wird als Anwendungsfall erwähnt, um den Fahrer auf rechtliche Rahmenbedingungen hinzuweisen.For the near future, it can therefore be assumed that the system will provide comprehensive information about objects through the use of newer technologies (vehicle-to-vehicle communication, use of databases, backend connection, cloud services, server use, vehicle sensors, etc.) (especially vehicles) will be available in the visible and concealed / invisible surroundings of the own vehicle. In the field of vehicle sensors, the following components are mentioned in particular that enable environmental monitoring: RADAR devices corresponding to radio detection and ranging, LIDAR devices corresponding to light detection and ranging, mainly for distance detection / warning, and cameras with corresponding image processing for the Object recognition area. This data about the environment can thus be used as a basis for system-based driving recommendations, warnings, etc. For example, displays / warnings are conceivable about the direction in which (possibly into its own trajectory) another, surrounding vehicle wants to turn. In particular, traffic sign recognition is also mentioned as an application to inform the driver of the legal framework.
Die Fahrzeug-zu-Fahrzeug-Kommunikation ist mittlerweile auch mittels Mobilfunkkommunikation mit Systemen wie LTE entsprechend Long Term Evolution oder 5G möglich. Als Alternative stehen auf WLAN-Technologie beruhende Systeme für die Fahrzeug-Direktkommunikation zur Verfügung, insbesondere das System nach WLAN p. Solche Systeme sind relevant für das Gebiet des „autonomen Fahrens“. Der Begriff „autonomes Fahren“ wird in der Literatur teilweise unterschiedlich benutzt.Vehicle-to-vehicle communication is now also possible using cellular communication with systems such as LTE in accordance with Long Term Evolution or 5G. As an alternative, systems based on WLAN technology are available for direct vehicle communication, in particular the system based on WLAN p. Such systems are relevant for the field of "autonomous driving". The term “autonomous driving” is sometimes used differently in the literature.
Zur Klärung dieses Begriffs wird deshalb hier noch folgender Einschub präsentiert. Unter autonomem Fahren (manchmal auch automatisches Fahren, automatisiertes Fahren oder pilotiertes Fahren genannt) ist die Fortbewegung von Fahrzeugen, mobilen Robotern und fahrerlosen Transportsystemen zu verstehen, die sich weitgehend autonom verhalten. Es gibt verschiedene Abstufungen des Begriffs autonomes Fahren. Dabei wird auf bestimmten Stufen auch dann von autonomen Fahren gesprochen, wenn noch ein Fahrer im Fahrzeug befindlich ist, der ggfs. nur noch die Überwachung des automatischen Fahrvorgangs übernimmt. In Europa haben die verschiedenen Verkehrsministerien (in Deutschland war die Bundesanstalt für Straßenwesen beteiligt) zusammengearbeitet und die folgenden Autonomiestufen definiert.
- • Level 0: „Driver only“, der Fahrer fährt selbst, lenkt, gibt Gas, bremst etc.
- • Level 1: Bestimmte Assistenzsysteme helfen bei der Fahrzeugbedienung (u.a. ein Abstandsregelsystem - Automatic Cruise Control ACC).
- • Level 2: Teilautomatisierung. U.a. automatisches Einparken, Spurhaltefunktion, allgemeine Längsführung, Beschleunigen, Abbremsen etc. werden von den Assistenzsystemen übernommen (u.a. Stauassistent).
- • Level 3: Hochautomatisierung. Der Fahrer muss das System nicht dauernd überwachen. Das Fahrzeug führt selbstständig Funktionen wie das Auslösen des Blinkers, Spurwechsel und Spurhalten durch. Der Fahrer kann sich anderen Dingen zuwenden, wird aber bei Bedarf innerhalb einer Vorwarnzeit vom System aufgefordert, die Führung zu übernehmen. Diese Form der Autonomie ist auf Autobahnen technisch machbar. Der Gesetzgeber arbeitet darauf hin, Level 3-Fahrzeuge zuzulassen. Die gesetzlichen Rahmenbedingungen wurden dafür bereits geschaffen.
- • Level 4: Vollautomatisierung. Die Führung des Fahrzeugs wird dauerhaft vom System übernommen. Werden die Fahraufgaben vom System nicht mehr bewältigt, kann der Fahrer aufgefordert werden, die Führung zu übernehmen.
- • Level 5: Kein Fahrer erforderlich. Außer dem Festlegen des Ziels und dem Starten des Systems ist kein menschliches Eingreifen erforderlich.
- • Level 0: "Driver only", the driver drives himself, steers, accelerates, brakes etc.
- • Level 1: Certain assistance systems help to operate the vehicle (including a distance control system - Automatic Cruise Control ACC).
- • Level 2: partial automation. Automatic parking, lane keeping function, general longitudinal guidance, acceleration, braking, etc. are taken over by the assistance systems (including traffic jam assistant).
- • Level 3: high automation. The driver does not have to constantly monitor the system. The vehicle independently performs functions such as activating the indicator, changing lanes and keeping in lane. The driver can do other things, but if necessary, the system prompts them to take the lead within a warning period. This form of autonomy is technically feasible on motorways. Legislators are working to allow Level 3 vehicles. The legal framework for this has already been created.
- • Level 4: full automation. The system is permanently in charge of the vehicle. If the system can no longer handle the driving tasks, the driver can be asked to take the lead.
- • Level 5: No driver required. No human intervention is required other than setting the destination and starting the system.
Automatisierte Fahrfunktionen ab Stufe 3 nehmen dem Fahrer die Verantwortung für die Steuerung des Fahrzeugs ab. Vom VDA wurde eine ähnliche Einteilung der verschiedenen Autonomiestufen herausgegeben, die ebenfalls benutzt werden kann.Automated driving functions from level 3 relieve the driver of the responsibility for controlling the vehicle. The VDA issued a similar classification of the various levels of autonomy, which can also be used.
Aufgrund der derzeitigen Entwicklung hin zu höheren Autonomiestufen, wo aber viele Fahrzeuge nach wie vor noch vom Fahrer gesteuert werden, ist davon auszugehen, dass entsprechende zusätzliche Informationen mittelfristig bereits für manuell geführte Fahrzeuge und nicht erst langfristig für hochautomatisierte Systeme genutzt werden können.Due to the current development towards higher levels of autonomy, where many vehicles are still controlled by the driver, it can be assumed that corresponding additional information can be used for manually operated vehicles in the medium term and not only in the long term for highly automated systems.
Für die Fahrer-Fahrzeug-Interaktion stellt sich hierbei die Frage, wie diese Informationen so dargestellt werden können, dass ein echter Mehrwert für den menschlichen Fahrer entsteht und er die bereitgestellten Informationen auch schnell, respektive intuitiv, verorten kann. Folgende Lösungen in diesem Bereich sind dabei schon aus dem Stand der Technik bekannt.For the driver-vehicle interaction, the question arises as to how this information can be presented in such a way that real added value is created for the human driver and he can also locate the information provided quickly, or intuitively. The following solutions in this area are already known from the prior art.
Eine Zukunftsvision in der Automobilbranche ist es, die Windschutzscheibe des eigenen Fahrzeugs mit virtuellen Elementen bespielen zu können, um dem Fahrer einige Vorteile zu ermöglichen. Genutzt wird die sogenannte „Augmented Reality“-Technologie (AR) oder „Mixed Reality“ (MR)-Technologie. Weniger geläufig ist der entsprechende deutschsprachige Begriff der „erweiterten Realität“ bzw. „gemischten Realität“. Dabei wird die reale Umgebung mit virtuellen Elementen angereichert. Das hat mehrere Vorteile: Der Blick nach unten, auf andere Displays als der Windschutzscheibe, entfällt, da viele relevante Informationen beim Blick durch die Windschutzscheibe erscheinen. So muss der Fahrer seinen Blick nicht von der Fahrbahn abwenden. Außerdem ist durch die positionsgenaue Verortung der virtuellen Elemente in der realen Umwelt ein geringerer kognitiver Aufwand seitens des Fahrers wahrscheinlich, da keine Interpretation einer Grafik auf einem gesonderten Display erfolgen muss. Hinsichtlich des automatischen Fahrens kann ebenfalls ein Mehrwert erzeugt werden. Diesbezüglich wird auf den Artikel „3D-FRC: Depiction of the future road course in the Head-Up-Display“ von C.A. Wiesner, M. Ruf D. Sirim und G. Klinker in 2017 IEEE International Symposium on Mixed and Augmented Reality hingewiesen, in dem diese Vorteile genauer erläutert werden.A vision of the future in the automotive industry is to be able to display virtual elements on the windshield of one's own vehicle in order to provide the driver with a number of advantages. The so-called "Augmented Reality" technology (AR) or "Mixed Reality" (MR) technology is used. The corresponding German-language term “augmented reality” or “mixed reality” is less common. The real environment is enriched with virtual elements. This has several advantages: There is no need to look down at displays other than the windshield, as a lot of relevant information appears when looking through the windshield. The driver does not have to take his eyes off the road. In addition, the precise positioning of the virtual elements in the real environment means that less cognitive effort is likely on the part of the driver, since no graphic has to be interpreted on a separate display. With regard to automatic driving, added value can also be generated. In this regard, see the article "3D-FRC: Depiction of the future road course in the Head-Up-Display" by C.A. Wiesner, M. Ruf D. Sirim and G. Klinker in the 2017 IEEE International Symposium on Mixed and Augmented Reality, in which these advantages are explained in more detail.
Da die technologischen Mittel heutzutage entsprechend begrenzt sind, kann davon ausgegangen werden, dass mittelfristig keine voll bespielbaren Windschutzscheiben in Fahrzeugen anzutreffen sein werden. Zurzeit werden Head-Up Displays in den Fahrzeugen eingesetzt. Diese haben auch den Vorteil, dass das Bild des HUD näher an der realen Umwelt erscheint. Bei diesen Displays handelt es sich eigentlich um Projektionseinheiten, die ein Bild auf die Windschutzscheibe projizieren. Dieses Bild befindet sich jedoch aus der Sicht des Fahrers je nach Bauart des Moduls wenige Meter bis 15 Meter vor dem Fahrzeug.Since the technological resources are correspondingly limited nowadays, it can be assumed that in the medium term there will be no fully playable windshields in vehicles. Head-up displays are currently being used in vehicles. These also have the advantage that the image of the HUD appears closer to the real environment. These displays are actually projection units that project an image onto the windshield. However, from the driver's point of view, this image is a few meters to 15 meters in front of the vehicle, depending on the type of module.
Das „Bild“ setzt sich dabei folgendermaßen zusammen: Es handelt sich dabei weniger um ein virtuelles Display, sondern eher um eine Art „Schlüsselloch“ in die virtuelle Welt. Die virtuelle Umgebung wird theoretisch über die reale Welt gelegt und enthält die virtuellen Objekte, die den Fahrer bei der Fahrt unterstützen und informieren. Die begrenzte Anzeigefläche des HUD hat zur Folge, dass davon nur ein Ausschnitt gesehen werden kann. Man schaut also durch die Anzeigefläche des HUD auf den Ausschnitt der virtuellen Welt. Da diese virtuelle Umgebung die reale Umgebung ergänzt, spricht man in diesem Fall auch von einer „Mixed Reality“.The “picture” is composed as follows: It is less a virtual display, but rather a kind of “keyhole” into the virtual world. The virtual environment is theoretically superimposed on the real world and contains the virtual objects that support and inform the driver while driving. The limited display area of the HUD means that only a section of it can be seen. So you look through the display area of the HUD at the section of the virtual world. Since this virtual environment supplements the real environment, one speaks in this case of a "mixed reality".
Ein großer Vorteil der bisher bekannten „Augmented Reality“-Anzeigen (AR-Anzeigen) besteht darin, die entsprechenden Anzeigen direkt innerhalb bzw. als Teil der Umwelt darzustellen. Relativ naheliegende Beispiele beziehen sich meist auf den Bereich der Navigation. Während klassische Navigationsanzeigen (in herkömmlichen HUD) in der Regel schematische Darstellungen anzeigen (z.B. einen rechtwinklig verlaufenden Pfeil nach rechts als Zeichen dafür, dass bei nächster Gelegenheit rechts abgebogen werden soll, bieten AR-Anzeigen wesentlich effektivere Möglichkeiten. Da die Anzeigen als „Teil der Umwelt“ dargestellt werden können, sind äußerst schnelle und intuitive Interpretationen für den Nutzer möglich.A great advantage of the previously known "Augmented Reality" displays (AR displays) is that the corresponding displays can be displayed directly within or as part of the environment. Relatively obvious examples mostly relate to the area of navigation. While classic navigation displays (in conventional HUDs) usually show schematic representations (e.g. a right-angled arrow pointing to the right as a sign that you should turn right at the next opportunity, AR displays offer much more effective possibilities Environment ”, extremely fast and intuitive interpretations for the user are possible.
Bei Bilderfassungssystemen mit Bildauswertung im Sinne einer Objekterkennung ist es wichtig, die korrekte Funktion der Bilderfassung und Bildauswertung im laufenden Betrieb zu überprüfen. Dies kann in einer Testphase oder auch im Normalbetrieb erfolgen.In image acquisition systems with image evaluation in the sense of object recognition, it is important to check the correct functioning of the image acquisition and image evaluation during operation. This can be done in a test phase or in normal operation.
Aus der
Aus der
Aus der
Die bekannten Lösungen sind mit verschiedenen Nachteilen behaftet. Dies wurde im Rahmen der Erfindung erkannt. Bei den heute bekannten Bilderfassungsverfahren für den Einsatz im Fahrerassistenzbereich besteht das Problem, dass deren korrekte Funktion im laufenden Betrieb nicht oder nur unzureichend überprüft werden. Fehlerkennungen oder sogar Fehlklassifizierungen von Objekten sind daher möglich.The known solutions have various disadvantages. This was recognized within the scope of the invention. With the image acquisition methods known today for use in the driver assistance area, there is the problem that their correct functioning is not or only insufficiently checked during operation. Incorrect identifications or even incorrect classifications of objects are therefore possible.
Es besteht also der Bedarf für weitere Verbesserungen bei der Überprüfung von Fahrzeugbasierten Bilderfassungssystemen, insbesondere für Überprüfungsverfahren, die eine nachträgliche Überprüfung bei Fehlerkennungen ermöglichen.There is therefore a need for further improvements in the checking of vehicle-based image acquisition systems, in particular for checking methods that enable a subsequent check in the event of incorrect detection.
Die Erfindung setzt sich zur Aufgabe, einen solchen Ansatz zu finden. Dabei soll auch der Aufwand für die Archivierung der Bilddaten als Voraussetzung für die nachträgliche Überprüfung gering gehalten werden. Diese Aufgabe wird durch ein Verfahren zur Erfassung von Bildmaterial zur Überprüfung von bildauswertenden Systemen gemäß Anspruch 1, eine Vorrichtung und ein Fahrzeug zur Verwendung bei dem Verfahren nach den Ansprüchen 9 und 14 sowie ein Computerprogramm gemäß Anspruch 15 gelöst.The object of the invention is to find such an approach. The effort for archiving the image data as a prerequisite for subsequent checking should also be kept low. This object is achieved by a method for capturing image material for checking image evaluation systems according to claim 1, a device and a vehicle for use in the method according to claims 9 and 14 and a computer program according to
Die abhängigen Ansprüche beinhalten vorteilhafte Weiterbildungen und Verbesserungen der Erfindung entsprechend der nachfolgenden Beschreibung dieser Maßnahmen.The dependent claims contain advantageous developments and improvements of the invention according to the following description of these measures.
Wie bei dem Ansatz von
Gemäß des Vorschlages wird in einem Verfahren zur Erfassung von Bildmaterial zur Überprüfung von bildauswertenden Systemen überprüft, ob eine Objekterkennung von dem bildauswertenden System zeitlich oder örtlich richtig erfolgte. Wenn ja, brauchen keine Bilddaten zur nachträglichen Analyse zurückbehalten werden. Wenn allerdings Abweichungen bei der zeitlichen oder örtlichen Analyse erkannt wurden, die jenseits einer Toleranzgrenze liegen, wird in einem Schritt ermittelt, welche Bilder oder Bildteile zur genaueren Überprüfung archiviert werden sollen, und es erfolgt die Archivierung dieser ermittelten Bilder oder Bildteile. Das Verfahren bietet den Vorteil, dass ein Bildauswertesystem, das sicherheitsrelevante Daten liefert, im laufenden Betrieb überprüft werden kann, wobei der Speicheraufwand für die Überprüfung gering ist. Besonders vorteilhaft kann das Verfahren zum Testen der Bildauswertesysteme, die sich noch im Entwicklungsstadium befinden, eingesetzt werden. Das Verfahren kann aber auch in Serienprodukten vorteilhaft eingesetzt werden. Das ist vorteilhaft, um nachträgliche Verbesserungen an dem verbauten Bildauswertesystem vornehmen zu können.According to the proposal, a method for capturing image material for checking image evaluating systems is used to check whether an object was recognized by the image evaluating system correctly in terms of time or location. If so, there is no need to retain any image data for subsequent analysis. If, however, deviations in the temporal or spatial analysis have been recognized that are beyond a tolerance limit, it is determined in one step which images or image parts are to be archived for more precise checking, and these images or image parts are archived. The method offers the advantage that an image evaluation system that supplies safety-relevant data can be checked during operation, the memory expenditure for the check being low. The method can be used particularly advantageously for testing the image evaluation systems that are still in the development stage. However, the process can also be used advantageously in series products. This is advantageous in order to be able to make subsequent improvements to the built-in image evaluation system.
In einer vorteilhaften Variante wird zur Bildauswertung ein Objekterkennungsalgorithmus eingesetzt und es wird eine Überprüfung durchgeführt, ob eine Objekterkennung richtig erfolgte. Für diese Überprüfung wird eine Normerkennungsdistanz festgelegt. Die Normerkennungsdistanz gibt an, ab welcher Distanz der Objekterkennungsalgorithmus die Objekterkennung liefern sollte, d.h. bei dieser Normerkennungsdistanz sollte das Bildauswertesystem das betreffende Objekt erkennen. Es wird dann ermittelt, bei welcher Distanz zu dem erkannten Objekt die Objekterkennung tatsächlich erfolgte. Wenn diese Distanz von der Normerkennungsdistanz abweicht, werden die Bilder oder Bildteile, die von der Normerkennungsdistanz bis zur tatsächlichen Objekterkennungsdistanz aufgenommen wurden, zur genaueren Überprüfung archiviert.In an advantageous variant, an object recognition algorithm is used for image evaluation and a check is carried out to determine whether an object was recognized correctly. A standard recognition distance is specified for this check. The standard recognition distance indicates the distance from which the object recognition algorithm should deliver the object recognition, i.e. at this standard recognition distance, the image evaluation system should recognize the object in question. It is then determined at what distance to the recognized object the object recognition actually took place. If this distance deviates from the standard recognition distance, the images or image parts that were recorded from the standard recognition distance to the actual object recognition distance are archived for more detailed checking.
Der Vorschlag kann besonders vorteilhaft für den Test von Bildauswertesystemen bei Fahrzeugen eingesetzt werden. Diese sind mittlerweile mit bildgebenden Umgebungserfassungssensoren wie Kamera, LIDAR- oder RADAR-Sensoren ausgestattet. Durch sie werden Verkehrszeichen, vorausfahrende Fahrzeuge und andere Verkehrsteilnehmer, Kreuzungen, Abbiegestellen, Schlaglöcher usw. erfasst. Solche Fahrzeuge sind auch mit Positionserfassungssystemen ausgestattet. Mit der ermittelten Position des Fahrzeuges kann überprüft werden, ob eine Abweichung bei der Bilderkennung vorliegt. Im einfachsten Fall erfasst das Fahrzeug die Position des erkannten Objektes, selbst wenn es an der Stelle des Objektes vorbeikommt. Damit kann dann die Distanz zwischen Fahrzeug und Objekt errechnet werden. In einer anderen Ausführungsform kann die Position des Objektes aus einer hochgenauen Karte entnommen werden. In einer weiteren Variante kann die Position ausgehend von der Position des Fahrzeuges geschätzt werden.The proposal can be used particularly advantageously for testing image evaluation systems in vehicles. These are now equipped with imaging sensors such as cameras, LIDAR or RADAR sensors. They are used to record traffic signs, vehicles ahead and other road users, intersections, turning points, potholes, etc. Such vehicles are also equipped with position detection systems. The determined position of the vehicle can be used to check whether there is a discrepancy in the image recognition. In the simplest case, the vehicle detects the position of the recognized object, even if it passes the location of the object. This can then be used to calculate the distance between the vehicle and the object. In another embodiment, the position of the object can be taken from a highly accurate map. In a further variant, the position can be estimated based on the position of the vehicle.
Für die Ermittlung der Positionsdaten des Fahrzeuges und des Objektes bietet sich Satellitennavigation und/oder Odometrie an. Ein Oberbegriff für solche Satellitennavigationssysteme ist GNSS was für Global Navigation Satellite System steht. Bestehende Satellitennavigationssysteme sind das Global Positioning System (GPS), Galileo, GLONASS (Globalnaja nawigazionnaja sputnikowaja sistema) oder Beidou.Satellite navigation and / or odometry are suitable for determining the position data of the vehicle and the object. A generic term for such satellite navigation systems is GNSS, which stands for Global Navigation Satellite System. Existing satellite navigation systems are the Global Positioning System (GPS), Galileo, GLONASS (Globalnaja nawigazionnaja sputnikowaja sistema) or Beidou.
In einer Ausführungsform werden die Bilder oder Bildteile, die von der Normerkennungsdistanz bis zur Objekterkennungsdistanz aufgenommen wurden, an eine externe Archivierungsstelle gesendet. Das hat den Vorteil, dass so nur die problematischen Bilder archiviert werden müssen. Die Archivierung in einer externen Stelle hat den Vorteil, dass die Bilder nicht erst im Fahrzeug archiviert werden müssen. Die Auswertung soll sowieso in der externen Stelle durch Experten geschehen, die dann auch in der Lage sind, das Bildauswertesystem zu verbessern.In one embodiment, the images or image parts that were recorded from the standard recognition distance to the object recognition distance are sent to an external archiving location. This has the advantage that only the problematic images have to be archived. Archiving in an external location has the advantage that the images do not have to be archived in the vehicle first. Anyway, the evaluation should be done in the external office by experts who are then also able to improve the image evaluation system.
In einer anderen Variante werden die Bilder oder Bildteile, die von der Normerkennungsdistanz bis zur Objekterkennungsdistanz aufgenommen wurden, in einer im Fahrzeug angeordneten Speichereinheit archiviert. Dazu muss der entsprechende Speicher im Fahrzeug vorgesehen werden. Die archivierten Bilder können später von Experten ausgelesen werden. Dies könnte bei einem Werkstattbesuch erfolgen. Eine vorteilhafte andere Variante besteht darin, die im Fahrzeug zwischengespeicherten Bilder dann zur externen Stelle zu übertragen, wenn das Fahrzeug zurück am Wohnort des Fahrzeugbesitzers steht. Moderne Fahrzeuge sind mit WLAN, ausgestattet. Wenn diese nun in das private WLAN-Netzwerk des Fahrzeugbesitzers eingebucht wird, kann die Übertragung der archivierten Bilddaten mit hoher Datenrate erfolgen. Gegenüber der unmittelbaren Übertragung über ein Mobilfunkkommunikationssystem, in das das Fahrzeug während der Fahrt eingebucht ist, hat das den Vorteil, dass weniger Kosten für den Fahrzeugbesitzer anfallen, und dass das Mobilfunknetz weniger belastet wird. Dessen Kapazität wird durch vielfältige andere Anwendungen ausgenutzt.In another variant, the images or image parts that were recorded from the standard recognition distance to the object recognition distance are archived in a storage unit arranged in the vehicle. For this purpose, the corresponding memory must be provided in the vehicle. The archived images can later be read out by experts. This could be done during a workshop visit. Another advantageous variant consists in transferring the images temporarily stored in the vehicle to the external location when the vehicle is back at the home of the vehicle owner. Modern vehicles are equipped with WiFi. If this is now logged into the vehicle owner's private WLAN network, the archived image data can be transmitted at a high data rate. Compared to direct transmission via a cellular communication system into which the vehicle is registered while driving, this has the advantage that there are fewer costs for the vehicle owner and that the cellular network is less stressed. Its capacity is used by various other applications.
Alternativ kann vorgesehen werden, dass weitere Bilder oder Bildteile archiviert werden, um die Überprüfungsmöglichkeiten zu erweitern. Dabei ist es vorteilhaft, wenn die Bilder oder Bildteile, die von der Normerkennungsdistanz bis zur Objekterkennungsdistanz aufgenommen wurden, mit hoher Qualität archiviert werden, und die weiteren Bilder oder anderen Bildteile mit einer geringeren Qualität archiviert werden. So kann der Speicheraufwand wie auch der Übertragungsaufwand für die Archivierung weitere Bilder oder Bildteile gering gehalten werden.Alternatively, it can be provided that further images or image parts are archived in order to expand the possibilities for checking. It is advantageous if the images or image parts that were recorded from the standard recognition distance to the object recognition distance are archived with high quality, and the other images or other image parts are archived with a lower quality. In this way, the storage effort as well as the transmission effort for archiving further images or image parts can be kept low.
In einer erweiterten Ausführungsform kann vorgesehen werden, dass bereits im Fahrzeug eine erste Analyse der problematischen Bilddaten erfolgt. Dies kann z.B. so erfolgen, dass ermittelt wird, ob eine zwischenzeitliche Verdeckung des Objektes durch andere Objekte die Fehlerkennung erklären kann. Dies kommt im öffentlichen Straßenverkehr vielfältig vor, z.B. wenn Busse oder LKWs Straßenschilder verdecken. In dem Fall wäre die Fehlerkennung erklärbar und es werden ggfs. keine Daten archiviert oder nur ein reduzierter Datensatz (z.B. nur wenige Sekunden vor der ersten erfolgreichen Objekterkennung).In an extended embodiment it can be provided that an initial analysis of the problematic image data takes place in the vehicle. This can e.g. take place in such a way that it is determined whether an interim concealment of the object by other objects can explain the error detection. This occurs in many ways in public road traffic, e.g. when buses or trucks cover up street signs. In this case, the error identification could be explained and no data may be archived or only a reduced data set (e.g. only a few seconds before the first successful object identification).
Daneben besteht noch eine vorteilhafte Variante darin, die Größe der zu archivierenden Bildausschnitte und/oder den Aufzeichnungszeitraum der zu archivierenden Bilder/Bildausschnitte in Abhängigkeit von einem oder mehreren der folgenden Umgebungsparameter zu bestimmen:
- • Genauigkeit der Positionsbestimmung des Fahrzeuges und/oder Objektes
- • Uhrzeit, insbesondere mit Tag/Nacht-Unterscheidung
- • Wetterlage
- • Verkehrslage
- • Fahrbahnbeschaffenheit.
- • Accuracy of the position determination of the vehicle and / or object
- • Time, especially with a day / night distinction
- • Weather condition
- • Traffic situation
- • Condition of the road.
Für eine Vorrichtung zur Verwendung bei dem Verfahren nach einem der vorhergehenden Ansprüche ist es vorteilhaft, wenn die Vorrichtung eine Bilderzeugungseinrichtung, eine Recheneinrichtung und eine Speichereinrichtung aufweist. Die Recheneinrichtung wird dabei so ausgelegt, dass sie eine Objekterkennung bei den von der Bilderzeugungseinrichtung gelieferten Bildern durchführen kann. Die Recheneinrichtung hat dann auch die Aufgabe, zu ermitteln, ob die Objekterkennung zeitlich oder örtlich richtig erfolgte. Dabei wird die Recheneinrichtung weiter so ausgelegt, bei Erkennung einer Abweichung bei der Objekterkennung jenseits einer Toleranzgrenze zu ermitteln, welche Bilder oder Bildteile zur genaueren Überprüfung archiviert werden sollen, und einen Befehl zur Archivierung dieser ermittelten Bilder oder Bildteile zu geben.For a device for use in the method according to one of the preceding claims, it is advantageous if the device has an image generation device, a computing device and a storage device. The computing device is designed in such a way that it can perform object recognition on the images supplied by the image generation device. The computing device then also has the task of determining whether the object was recognized correctly in terms of time or location. In this case, the computing device is further designed to determine which images or image parts are to be archived for more precise checking upon detection of a discrepancy in object recognition beyond a tolerance limit, and to issue a command to archive these determined images or image parts.
In einer besonders vorteilhaften Variante weist die Vorrichtung zusätzlich ein Kommunikationsmodul auf und das Kommunikationsmodul ist ausgelegt, die ermittelten Bilder oder Bildteile zu einer externen Archivierungsstelle zu senden nach Erhalt des Befehls zur Archivierung dieser ermittelten Bilder oder Bildteile. Die externe Archivierungsstelle kann ein Rechenzentrum des Herstellers des Bildauswertesystems oder des Fahrzeuges sein. In a particularly advantageous variant, the device additionally has a communication module and the communication module is designed to send the determined images or image parts to an external archiving point after receiving the command to archive these determined images or image parts. The external archiving agency can be a data center of the manufacturer of the image evaluation system or the vehicle.
Daneben wird noch die Variante vorgeschlagen, wobei die Vorrichtung eine Speichereinrichtung aufweist, und die Speichereinrichtung ausgelegt ist, die ermittelten Bilder oder Bildteile zu speichern nach Erhalt des Befehls zur Archivierung dieser ermittelten Bilder oder Bildteile. Bei dieser Variante findet die Archivierung im Fahrzeug statt, solange bis die Daten ausgelesen werden. Wie oben beschrieben, könnte das Auslesen in einer Werkstatt stattfinden oder die Daten könnten bei Rückkehr über das heimische WLAN-Netzwerk zu der externen Archivierungsstelle übertragen werden.In addition, the variant is proposed in which the device has a storage device and the storage device is designed to store the determined images or image parts after receiving the command to archive these determined images or image parts. With this variant, the archiving takes place in the vehicle until the data is read out. As described above, the readout could take place in a workshop or the data could be transmitted to the external archiving center via the home WLAN network on return.
Für die fahrzeugseitige Zwischenspeicherung der Daten ist es vorteilhaft, wenn die Speichereinrichtung als Ringspeicher ausgebildet ist, bei dem bei Speicherüberlauf die ältesten zuvor gespeicherten Bilder oder Bildteile von den neuen Bildern oder Bildteilen überschrieben werden.For the intermediate storage of the data in the vehicle, it is advantageous if the storage device is designed as a ring memory in which the oldest previously stored images or image parts are overwritten by the new images or image parts in the event of a memory overflow.
Als Bilderzeugungseinrichtung kann in vorteilhafter Weise eine Videokamera oder ein LIDAR- oder ein RADAR-Sensor eingesetzt werden. Für die Schnittstelle für die drahtlose Kommunikation ist es vorteilhaft, eine Schnittstelle nach wenigstens einem der Kommunikationssysteme WLAN entsprechend eines Standards der IEEE 802.11 Standard Familie oder einem LTE oder 5G Mobilfunkkommunikationssystem entsprechend eines 3GPP Standards einzusetzen.A video camera or a LIDAR or a RADAR sensor can advantageously be used as the image generating device. For the interface for wireless communication it is advantageous to use an interface according to at least one of the communication systems WLAN according to a standard of the IEEE 802.11 standard family or an LTE or 5G mobile radio communication system according to a 3GPP standard.
Für ein Fahrzeug zur Verwendung bei dem Verfahren ist es vorteilhaft, wenn das Fahrzeug mit einer Vorrichtung ausgestattet ist, die der vorgeschlagenen Vorrichtung entspricht.For a vehicle to be used in the method, it is advantageous if the vehicle is equipped with a device that corresponds to the proposed device.
Für ein Computerprogramm, das in einer Recheneinrichtung zur Abarbeitung kommt, um die Schritte zur Erfassung von Bildmaterial nach dem erfindungsgemäßen Verfahren durchzuführen, gelten die entsprechenden Vorteile wie zu dem erfindungsgemäßen Verfahren beschrieben.For a computer program that is processed in a computing device in order to carry out the steps for capturing image material using the method according to the invention, the corresponding advantages as described for the method according to the invention apply.
Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden nachfolgend anhand der Figuren näher erläutert.Embodiments of the invention are shown in the drawings and are explained in more detail below with reference to the figures.
Es zeigen:
-
1 das typische Cockpit eines Fahrzeuges; -
2 eine Prinzip-Darstellung der verschiedenen Kommunikations-Möglichkeiten, die in einem Fahrzeug vorgesehen werden; -
3 ein Blockschaltbild der Bordelektronik des Fahrzeuges; -
4 eine erste Darstellung einer Fahrsituation zur Erläuterung der Problematik bei der Überprüfung der Funktion eines Bildauswertesystems des Fahrzeuges; -
5 eine zweite Darstellung einer Fahrsituation zur Erläuterung der Problematik bei der Überprüfung der Funktion eines Bildauswertesystems des Fahrzeuges; -
6 ein Flussdiagramm für ein Programm zur Erfassung von Bildmaterial für die Überprüfung der Funktion des Bildauswertesystems; -
7 eine Darstellung der Variation der Bildqualität zur Archivierung von Bildmaterial in Abhängigkeit von den Umgebungsbedingungen; und -
8 eine Darstellung der Variation der Aufzeichnungsdauer zur Archivierung von Bildmaterial in Abhängigkeit von den Umgebungsbedingungen.
-
1 the typical cockpit of a vehicle; -
2 a principle illustration of the various communication options that are provided in a vehicle; -
3 a block diagram of the vehicle's on-board electronics; -
4th a first representation of a driving situation to explain the problem when checking the function of an image evaluation system of the vehicle; -
5 a second representation of a driving situation to explain the problem when checking the function of an image evaluation system of the vehicle; -
6th a flow chart for a program for acquiring image material for checking the function of the image evaluation system; -
7th a representation of the variation in the image quality for archiving image material as a function of the environmental conditions; and -
8th a representation of the variation of the recording time for archiving image material depending on the environmental conditions.
Die vorliegende Beschreibung veranschaulicht die Prinzipien der erfindungsgemäßen Offenbarung. Es versteht sich somit, dass Fachleute in der Lage sein werden, verschiedene Anordnungen zu konzipieren, die zwar hier nicht explizit beschrieben werden, die aber Prinzipien der erfindungsgemäßen Offenbarung verkörpern und in ihrem Umfang ebenfalls geschützt sein sollen.The present description illustrates the principles of the disclosure of the invention. It is therefore understood that those skilled in the art will be able to design various arrangements which, although not explicitly described here, embody principles of the disclosure according to the invention and are also intended to be protected in their scope.
In dem Cockpit sind zwei Anzeigeeinheiten eines Infotainmentsystems dargestellt. Es handelt sich um einen berührungsempfindlichen Bildschirm
Der berührungsempfindliche Bildschirm
Eine solche Basisstation
Die Basisstation
Aus dieser allgemeinen Architektur zeigt
Die Anzeigeeinheit
Die Speichereinrichtung
Die weiteren Teile des Infotainmentsystems Kamera
Hier wird noch erwähnt, dass die Kamera
Die Kamera
Die Objekterkennungsalgorithmen werden von der Recheneinheit
Mit der Bezugszahl
Die
Die
Im Programmschritt
Im Programmschritt
Im Programmschritt
Im Programmschritt
Die Anzahl und Qualität der zu archivierenden Bilder kann von verschiedenen Faktoren beeinflusst werden. Neben den bereits vorgestellten Fällen werden insbesondere noch folgende Einflussfaktoren genannt:The number and quality of the images to be archived can be influenced by various factors. In addition to the cases already presented, the following influencing factors are mentioned in particular:
WetterbedingungenWeather conditions
Bei widrigen Wetterbedingungen ist die Sicht stark eingeschränkt. Dies kann so weit gehen, dass gar keine Objekterkennung mehr möglich ist. Allerdings können hier die anderen Umgebungserfassungssensoren RADAR-Sensor und LIDAR-Sensor bessere Ergebnisse liefern. Jedenfalls kann vorgesehen werden, dass bei widrigen Wetterbedingungen die Anzahl der zu archivierenden Bilder oder Bildteile eingeschränkt wird, weil die entsprechenden Objekte aus der Normerkennungsdistanz nicht erfassbar sind.In adverse weather conditions, visibility is severely restricted. This can go so far that object detection is no longer possible. However, the other environment detection sensors RADAR sensor and LIDAR sensor can deliver better results here. In any case, it can be provided that, in adverse weather conditions, the number of images or image parts to be archived is restricted because the corresponding objects cannot be detected from the standard recognition distance.
PositionsgenauigkeitPositional accuracy
Die Genauigkeit der Positionsermittlung basierend auf GNSS-Signalen und Odometrie-Signalen kann ebenfalls wetterabhängig sein. Sie kann aber auch von anderen Einflussfaktoren abhängen. Als Beispiel wird das Umfeld, in dem das Fahrzeug sich bewegt, genannt. In der Stadt kann durch starke Bebauung der Empfang der Satelliten-Signale eingeschränkt sein. Dies kann auch bei Überland-Fahrten der Fall sein. In Wäldern können die Satelliten-Signale abgeschwächt sein. Im Gebirge kann bedingt durch die Tektonik ebenfalls ein schlechter Empfang vorherrschen. In solchen Fällen wird deshalb vorgeschlagen, dass mehr Bilder oder Bildteile aufgezeichnet werden. Dann ist es wahrscheinlicher, dass die relevanten Streckenabschnitte trotz der Positionsungenauigkeit mit aufgezeichnet wurden.The accuracy of the position determination based on GNSS signals and odometry signals can also depend on the weather. But it can also depend on other influencing factors. The environment in which the vehicle is moving is cited as an example. In the city, the reception of satellite signals can be restricted due to heavy buildings. This can also be the case when driving overland. The satellite signals can be weakened in forests. Due to the tectonics, poor reception can also prevail in the mountains. In such cases, it is therefore suggested that more images or parts of images be recorded. Then it is more likely that the relevant route sections were recorded despite the positional inaccuracy.
FahrbahnbeschaffenheitRoad surface condition
Die Fahrbahnbeschaffenheit kann ebenfalls einen ähnlichen Einfluss haben. Auf Kopfsteinpflaster sind starke Erschütterungen vorhanden, so dass die aufgenommenen Bilder verwackelt sein können. Bei Glätte durch Eis, Schnee oder Regen wird von den Antriebschlupfregelungen eine Reibwertschätzung ermittelt. Wenn der Schlupf entsprechend groß ist, sind die Odometrie-Daten nicht mehr so verlässlich und es sollte dieser Einfluss wie bei dem Einfluss durch Positionsungenauigkeiten berücksichtigt werden.The road surface can also have a similar influence. There are strong vibrations on cobblestones, so that the recorded images may be blurred. When it is slippery due to ice, snow or rain, the drive slip control determines an estimate of the coefficient of friction. If the slip is correspondingly large, the odometry data are no longer as reliable and this influence should be taken into account as with the influence due to position inaccuracies.
UhrzeitTime
Ersichtlich wird die Bildqualität sehr stark mit der Tageszeit variieren. Hier sollte wenigstens zwischen Tag- und Nachtzeiten unterschieden werden. Zu Nachtzeiten sollten eher die Daten von RADAR- oder LIDAR-Sensoren aufgezeichnet werden als die Kamera-Bilddaten.It can be seen that the image quality will vary greatly with the time of day. A distinction should at least be made between daytime and nighttime. At night, the data from RADAR or LIDAR sensors are recorded as the camera image data.
VerkehrsbedingungenTraffic conditions
Hier kann unterschieden werden, ob sich das Fahrzeug im Stadtverkehr, auf der Autobahn, auf der Landstraße usw. bewegt. Im Stadtverkehr kommt es auf besonders genaue Erfassung der Verkehrsschilder an. Hier kann die Anzahl der aufzuzeichnenden Bilder erhöht werden. Im Stau auf der Autobahn kann die Anzahl der aufzuzeichnenden Bilder hingegen reduziert werden.A distinction can be made here as to whether the vehicle is moving in city traffic, on the motorway, on the country road, etc. In city traffic, it is particularly important to record the traffic signs precisely. The number of images to be recorded can be increased here. In a traffic jam on the motorway, however, the number of images to be recorded can be reduced.
Im Fahrzeug erfolgt die Zwischenspeicherung der zu archivierenden Bilder oder Bildteile
Die
Alle hierin erwähnten Beispiele wie auch bedingte Formulierungen sind ohne Einschränkung auf solche speziell angeführten Beispiele zu verstehen. So wird es zum Beispiel von Fachleuten anerkannt, dass das hier dargestellte Blockdiagramm eine konzeptionelle Ansicht einer beispielhaften Schaltungsanordnung darstellt. In ähnlicher Weise ist zu erkennen, dass ein dargestelltes Flussdiagramm, Zustandsübergangsdiagramm, Pseudocode und dergleichen verschiedene Varianten zur Darstellung von Prozessen darstellen, die im Wesentlichen in computerlesbaren Medien gespeichert und somit von einem Computer oder Prozessor ausgeführt werden können. Das in den Patentansprüchen genannte Objekt kann ausdrücklich auch eine Person sein.All examples mentioned herein as well as conditional formulations are to be understood without restriction to such specifically cited examples. For example, it will be appreciated by those skilled in the art that the block diagram presented herein is a conceptual view of exemplary circuitry. In a similar way, it can be seen that a depicted flowchart, state transition diagram, pseudocode and the like represent different variants for the representation of processes that can essentially be stored in computer-readable media and thus executed by a computer or processor. The object named in the patent claims can expressly also be a person.
Es sollte verstanden werden, dass das vorgeschlagene Verfahren und die zugehörigen Vorrichtungen in verschiedenen Formen von Hardware, Software, Firmware, Spezialprozessoren oder einer Kombination davon implementiert werden können. Spezialprozessoren können anwendungsspezifische integrierte Schaltungen (ASICs), Reduced Instruction Set Computer (RISC) und / oder Field Programmable Gate Arrays (FPGAs) umfassen. Vorzugsweise wird das vorgeschlagene Verfahren und die Vorrichtung als eine Kombination von Hardware und Software implementiert. Die Software wird vorzugsweise als ein Anwendungsprogramm auf einer Programmspeichervorrichtung installiert. Typischerweise handelt es sich um eine Maschine auf Basis einer Computerplattform, die Hardware aufweist, wie beispielsweise eine oder mehrere Zentraleinheiten (CPU), einen Direktzugriffsspeicher (RAM) und eine oder mehrere Eingabe/Ausgabe (I/O) Schnittstelle(n). Auf der Computerplattform wird typischerweise außerdem ein Betriebssystem installiert. Die verschiedenen Prozesse und Funktionen, die hier beschrieben wurden, können Teil des Anwendungsprogramms sein oder ein Teil, der über das Betriebssystem ausgeführt wird.It should be understood that the proposed method and associated devices can be implemented in various forms of hardware, software, firmware, special purpose processors, or a combination thereof. Specialty processors can include application-specific integrated circuits (ASICs), reduced instruction set computers (RISC), and / or field programmable gate arrays (FPGAs). The proposed method and the device are preferably implemented as a combination of hardware and software. The software is preferably installed as an application program on a program storage device. Typically, it is a computer platform-based machine that includes hardware such as one or more central processing units (CPU), random access memory (RAM), and one or more input / output (I / O) interfaces. An operating system is also typically installed on the computer platform. The various processes and functions described here can be part of the application program or a part that is executed by the operating system.
Die Offenbarung ist nicht auf die hier beschriebenen Ausführungsbeispiele beschränkt. Es gibt Raum für verschiedene Anpassungen und Modifikationen, die der Fachmann aufgrund seines Fachwissens als auch zu der Offenbarung zugehörend in Betracht ziehen würde.The disclosure is not restricted to the exemplary embodiments described here. There is room for various adaptations and modifications which those skilled in the art, based on their expert knowledge as well as belonging to the disclosure, would consider.
Die Erfindung wird in den Ausführungsbeispielen am Beispiel des Einsatzes in Fahrzeugen genauer erläutert. Hier wird auch auf die Einsatzmöglichkeit bei Flugzeugen und Helikoptern zum Beispiel bei Landemanövern oder Sucheinsätzen etc. hingewiesen.The invention is explained in more detail in the exemplary embodiments using the example of use in vehicles. This also applies to the Possible use in airplanes and helicopters, for example during landing maneuvers or search missions etc.
Auch bei ferngesteuerten Geräten wie Drohnen und Robotern, bei denen die es sehr stark auf Bildauswertung ankommt, kann die Erfindung eingesetzt werden. Andere Einsatzmöglichkeiten betreffen ein Smartphone, ein Tablet Computer, ein Personal Assistant oder eine Daten-Brille.The invention can also be used for remote-controlled devices such as drones and robots, where image evaluation is very important. Other possible uses concern a smartphone, a tablet computer, a personal assistant or data glasses.
BezugszeichenlisteList of reference symbols
- 1010
- Fahrzeugvehicle
- 1212
- Lkwtruck
- 1515th
- VerkehrsschildTraffic sign
- 1717th
- BildteilImage part
- 2020th
- Head-Up DisplayHead-Up Display
- 3030th
- berührungsempfindliche Anzeigeeinheittouch-sensitive display unit
- 4040
- RecheneinheitArithmetic unit
- 5050
- EingabeeinheitInput unit
- 6060
- SpeichereinheitStorage unit
- 7070
- Datenleitung zur AnzeigeeinheitData line to the display unit
- 8080
- Datenleitung zur SpeichereinheitData line to the storage unit
- 9090
- Datenleitung zur EingabeeinheitData line to the input unit
- 100100
- DatenbusData bus
- 110110
- KombiinstrumentInstrument cluster
- 120120
- Telefonphone
- 130130
- Navigationsgerätnavigation device
- 140140
- Radioradio
- 150150
- Kameracamera
- 160160
- KommunikationsmodulCommunication module
- 170170
- Fahrzeug-MesseinheitVehicle measuring unit
- 200200
- Evolved Packet CoreEvolved Packet Core
- 310-322310-322
- verschiedene Programmschritte eines Computerprogrammsdifferent program steps of a computer program
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- US 2016/0170414 A1 [0014]US 2016/0170414 A1 [0014]
- US 2017/0069206 A1 [0015]US 2017/0069206 A1 [0015]
- US 2018/0260639 A1 [0016, 0021]US 2018/0260639 A1 [0016, 0021]
Zitierte Nicht-PatentliteraturNon-patent literature cited
- ISO Standard 11898-2 [0052]ISO Standard 11898-2 [0052]
- ISO 11898-1 [0056]ISO 11898-1 [0056]
Claims (15)
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019206147.8A DE102019206147A1 (en) | 2019-04-30 | 2019-04-30 | Method for capturing image material for checking image evaluation systems, device and vehicle for use in the method, as well as computer program |
PCT/EP2020/060208 WO2020221575A1 (en) | 2019-04-30 | 2020-04-09 | Method for capturing image material for monitoring image-analysing systems, device and vehicle for use in the method and computer program |
EP20720756.4A EP3963504A1 (en) | 2019-04-30 | 2020-04-09 | Method for capturing image material for monitoring image-analysing systems, device and vehicle for use in the method and computer program |
CN202080042025.1A CN113924605A (en) | 2019-04-30 | 2020-04-09 | Method for detecting image material for inspecting an image analysis system, device and vehicle for use in the method, and computer program |
US17/594,748 US20230145472A1 (en) | 2019-04-30 | 2020-04-09 | Method for capturing image material for monitoring image-analysing systems, device and vehicle for use in the method and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019206147.8A DE102019206147A1 (en) | 2019-04-30 | 2019-04-30 | Method for capturing image material for checking image evaluation systems, device and vehicle for use in the method, as well as computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019206147A1 true DE102019206147A1 (en) | 2020-11-05 |
Family
ID=72838973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019206147.8A Pending DE102019206147A1 (en) | 2019-04-30 | 2019-04-30 | Method for capturing image material for checking image evaluation systems, device and vehicle for use in the method, as well as computer program |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102019206147A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160305794A1 (en) * | 2013-12-06 | 2016-10-20 | Hitachi Automotive Systems, Ltd. | Vehicle position estimation system, device, method, and camera device |
-
2019
- 2019-04-30 DE DE102019206147.8A patent/DE102019206147A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160305794A1 (en) * | 2013-12-06 | 2016-10-20 | Hitachi Automotive Systems, Ltd. | Vehicle position estimation system, device, method, and camera device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102019115783A1 (en) | COLLISION PREVENTION FOR A CONNECTED VEHICLE BASED ON A DIGITAL BEHAVIOR TWIN | |
DE102019102195B4 (en) | Autonomous drive system for a vehicle, vehicle with such an autonomous drive system and method for detecting a collision between an autonomous vehicle and an object | |
DE102017221871A1 (en) | Method for calculating the movement data of the head of a driver of a vehicle, data glasses and vehicle for use in the method and computer program | |
EP3830522B1 (en) | Method for estimating the quality of localisation in the self-localisation of a vehicle, device for carrying out the method, vehicle, and computer program | |
DE102018118215B4 (en) | Method for updating a map of the surroundings, device for carrying out method steps of the method on the vehicle, vehicle, device for carrying out method steps of the method on the central computer, and computer-readable storage medium | |
EP3762684A1 (en) | Overlaying additional information on a display unit | |
DE102017221191A1 (en) | Method for displaying the course of a safety zone in front of a vehicle or an object with a display unit, device for carrying out the method and motor vehicle and computer program | |
DE102018117135A1 (en) | VEHICLE ASSISTANCE OF AN ADVANCED REALITY FOR COLOR BLINDNESS | |
DE102019118461A1 (en) | OVERVIEW OF VEHICLE AD INDICATORS | |
DE102018105951A1 (en) | SYSTEM AND METHOD FOR DYNAMICALLY DISPLAYING IMAGES ON AN ELECTRONIC DISPLAY DEVICE OF A VEHICLE | |
DE102017107816A1 (en) | Driving support device | |
DE102018207440A1 (en) | Method for calculating an "augmented reality" display for displaying a navigation route on an AR display unit, device for carrying out the method, and motor vehicle and computer program | |
DE102018120517A1 (en) | Detecting Track Conditions in Adaptive Cruise Control Systems | |
DE102019217642A1 (en) | Method for capturing image material for checking image evaluation systems, device and vehicle for use in the method, as well as computer program | |
DE102017122261A1 (en) | Method for monitoring a surrounding area of a motor vehicle and camera system | |
DE102018102661A1 (en) | VEHICLE-FREE ENTERTAINMENT SYSTEM | |
DE102018107738A1 (en) | Infrastructure of vehicle position verification | |
DE112016007472T5 (en) | WARNINGS TO DRIVERS OF VEHICLES BEFORE ELEVATED SIGNS | |
DE112021001082T5 (en) | DRIVE CONTROL DEVICE AND HMI CONTROL DEVICE | |
DE102018215186A1 (en) | Concept for monitoring and planning a movement of a means of transportation | |
EP2813999B1 (en) | Augmented reality system and method of generating and displaying augmented reality object representations for a vehicle | |
DE102020117340A1 (en) | A method for capturing the surroundings with at least two independent imaging sensors for capturing the surroundings, a device for carrying out the method, a vehicle and a correspondingly designed computer program | |
DE102018204325A1 (en) | Method, device and means of transport for a kinetosevermeidende, virtual representation of multimedia content in a means of transport | |
DE112021005818T5 (en) | ADJUSTABLE AUTOMATIC WINDOW TINTING FOR AUTONOMOUS VEHICLES | |
DE102017122543A1 (en) | A method for assisting a driver of a motor vehicle when overtaking an object and driver assistance system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009030000 Ipc: G06V0030120000 |