WO2008138670A1 - Method for displaying video images and video system - Google Patents

Method for displaying video images and video system Download PDF

Info

Publication number
WO2008138670A1
WO2008138670A1 PCT/EP2008/053471 EP2008053471W WO2008138670A1 WO 2008138670 A1 WO2008138670 A1 WO 2008138670A1 EP 2008053471 W EP2008053471 W EP 2008053471W WO 2008138670 A1 WO2008138670 A1 WO 2008138670A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
objects
video
transport
determined
Prior art date
Application number
PCT/EP2008/053471
Other languages
German (de)
French (fr)
Inventor
Reinhard Meschenmoser
Dirk Luedtke
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Priority to EP08718162A priority Critical patent/EP2145157A1/en
Publication of WO2008138670A1 publication Critical patent/WO2008138670A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera

Definitions

  • the present invention relates to a method for displaying video images in a means of transport and to a video system for carrying out the method.
  • the display has become more and more accurate and realistic in recent years, which has been made possible by the increasing performance of the microprocessors used in the systems for the graphics calculations.
  • navigation systems for motor vehicles are already known, which offer three-dimensional or perspective representations of inner cities. For example, this already allows a virtual departure of a calculated route during the trip preparation, in order to prevent possible confusion of the driver in difficult driving situations.
  • the graphic representation for the virtual departure must convey a realistic impression.
  • the current aircraft position and other information about the flight such as the altitude, the speed of the flight. speed, temperature and / or past or future time of flight.
  • the aircraft position is visualized not only by an indication of location coordinates, but often by arranging an aircraft symbol on a map of the flight area shown below.
  • map presentations When visualizing in the multimedia systems of the aircraft, the passengers expect map presentations whose elements can be recognized easily and quickly when looking out the window. Thus, more accurate and realistic views of map representations are required.
  • the following method steps are provided: acquisition of image data by a video camera arranged in the means of transport, determination of current position data of the means of transport, determination of object data from a database and linking of the acquired image data, the determined one Position data and the determined object data such that display data is generated in which additional information is inserted from the database in the video display.
  • tenbank are determined to objects that are shown in the corresponding video image.
  • a suitable combination of the object data then enables the generation of the display data.
  • the essence of the invention is not to improve the graphical representation of a virtual image with respect to the resolution and realistic view and to insert additional information in the virtual image as before, but to integrate the additional, graphically generated information into a real video image.
  • the displayed video image is thus a combination of real images with graphic image components.
  • the method is performed in real time. This allows the viewer on the video display to receive additional information about the objects he currently sees out of the means of transport.
  • the object data are determined for objects which are located in a detection space of the video camera, i. in the room in front of the video camera, which is observable by this.
  • the detection space can also be called "View Frustum”.
  • a graphical analysis of the image data is performed to recognize imaged objects.
  • graphical analysis techniques such as edge analysis, objects present in the video image can be identified.
  • the detected objects and the detected objects are compared with each other and depending on the comparison result, the detected objects and the detected objects are assigned to each other. Since in each case a plurality of objects can come into question for an assignment, it is preferably provided that the comparison is carried out on the basis of position data of the determined and the detected objects.
  • the shape, size and / or color of the determined and recognized objects are taken into account in the comparison.
  • the possible occlusion by other objects can additionally be taken into account.
  • the current specific position data of the means of transport are corrected, since a higher accuracy can be achieved by comparing the geographical data from the database with the position data of the sensors.
  • This makes it possible to recalculate the position data, in particular if these were originally determined by a satellite-based location system, for example GPS and / or Galileo, which usually has a certain degree of inaccuracy.
  • the video system 1 has at least one video camera 2, which is arranged in a means of transport (not shown) and detects an image outside the means of transport.
  • the camera 2 is either permanently installed, ie immovably installed, so that the area covered by the camera or the view frustum is immutable with respect to the traffic orientation.
  • additional sensors may be provided on the video camera 2, which detect the viewing direction of the video camera 2 with respect to the orientation of the means of transport.
  • the current position data with information about the location and the orientation of the means of transport are determined by means of position determination sensors 3.
  • position determination sensors 3 may be sensors for a satellite-based location system, for example GPS (Global Positioning System) and / or the European Galileo system.
  • speed sensors, route sensors and / or curve sensors can be provided with which the current geographical position and the orientation of the means of transport are determined.
  • the video system 1 has a memory 4, in which a database with object data is stored, which have geographical and totografic as well as any further suitable information.
  • the image data acquired with the video camera 2, the position data determined by the position sensors 3 and the object data retrievable from the memory 4 are made available to a data processing unit 5, for example a suitable microprocessor.
  • the data transmission from the video camera 2, the position sensors 3 and the memory 4 to the data processing unit 5 is indicated in the figure by corresponding arrows.
  • the actual data processing is carried out within the data processing unit 5 by a plurality of modules.
  • the current position and orientation of the means of transport is first calculated on the basis of the position data received by the position sensors 3 in the module 6.
  • the video image of the video camera 2 is evaluated. This can be done by graphical analysis methods, such as edge analysis, and objects present in the video image are identified. With the aid of the previously calculated mode of transport and information as well as knowledge of the orientation and
  • a position of the identified objects is determined.
  • the positional only be carried out with a certain accuracy.
  • the direction indication of a recognized object to the means of transport can be determined with sufficient accuracy.
  • initially only a rough approximation to the object position is required.
  • the objects detected in the video image are compared with objects to which the corresponding object data are stored in the database.
  • the first starting point for the comparison to be carried out is the object position determined in module 7 or the indication in which direction the object is to the means of transport.
  • the objects are searched for and determined, which are in the vicinity of the specific position data, and thus come as candidates for an assignment in question.
  • a correction of the position determination calculated by means of the sensor data can furthermore be carried out.
  • the direction in which detected objects are located in front of the means of transport can be determined. It is possible to deduce the current position of the means of transport from the indication of the direction and the exact position of the objects which can be read out of the memory 4 of the database stored there.
  • the display data is calculated, ie the additional information from the database is inserted into the video image provided by the video camera 2.
  • the assignment of objects in the video image to objects in the database that took place in the previous step in the module 8 plays a decisive role.
  • These objects, such as roads, waters, localities, buildings, and / or point-of-interests may be labeled with their names or designations. It is also possible to display additional information.
  • objects not recognized in the video image can be labeled because their relative position to identified objects results from the geographic database. This can be useful, for example, in the case of partial obscuration of the objects by clouds and / or fog.
  • direction indicators can be entered in the video image on assigned roads. Finally, it is also possible to trace unrecognized or recognizable edges of objects.
  • the multimedia system generally includes a plurality of such monitors 10. For example, in applications with only one monitor 10, this may be a TFT screen. If
  • Input devices are present, for example, a touch screen, an interactive output is possible. The user can thus retrieve additional information by selecting a displayed object and display on the monitor.

Abstract

The invention relates to a method for displaying video image in a means of transport, comprising the following: capturing image data by a video camera (2) disposed in the means of transportation, determining current position data of the means of transportation, determining object data from a database and linking the captured image data, the determined object data, and the determined object data such that display data are generated in which additional information from the database is added to the video image display. The invention further relates to a video system (1) for performing the method.

Description

Beschreibung description
Titeltitle
Verfahren zur Anzeige von Videobildern und VideosystemMethod for displaying video images and video system
Die vorliegende Erfindung betrifft ein Verfahren zur Anzeige von Videobildern in einem Verkehrsmittel sowie ein Videosystem zur Durchführung des Verfahrens.The present invention relates to a method for displaying video images in a means of transport and to a video system for carrying out the method.
Die Visualisierung geografischer und/oder topografischer Informationen auf geeigneten Anzeigegeräten bzw. Monitoren in Verkehrsmitteln, beispielsweise in Kraftfahr- zeugen, auf Booten und/oder in Flugzeugen, wird eine immer wichtigere Anwendung. So werden in Navigationssystemen für Kraftfahrzeuge neben der Abbildung eines Straßennetzes auch die aktuelle Position, die berechnete Route und/oder das Ziel auf einem Display angezeigt.The visualization of geographical and / or topographical information on suitable display devices or monitors in means of transport, for example in motor vehicles, on boats and / or in aircraft, is becoming an increasingly important application. Thus, in navigation systems for motor vehicles, in addition to the illustration of a road network, the current position, the calculated route and / or the destination are also displayed on a display.
Bei bekannten Systemen ist die Darstellung in den letzten Jahren immer genauer und realistischer geworden, was durch die zunehmende Leistungsfähigkeit der in den Systemen eingesetzten Mikroprozessoren für die Grafikberechnungen ermöglicht wurde. So sind bereits Navigationssysteme für Kraftfahrzeuge bekannt, die dreidimensionale bzw. perspektivische Darstellungen von Innenstädten anbieten. Dies er- möglicht beispielsweise bereits schon ein virtuelles Abfahren einer berechneten Route während der Fahrtvorbereitung, um eventuellen Verwirrungen des Fahrers in schwierigen Fahrtsituationen vorzubeugen. Für eine zuverlässige Wiedererkennbarkeit der realen Ortsgegebenheiten sicher zu stellen, muss die grafische Darstellung für das virtuelle Abfahren einen möglichst realistischen Eindruck vermitteln.In known systems, the display has become more and more accurate and realistic in recent years, which has been made possible by the increasing performance of the microprocessors used in the systems for the graphics calculations. Thus, navigation systems for motor vehicles are already known, which offer three-dimensional or perspective representations of inner cities. For example, this already allows a virtual departure of a calculated route during the trip preparation, in order to prevent possible confusion of the driver in difficult driving situations. To ensure reliable recognition of the real local conditions, the graphic representation for the virtual departure must convey a realistic impression.
Als eine weitere Anwendung ist es bekannt, auf den Bildschirmen des Multimediasystems eines Verkehrsflugzeuges während des Fluges die aktuelle Flugzeugposition und weiteren Angaben zum Flug, beispielsweise der Flughöhe, der Geschwindig- keit, die Temperatur und/oder vergangene bzw. zukünftige Flugzeit, darzustellen. Die Flugzeugposition wird dabei nicht nur durch eine Angabe von Ortskoordinaten, sondern häufig durch Anordnen eines Flugzeugsymbols auf einer darunter abgebildeten Karte des Fluggebietes visualisiert.As a further application, it is known on the screens of the multimedia system of a commercial aircraft during the flight, the current aircraft position and other information about the flight, such as the altitude, the speed of the flight. speed, temperature and / or past or future time of flight. The aircraft position is visualized not only by an indication of location coordinates, but often by arranging an aircraft symbol on a map of the flight area shown below.
Bei der Visualisierung in den Multimediasystemen der Flugzeuge erwarten die Fluggäste Kartendarstellungen, deren Elemente beim Blick aus dem Fenster einfach und schnell wieder zu erkennen sind. Es werden somit auch hier immer genauere und realistischere Ansichten der Kartendarstellungen gefordert.When visualizing in the multimedia systems of the aircraft, the passengers expect map presentations whose elements can be recognized easily and quickly when looking out the window. Thus, more accurate and realistic views of map representations are required.
Das Streben nach immer realistischer ausgestalteten Kartendarstellungen stößt jedoch an Grenzen. Einerseits wird die hierzu erforderliche Datenerfassung zunehmend kostenintensiver und andererseits wird die Auflösung der Kartendarstellung so hoch, dass kurzfristige Veränderungen in der realen Welt nicht mehr zeitnah abgebil- det werden können. Dies betrifft beispielsweise Veränderungen der Bebauung durch Neubauten, oder auch veränderte Verläufe von Flüssen und Bächen. Auch jahreszeitliche Veränderungen in Form der Laubfärbung im Herbst und/oder Schnee im Winter müssen für realistische Kartendarstellungen berücksichtigt werden.However, the pursuit of increasingly realistic map displays is reaching its limits. On the one hand, the data collection required for this purpose is becoming increasingly cost-intensive, and on the other hand, the resolution of the map display is becoming so high that short-term changes in the real world can no longer be imaged in a timely manner. This applies, for example, to changes in the development of new buildings or changes in the course of rivers and streams. Even seasonal changes in the form of deciduous autumn and / or winter snow must be considered for realistic map displays.
Mit den derzeitigen Erfassungsmethoden können allerdings solche Daten nicht innerhalb eines vernünftigen Zeit- und Kostenrahmens beschafft werden. Auch führt das benötigte relativ große Datenvolumen für die Aktualisierung der Navigationsdatenbank und das Erfordernis der relativ kurzfristigen bzw. häufig wiederholten Aktualisierung zu erheblichen Problemen und technischen Schwierigkeiten.However, with the current collection methods, such data can not be obtained within a reasonable time and cost framework. Also, the relatively large volume of data required to update the navigation database and the need for the relatively short-term or frequently-repeated update results in significant problems and technical difficulties.
Für die Führung und Steuerung eines Verkehrsmittels ist es seit längeren bekannt, der steuernden Person neben ihrer persönlichen visuellen Wahrnehmung auch Daten von entsprechenden, am Verkehrsmittel verteilt angeordneter Sensoren, beispielsweise Radar bzw. Abstandsradar, zur Verfügung zu stellen. In den letzten Jah- ren wurden immer mehr Systeme entwickelt, bei denen die Fähigkeit des Verkehrsmittels, seine Umgebung wahrzunehmen und zu interpretieren, durch einen Einsatz von Videokameras erreicht wurde. In Kraftfahrzeugen gibt es Videokameras, die beispielsweise die Funktion von Rückspiegeln übernehmen, um beim Rückwärtsfahren oder einem Einparkmanöver eine freie Sicht auf die hinter dem Fahrzeug befindliche Umgebung bereitzustellen. Ferner ist es bekannt, Videokameras auch in Fahrtrichtung einzusetzen, beispielsweise um die Nachtsicht zu verbessern oder für Spurhaltewarnsysteme. In Verkehrsflugzeugen sind oftmals Videokameras vorgesehen, die auf die unter dem Flugzeug sich befindende Landschaft gerichtet sind. Die Bildaufnahmen dieser Videokameras können dann über die Monitore des Multimediasystems in dem Verkehrsflugzeug gezeigt und wiedergegeben werden .For the guidance and control of a means of transport, it has been known for some time to provide the controlling person, in addition to his personal visual perception, with data from corresponding sensors distributed on the means of transport, for example radar or distance radar. In recent years, more and more systems have been developed in which the ability of the vehicle to perceive and interpret its environment has been achieved through the use of video cameras. In motor vehicles, there are video cameras, for example, take the function of rear-view mirrors to provide a clear view of the behind-the-vehicle environment when reversing or a parking maneuver. Furthermore, it is known to use video cameras in the direction of travel, for example, to improve night vision or lane departure warning systems. In commercial aircraft video cameras are often provided, which are directed to the underlying plane under the landscape. The images of these video cameras can then be shown and played back on the monitors of the multimedia system in the airliner.
Vor diesem Hintergrund ist es die Aufgabe der vorliegenden Erfindung, ein verbessertes Verfahren zur Visualisierung geografischer und/oder topografischer Informationen in Verkehrsmitteln anzugeben.Against this background, it is the object of the present invention to specify an improved method for visualizing geographical and / or topographical information in means of transport.
Diese Aufgabe wird durch ein Verfahren mit den Merkmalen gemäß Anspruch 1 sowie durch ein Videosystem mit den Merkmalen gemäß Anspruch 10 gelöst.This object is achieved by a method having the features according to claim 1 and by a video system having the features according to claim 10.
Bei dem erfindungsgemäßen Verfahren zur Anzeige von Videobildern in einem Ver- kehrsmittel sind folgende Verfahrensschritte vorgesehen: Erfassen von Bilddaten durch eine in dem Verkehrsmittel angeordnete Videokamera, Bestimmen von aktuellen Positionsdaten des Verkehrsmittels, Ermitteln von Objektdaten aus einer Datenbank und Verknüpfen der erfassten Bilddaten, der bestimmten Positionsdaten und der ermittelten Objektdaten derart, dass Anzeigedaten erzeugt werden, in denen in der Videobildanzeige zusätzliche Informationen aus der Datenbank eingefügt werden.In the method according to the invention for displaying video images in a means of transport, the following method steps are provided: acquisition of image data by a video camera arranged in the means of transport, determination of current position data of the means of transport, determination of object data from a database and linking of the acquired image data, the determined one Position data and the determined object data such that display data is generated in which additional information is inserted from the database in the video display.
Hierdurch ist es möglich, geografische und/oder topografische Daten aus einer Datenbank mit einer zusätzlichen Information, beispielsweise der Bezeichnung eines Objektes, der Adresse eines Gebäudes oder dem Namen eines Berges, dem Betrachter des Videobildes anzubieten. Anhand der aktuellen Position und der Kenntnis der Anordnung und Ausrichtung der Videokamera können die Objektdaten der Da- - A -This makes it possible to offer geographic and / or topographic data from a database with additional information, such as the name of an object, the address of a building or the name of a mountain, the viewer of the video image. Based on the current position and the knowledge of the arrangement and orientation of the video camera, the object data of the data - A -
tenbank zu Objekten ermittelt werden, die in dem entsprechenden Videobild dargestellt sind. Eine geeignete Verknüpfung der Objektdaten ermöglicht dann die Erzeugung der Anzeigedaten.tenbank are determined to objects that are shown in the corresponding video image. A suitable combination of the object data then enables the generation of the display data.
Der Kern der Erfindung ist es, nicht wie bisher die grafische Darstellung eines virtuellen Bildes in Bezug auf die Auflösung und realistische Ansicht zu verbessern und in dem virtuellen Bild zusätzliche Information einzufügen, sondern in einem reellen Videobild die zusätzliche, grafisch erzeugte Information zu integrieren. Erfindungsgemäß ist das angezeigte Videobild somit eine Kombination von reellen Bildern mit gra- fischen Bildbestandteilen.The essence of the invention is not to improve the graphical representation of a virtual image with respect to the resolution and realistic view and to insert additional information in the virtual image as before, but to integrate the additional, graphically generated information into a real video image. According to the invention, the displayed video image is thus a combination of real images with graphic image components.
Bevorzugt wird das Verfahren in Echtzeit durchgeführt. Hierdurch kann der Betrachter auf der Videobildanzeige zusätzliche Informationen zu den Objekten erhalten, die er gerade aus dem Verkehrsmittel heraus sieht.Preferably, the method is performed in real time. This allows the viewer on the video display to receive additional information about the objects he currently sees out of the means of transport.
Um aus der relativ großen Datenmenge der Datenbank eine Einschränkung der zu verarbeitenden Daten zu ermöglichen, ist erfindungsgemäß vorgesehen, dass in Abhängigkeit der bestimmten Positionsdaten die Objektdaten zu Objekten ermittelt werden, die sich in einem Erfassungsraum der Videokamera befinden, d.h. in dem Raum vor der Videokamera, der von dieser beobachtbar ist. Der Erfassungsraum kann auch mit „View Frustum" bezeichnet werden.In order to make it possible to limit the data to be processed from the relatively large data volume of the database, it is provided according to the invention that, depending on the specific position data, the object data are determined for objects which are located in a detection space of the video camera, i. in the room in front of the video camera, which is observable by this. The detection space can also be called "View Frustum".
Vorteilhafterweise wird eine grafische Analyse der Bilddaten durchgeführt, um abgebildete Objekte zu erkennen. Durch grafische Analyseverfahren, beispielsweise der Kantenanalyse, können in dem Videobild vorhandene Objekte identifiziert werden.Advantageously, a graphical analysis of the image data is performed to recognize imaged objects. Through graphical analysis techniques, such as edge analysis, objects present in the video image can be identified.
Bevorzugt werden die ermittelten Objekte und die erkannten Objekte miteinander verglichen und in Abhängigkeit des Vergleichsergebnisses werden die ermittelten Objekte und die erkannten Objekte einander zugeordnet. Da jeweils mehrere Objekte für eine Zuordnung in Frage kommen können, ist bevorzugt vorgesehen, dass das Vergleichen anhand von Positionsdaten der ermittelten und der erkannten Objekte durchgeführt wird.Preferably, the detected objects and the detected objects are compared with each other and depending on the comparison result, the detected objects and the detected objects are assigned to each other. Since in each case a plurality of objects can come into question for an assignment, it is preferably provided that the comparison is carried out on the basis of position data of the determined and the detected objects.
Um die eindeutige Zuordnung weiter zu verbessern, ist in vorteilhafter Weise vorgesehen, dass bei dem Vergleichen die Form, Größe und/oder Farbe der ermittelten und der erkannten Objekte berücksichtigt werden. Als weiterer Anhaltspunkt kann zusätzlich die mögliche Verdeckung durch andere Objekte berücksichtigt werden.In order to further improve the unambiguous assignment, it is advantageously provided that the shape, size and / or color of the determined and recognized objects are taken into account in the comparison. As a further clue, the possible occlusion by other objects can additionally be taken into account.
In vorteilhafter Weise ist vorgesehen, dass aufgrund der Zuordnung der ermittelten und der erkannten Objekte die aktuellen bestimmten Positionsdaten des Verkehrsmittels korrigiert werden, da durch den Vergleich der geografischen Daten aus der Datenbank mit den Positionsdaten der Sensoren eine höhere Genauigkeit erreicht werden kann. Dies ermöglicht eine Nachberechung der Positionsdaten, insbesonde- re wenn diese ursprünglich durch ein satellitengestütztes Ortungssystem, beispielsweise GPS und/oder Galileo, bestimmt wurden, denen meist ein gewisse Ungenau- igkeit innewohnt.Advantageously, it is provided that due to the assignment of the determined and the detected objects, the current specific position data of the means of transport are corrected, since a higher accuracy can be achieved by comparing the geographical data from the database with the position data of the sensors. This makes it possible to recalculate the position data, in particular if these were originally determined by a satellite-based location system, for example GPS and / or Galileo, which usually has a certain degree of inaccuracy.
In vorteilhafter Weise werden also zusätzliche Informationen Straßen, Gewässer, Ortschaften, Gebäude und/oder "Point-of-Interests" mit den entsprechenden Namen bzw. Bezeichnung in der Videobildanzeige beschriftet.Advantageously, therefore, additional information streets, waters, localities, buildings and / or "point-of-interests" are labeled with the appropriate name or name in the video display.
Nachfolgend wird die Erfindung anhand der detaillierten Beschreibung einer Ausführungsform unter Bezug auf die beigefügte Zeichnung beispielhaft näher erläutert, die eine vereinfachte Skizze des erfindungsgemäßen Videosystems zeigt.The invention will be explained in more detail by way of example with reference to the detailed description of an embodiment with reference to the attached drawing, which shows a simplified sketch of the video system according to the invention.
Das erfindungsgemäße Videosystem 1 weist zumindest eine Videokamera 2 auf, die in einem Verkehrsmittel (nicht dargestellt) angeordnet ist und ein Bild außerhalb des Verkehrsmittels erfasst. Die Kamera 2 ist entweder fest installiert, d.h. unbeweglich installiert, damit der von der Kamera erfasste Raum bzw. das View Frustum in Bezug auf die Verkehrsmittelausrichtung unveränderbar festgelegt ist. Alternativ können zusätzliche Sensoren (nicht dargestellt) an der Videokamera 2 vorgesehen sein, die die Blickrichtung der Videokamera 2 in Bezug auf die Ausrichtung des Verkehrsmittels erfassen.The video system 1 according to the invention has at least one video camera 2, which is arranged in a means of transport (not shown) and detects an image outside the means of transport. The camera 2 is either permanently installed, ie immovably installed, so that the area covered by the camera or the view frustum is immutable with respect to the traffic orientation. Alternatively, additional sensors (not shown) may be provided on the video camera 2, which detect the viewing direction of the video camera 2 with respect to the orientation of the means of transport.
Die aktuellen Positionsdaten mit Angaben zu dem Ort und zu der Ausrichtung des Verkehrsmittels werden anhand von Positionsbestimmungssensoren 3 ermittelt. Dies können Sensoren für ein Satelliten gestütztes Ortungssystem, beispielsweise GPS (Global Positioning System) und/oder das europäische Galileo-System, sein. Weiterhin können Geschwindigkeitssensoren, Streckensensoren und/oder Kurvensensoren vorgesehen sein, mit denen die aktuelle geografische Position und die Ausrichtung des Verkehrsmittels bestimmt werden.The current position data with information about the location and the orientation of the means of transport are determined by means of position determination sensors 3. These may be sensors for a satellite-based location system, for example GPS (Global Positioning System) and / or the European Galileo system. Furthermore, speed sensors, route sensors and / or curve sensors can be provided with which the current geographical position and the orientation of the means of transport are determined.
Ferner weist das erfindungsgemäße Videosystem 1 einen Speicher 4 auf, in dem eine Datenbank mit Objektdaten hinterlegt ist, die geografische und totografische sowie jede weitere geeignete Information aufweisen. Die mit der Videokamera 2 er- fassten Bilddaten, die von den Positionssensoren 3 bestimmten Positionsdaten sowie die aus dem Speicher 4 abrufbaren Objektdaten werden einer Datenverarbeitungseinheit 5, beispielsweise einem geeigneten Mikroprozessor, zur Verfügung gestellt. Die Datenübertragung von der Videokamera 2, den Positionssensoren 3 und dem Speicher 4 zu der Datenverarbeitungseinheit 5 wird in der Figur durch entspre- chende Pfeile angedeutet.Furthermore, the video system 1 according to the invention has a memory 4, in which a database with object data is stored, which have geographical and totografic as well as any further suitable information. The image data acquired with the video camera 2, the position data determined by the position sensors 3 and the object data retrievable from the memory 4 are made available to a data processing unit 5, for example a suitable microprocessor. The data transmission from the video camera 2, the position sensors 3 and the memory 4 to the data processing unit 5 is indicated in the figure by corresponding arrows.
Die eigentliche Datenverarbeitung wird innerhalb der Datenverarbeitungseinheit 5 durch mehrere Module durchgeführt. So wird zunächst anhand der von den Positionssensoren 3 empfangenen Positionsdaten in dem Modul 6 die aktuelle Position und Ausrichtung des Verkehrsmittels berechnet.The actual data processing is carried out within the data processing unit 5 by a plurality of modules. Thus, the current position and orientation of the means of transport is first calculated on the basis of the position data received by the position sensors 3 in the module 6.
In dem Modul 7 wird das Videobild der Videokamera 2 ausgewertet. Dies kann durch grafische Analyseverfahren, beispielsweise der Kantenanalyse, erfolgen und es werden im Videobild vorhandene Objekte identifiziert. Mit Hilfe der vorher berechneten Verkehrsmittelposition und -aushchtung sowie der Kenntnis über die Ausrichtung undIn the module 7, the video image of the video camera 2 is evaluated. This can be done by graphical analysis methods, such as edge analysis, and objects present in the video image are identified. With the aid of the previously calculated mode of transport and information as well as knowledge of the orientation and
Anordnung der Videokamera 2 wird eine Position der identifizierten Objekte bestimmt. Da bei Videobildern jedoch die Tiefen Information fehlt, kann die Positionsbe- stimmung nur mit einer bestimmten Genauigkeit durchgeführt werden. Die Richtungsangabe eines erkannten Objektes zu dem Verkehrsmittel ist jedoch hinreichend genau feststellbar. In diesem ersten Schritt der Bildauswertung ist allerdings zunächst nur eine grobe Annäherung an die Objektposition erforderlich.Arrangement of the video camera 2, a position of the identified objects is determined. However, as video images lack the depth information, the positional only be carried out with a certain accuracy. However, the direction indication of a recognized object to the means of transport can be determined with sufficient accuracy. In this first step of the image analysis, however, initially only a rough approximation to the object position is required.
Anschließend werden in dem Modul 8 die in dem Videobild erkannten Objekte mit Objekten verglichen, zu denen die entsprechenden Objektdaten in der Datenbasis hinterlegt sind. Der erste Ansatzpunkt für den durchzuführenden Vergleich ist die im Modul 7 bestimmte Objektposition bzw. die Angabe, in welcher Richtung sich das Objekt zu dem Verkehrsmittel befindet. In der Datenbank werden die Objekte gesucht und ermittelt, die sich in der näheren Umgebung der bestimmten Positionsdaten befinden, und somit als Kandidaten für eine Zuordnung in Frage kommen.Subsequently, in the module 8, the objects detected in the video image are compared with objects to which the corresponding object data are stored in the database. The first starting point for the comparison to be carried out is the object position determined in module 7 or the indication in which direction the object is to the means of transport. In the database, the objects are searched for and determined, which are in the vicinity of the specific position data, and thus come as candidates for an assignment in question.
Häufig wird es mehrere Objekte geben, die für ein Matching der erkannten und ermit- telten Objekte in Frage kommen. In solchen Fällen können die Farbe, die Form und/die Größe der Objekte, aber auch eine mögliche Verdeckung durch andere Objekte als zusätzliche Anhaltspunkte berücksichtigt werden.Often there will be several objects that can be used to match the detected and detected objects. In such cases, the color, shape and / or size of the objects, as well as possible obstruction by other objects may be taken into account as additional clues.
Können Objekte aus dem Videobild nicht zugeordnet werden, werden sie verworfen. Objekte, die in der geografischen Datenbank vorhanden sind und im Videobild hätten erscheinen müssen, jedoch nicht identifiziert werden konnten, können unter Umständen nachgetragen und integriert werden.If objects from the video image can not be assigned, they will be discarded. Objects that exist in the geographic database and that would have appeared in the video image but could not be identified may be added and integrated.
Anhand des in dem Modul 8 vorgenommenen Vergleichs der im Videobild erkannten Objekte und der ermittelten Objekte aus der Datenbasis kann ferner eine Korrektur der mittels der Sensordaten berechneten Positionsbestimmung durchgeführt werden. Aus der Analyse der Bilddaten in dem Modul 7 kann die Richtung bestimmt werden, in denen erkannte Objekte vor dem Verkehrsmittel sich befinden. Aus der Richtungsangabe und der genauen Position der Objekte, die aus dem Speicher 4 der dort hin- terlegten Datenbasis herauslesbar sind, kann auf die aktuelle Position des Verkehrsmittels zurück geschlossen werden. Im nächsten Schritt, der in dem Modul 9 stattfindet, werden die Anzeigedaten berechnet, d.h. die Zusatzinformationen aus der Datenbasis werden in das von der Videokamera 2 bereitgestellte Videobild eingefügt. Dabei spielt die im vorherigen Schritt in dem Modul 8 erfolgte Zuordnung von Objekten im Videobild zu Objekten in der Datenbasis eine entscheidende Rolle. Diese Objekte, beispielsweise Straßen, Gewässer, Ortschaften, Gebäude und/oder Point-of-Interests, können mit ihrem Namen bzw. Bezeichnungen beschriftet werden. Auch ist es möglich, weitere zusätzliche Informationen anzuzeigen.On the basis of the comparison of the objects recognized in the video image and the determined objects from the database, a correction of the position determination calculated by means of the sensor data can furthermore be carried out. From the analysis of the image data in the module 7, the direction in which detected objects are located in front of the means of transport can be determined. It is possible to deduce the current position of the means of transport from the indication of the direction and the exact position of the objects which can be read out of the memory 4 of the database stored there. In the next step, which takes place in the module 9, the display data is calculated, ie the additional information from the database is inserted into the video image provided by the video camera 2. In this case, the assignment of objects in the video image to objects in the database that took place in the previous step in the module 8 plays a decisive role. These objects, such as roads, waters, localities, buildings, and / or point-of-interests, may be labeled with their names or designations. It is also possible to display additional information.
Auch im Videobild nicht erkannte Objekte können beschriftet werden, da ihre relative Position zu identifizierten Objekten aus der geografischen Datenbank hervorgeht. Dies kann beispielsweise bei einer teilweisen Verdeckung der Objekte durch Wolken und/oder Nebel sinnvoll sein. Weiterhin können an zugeordneten Straßen Richtungsweiser in dem Videobild eingetragen werden. Schließlich ist es ferner möglich, nicht erkannte oder erkennbare Kanten von Objekten nachzuzeichnen.Also, objects not recognized in the video image can be labeled because their relative position to identified objects results from the geographic database. This can be useful, for example, in the case of partial obscuration of the objects by clouds and / or fog. Furthermore, direction indicators can be entered in the video image on assigned roads. Finally, it is also possible to trace unrecognized or recognizable edges of objects.
Die derart aufbereiteten Anzeigedaten werden nun auf einem Bildschirm bzw. Monitor 10 ausgegeben und angezeigt. In einem Verkehrsflugzeug weist das Multimediasystem im Allgemeinen eine Vielzahl derartiger Monitore 10 auf. Bei Anwendungen mit nur einem Monitor 10 kann dies beispielsweise ein TFT-Bildschirm sein. FallsThe thus prepared display data are now output and displayed on a screen or monitor 10. In a commercial aircraft, the multimedia system generally includes a plurality of such monitors 10. For example, in applications with only one monitor 10, this may be a TFT screen. If
Eingabegeräte vorhanden sind, beispielsweise ein touch screen, ist auch eine interaktive Ausgabe möglich. Der Anwender kann so durch Auswahl eines angezeigten Objektes zusätzliche Informationen hierzu abrufen und sich auf dem Monitor anzeigen lassen.Input devices are present, for example, a touch screen, an interactive output is possible. The user can thus retrieve additional information by selecting a displayed object and display on the monitor.
Durch die in der Figur zur Andeutung der Datenströme zwischen den einzelnen Komponenten des Videosystem 1 bzw. den einzelnen Modulen 6 bis 9 Pfeile ist klar ersichtlich, dass die Module 6 bis 9 nicht nur einmalig und streng nacheinander angewendet werden. Vielmehr kommt es zwischen ihnen zu einer Interaktivität, insbeson- dere zwischen dem Modul 7 und dem Modul 8, da neu hinzugewonnene Kenntnis von Objekten in einem Modul in dem jeweils anderen Modul erneut weiterhilft, so dass nach einem mehrfachen und iterativen Durchlaufen der Module die Zuordnung quantitativ und qualitativ verbessert werden kann. By in the figure to suggest the data streams between the individual components of the video system 1 and the individual modules 6 to 9 arrows is clearly seen that the modules 6 to 9 are not only used once and strictly one after the other. Rather, there is an interactivity between them, in particular between the module 7 and the module 8, since newly gained knowledge of objects in one module again helps in the respective other module that after a multiple and iterative run through the modules the assignment can be improved quantitatively and qualitatively.

Claims

Patentansprüche claims
1. Verfahren zur Anzeige von Videobildern in einem Verkehrsmittel mit:A method of displaying video images in a vehicle with:
Erfassen von Bilddaten durch eine in dem Verkehrsmittel angeordnete Videokamera (2), - Bestimmen von aktuellen Positionsdaten des Verkehrsmittels,Acquisition of image data by a video camera (2) arranged in the means of transport, - determination of current position data of the means of transport,
Ermitteln von Objektdaten aus einer Datenbank, und Verknüpfen der erfassten Bilddaten, der bestimmten Positionsdaten und der ermittelten Objektdaten derart, dass Anzeigedaten erzeugt werden, in denen in der Videobildanzeige zusätzliche Informationen aus der Datenbank eingefügt werden.Determining object data from a database, and linking the captured image data, the determined position data and the determined object data such that display data is generated in which additional information is inserted from the database in the video image display.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass das Verfahren in Echtzeit durchgeführt wird.2. The method according to claim 1, characterized in that the method is carried out in real time.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass in Abhängigkeit der bestimmten Positionsdaten die Objektdaten zu Objekten ermittelt werden, die sich in einem Erfassungsraum der Videokamera befinden.3. The method of claim 1 or 2, characterized in that the object data are determined to objects that are located in a detection space of the video camera depending on the particular position data.
4. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeich- net, dass eine grafische Analyse der Bilddaten durchgeführt wird, um abgebildete Objekte zu erkennen.4. Method according to one of the preceding claims, characterized in that a graphic analysis of the image data is performed in order to recognize imaged objects.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die ermittelten Objekte und die erkannten Objekte miteinander verglichen werden und in Ab- hängigkeit des Ergebnisses die ermittelten Objekte und die erkannten Objekte einander zugeordnet werden. 5. The method according to claim 4, characterized in that the determined objects and the detected objects are compared with one another and, depending on the result, the determined objects and the detected objects are assigned to one another.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass das Vergleichen anhand von Positionsdaten der ermittelten und der erkannten Objekte durchgeführt wird.6. The method according to claim 5, characterized in that the comparison is carried out on the basis of position data of the detected and the detected objects.
7. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass bei dem Vergleichen die Form, Größe und/oder Farbe der ermittelten und der erkannten Objekte berücksichtigt werden.7. The method according to claim 5 or 6, characterized in that in the comparison, the shape, size and / or color of the detected and the detected objects are taken into account.
8. Verfahren nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass aufgrund der Zuordnung der ermittelten und der erkannten Objekte die aktuellen bestimmten Positionsdaten des Verkehrsmittels korrigiert werden.8. The method according to any one of claims 5 to 7, characterized in that due to the assignment of the determined and the detected objects, the current specific position data of the means of transport are corrected.
9. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass als zusätzliche Informationen Straßen, Gewässer, Ortschaften, Ge- bäude und/oder Point-of-Interests mit dem entsprechenden Namen bzw. Bezeichnung beschriftet werden.9. The method according to any one of the preceding claims, characterized in that as additional information roads, waters, towns, buildings and / or point of interests are labeled with the corresponding name or name.
10. Videosystem für ein Verkehrsmittel mit: mindestens einer Videokamera (2) zur Erfassung von Bilddaten, - mindestens einem Positionssensor (3) zur Bestimmung von aktuellen10. Video system for a means of transport comprising: at least one video camera (2) for acquiring image data, - at least one position sensor (3) for determining current
Positionsdaten des Verkehrsmittels, einem Speicher (4), in dem eine Datenbank mit Objektdaten hinterlegt ist, einer Datenverarbeitungseinheit (5), die eingerichtet ist, die erfassten Bilddaten, die aktuellen Positionsdaten und die ermittelten Objektdaten zu verknüpfen, um Anzeigedaten zu erzeugen, in denen in einer Videobildanzeige zusätzliche Informationen aus der Datenbank eingefügt sind, und mindestens einem Monitor (10) zur Ausgabe der Anzeigedaten. Position data of the means of transport, a memory (4) in which a database of object data is stored, a data processing unit (5) arranged to combine the acquired image data, the current position data and the detected object data to generate display data in which in a video image display additional information from the database is inserted, and at least one monitor (10) for outputting the display data.
PCT/EP2008/053471 2007-05-14 2008-03-25 Method for displaying video images and video system WO2008138670A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP08718162A EP2145157A1 (en) 2007-05-14 2008-03-25 Method for displaying video images and video system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE200710022588 DE102007022588A1 (en) 2007-05-14 2007-05-14 Method for displaying video images and video systems
DE102007022588.3 2007-05-14

Publications (1)

Publication Number Publication Date
WO2008138670A1 true WO2008138670A1 (en) 2008-11-20

Family

ID=39434145

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2008/053471 WO2008138670A1 (en) 2007-05-14 2008-03-25 Method for displaying video images and video system

Country Status (3)

Country Link
EP (1) EP2145157A1 (en)
DE (1) DE102007022588A1 (en)
WO (1) WO2008138670A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2185894A1 (en) * 2007-08-07 2010-05-19 Palm, Inc. Displaying image data and geographic element data
US9329052B2 (en) 2007-08-07 2016-05-03 Qualcomm Incorporated Displaying image data and geographic element data

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011084596A1 (en) 2011-10-17 2013-04-18 Robert Bosch Gmbh Method for assisting a driver in a foreign environment
DE102015226178A1 (en) 2015-12-21 2017-06-22 Bayerische Motoren Werke Aktiengesellschaft Method and mobile device for displaying a geographic area representation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0867690A1 (en) * 1997-03-27 1998-09-30 Nippon Telegraph And Telephone Corporation Device and system for labeling sight images
US6208353B1 (en) * 1997-09-05 2001-03-27 ECOLE POLYTECHNIQUE FEDéRALE DE LAUSANNE Automated cartographic annotation of digital images
WO2005038402A1 (en) * 2003-10-21 2005-04-28 Waro Iwane Navigation device
US20060195858A1 (en) * 2004-04-15 2006-08-31 Yusuke Takahashi Video object recognition device and recognition method, video annotation giving device and giving method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005124594A1 (en) * 2004-06-16 2005-12-29 Koninklijke Philips Electronics, N.V. Automatic, real-time, superimposed labeling of points and objects of interest within a view

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0867690A1 (en) * 1997-03-27 1998-09-30 Nippon Telegraph And Telephone Corporation Device and system for labeling sight images
US6208353B1 (en) * 1997-09-05 2001-03-27 ECOLE POLYTECHNIQUE FEDéRALE DE LAUSANNE Automated cartographic annotation of digital images
WO2005038402A1 (en) * 2003-10-21 2005-04-28 Waro Iwane Navigation device
US20060195858A1 (en) * 2004-04-15 2006-08-31 Yusuke Takahashi Video object recognition device and recognition method, video annotation giving device and giving method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2145157A1 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2185894A1 (en) * 2007-08-07 2010-05-19 Palm, Inc. Displaying image data and geographic element data
EP2185894A4 (en) * 2007-08-07 2012-05-02 Hewlett Packard Development Co Displaying image data and geographic element data
US8994851B2 (en) 2007-08-07 2015-03-31 Qualcomm Incorporated Displaying image data and geographic element data
US9329052B2 (en) 2007-08-07 2016-05-03 Qualcomm Incorporated Displaying image data and geographic element data

Also Published As

Publication number Publication date
EP2145157A1 (en) 2010-01-20
DE102007022588A1 (en) 2008-11-27

Similar Documents

Publication Publication Date Title
EP2769373B1 (en) Acquisition of data from image data-based map services by an assistance system
DE102016117659B4 (en) DRIVING SUPPORT DEVICE
DE112008003424B4 (en) Navigation device using video images from a camera
DE102011118161B3 (en) Method for determining position
DE102010042063A1 (en) Method for determining conditioned image data about environment of motor car, involves conditioning position-related image with symbol to determine conditioned image data, where symbol is assigned to classified object in image
DE10138719A1 (en) Method and device for displaying driving instructions, especially in car navigation systems
DE102013114928B4 (en) Device and method for processing road data
DE202005021607U1 (en) Navigation device with camera information
DE69815940T2 (en) Method and arrangement for displaying information in the form of a map for vehicle navigation devices
EP1519152A1 (en) Device and method for displaying driving instructions
DE102010007091A1 (en) Method for determining the position of a motor vehicle
WO2019007605A1 (en) Method for verifying a digital map in a more highly automated vehicle, corresponding device and computer program
DE60121944T2 (en) METHOD AND DEVICE FOR DISPLAYING NAVIGATION INFORMATION IN REAL-TIME OPERATION
WO2009149960A1 (en) Method for combined output of an image and a piece of local information and corresponding motor vehicle
WO2021110412A1 (en) Display method for displaying a surroundings model of a vehicle, computer program, controller, and vehicle
WO2008138670A1 (en) Method for displaying video images and video system
EP2813999A2 (en) Augmented reality system and method of generating and displaying augmented reality object representations for a vehicle
DE102008043756B4 (en) Method and control unit for providing traffic sign information
EP1832848B1 (en) Method and system for displaying a section of a digital map
DE102017215868A1 (en) Method and device for creating a map
EP1283406A2 (en) Image processing apparatus for a vehicle and method for the same
WO2013056954A1 (en) Method for assisting a driver in a foreign environment
DE602004009975T2 (en) Driver assistance system for motor vehicles
DE102010042314A1 (en) Method for localization with a navigation system and navigation system thereto
DE102018121274B4 (en) Process for visualizing a driving intention, computer program product and visualization system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08718162

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008718162

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2010507863

Country of ref document: JP