DE102011082881A1 - Method for representing surroundings of vehicle e.g. motor vehicle e.g. car, involves transforming primary image information into secondary image information corresponding to panoramic view using spatial information - Google Patents
Method for representing surroundings of vehicle e.g. motor vehicle e.g. car, involves transforming primary image information into secondary image information corresponding to panoramic view using spatial information Download PDFInfo
- Publication number
- DE102011082881A1 DE102011082881A1 DE102011082881A DE102011082881A DE102011082881A1 DE 102011082881 A1 DE102011082881 A1 DE 102011082881A1 DE 102011082881 A DE102011082881 A DE 102011082881A DE 102011082881 A DE102011082881 A DE 102011082881A DE 102011082881 A1 DE102011082881 A1 DE 102011082881A1
- Authority
- DE
- Germany
- Prior art keywords
- image information
- image
- information
- vehicle
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/245—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
Die Erfindung betrifft ein Verfahren zum Darstellen der Umgebung eines Kraftfahrzeugs in einer bestimmten Ansicht. Ferner betrifft die Erfindung ein entsprechendes System zur Darstellung der Umgebung.The invention relates to a method for representing the environment of a motor vehicle in a particular view. Furthermore, the invention relates to a corresponding system for displaying the environment.
Aus dem Stand der Technik sind kamerabasierte Systeme zur Darstellung der Fahrzeugumgebung bekannt, die Bildinformation einer Kamera oder mehrerer, an unterschiedlichen Positionen des Fahrzeugs verbauter Kameras mittels Bildverarbeitung in einer für den Fahrer besonders übersichtlichen Ansicht, beispielsweise in eine Ansicht von oben, transformieren und darstellen. Bei der Verwendung mehrerer Kameras wird die Bildinformation dieser Kameras perspektivisch transformiert und dann diese Teilansichten zu einer Gesamtansicht zusammengefügt. Beispielsweise werden die beiden Bilder auf der rechten und der linken Fahrzeugseite befindlicher Außenspiegelkameras und das Bild einer Heckkamera perspektivisch zu einer Aufsicht transformiert und anschließend die sich durch die Transformation ergebenden Teilansichten zu einer Gesamtansicht aneinandergefügt, beispielsweise zu einer 270° oder 360° der Umgebung umfassenden Gesamtansicht. Das Aneinanderfügen einzelner Bilder zu einer Gesamtansicht wird auch als Image-Stitching bezeichnet.Camera-based systems for displaying the vehicle surroundings are known from the prior art, which transform and display image information of a camera or several cameras installed at different positions of the vehicle by means of image processing in a view which is particularly clear to the driver, for example in a view from above. When using multiple cameras, the image information of these cameras is transformed in perspective and then these partial views are combined to form an overall view. For example, the two images on the right and left side of the vehicle exterior mirror cameras and the image of a rear camera are transformed perspective to a plan view and then joined together by the resulting partial views to form an overall view, for example, to a 270 ° or 360 ° of the surrounding comprehensive view , The joining of individual images to an overall view is also referred to as image stitching.
Um Bilder aus unterschiedlichen Kamerapositionen fehlerfrei aneinanderzufügen, sollte typischerweise im Rahmen der Bildtransformation die Perspektive für sämtliche Kamerabilder auf ein identisches Projektionszentrum umgerechnet werden, beispielsweise auf einen Projektionszentrum direkt über dem Fahrzeug.In order to combine images from different camera positions without error, the perspective for all camera images should typically be converted to an identical projection center as part of the image transformation, for example to a projection center directly above the vehicle.
Bei der Transformation der Bildinformation wird in konventionellen Systemen im Allgemeinen die vereinfachende Annahme getroffen, dass sich alle Objekte innerhalb des Kamerabildes in einer Ebene, typischerweise der Fahrbahnebene, befinden. Erhabene Objekte, die in der Realität aus der Ebene heraustreten oder sich über der Ebene befindet, werden bei der Transformation aufgrund dieser Vereinfachung mit zunehmender Höhe immer stärker versetzt und damit im Ausgangsbild an falscher Position abgebildet. Besonders augenfällig wird dieses Artefakt beim Aneinanderfügen (Image-Stitching) von Bildern mehrerer Kameras. Im Übergangsbereich zwischen zwei Kamerabildern können erhabene Objekte vollständig verschwinden oder doppelt angezeigt werden.In the transformation of image information, conventional systems generally adopt the simplifying assumption that all objects within the camera image are in one plane, typically the roadway plane. Sublime objects, which in reality emerge from the plane or are above the plane, are increasingly displaced with increasing height during the transformation due to this simplification, and are therefore mapped in the original image in the wrong position. This artifact becomes particularly noticeable when joining images of several cameras together (image stitching). In the transition area between two camera images, raised objects can disappear completely or be displayed twice.
Aus der Druckschrift
Aus der Druckschrift
Inder Druckschrift
Aus der Druckschrift
Es ist Aufgabe der Erfindung, ein alternatives Verfahren zum Darstellen der Umgebung eines Kraftfahrzeugs anzugeben, welches eine möglichst fehlerfreie Darstellung von erhabenen Objekten erlaubt.It is an object of the invention to provide an alternative method for representing the environment of a motor vehicle, which allows the most error-free representation of raised objects.
Die Aufgabe wird durch die Merkmale der unabhängigen Patentansprüche gelöst. The object is solved by the features of the independent claims.
Ein Aspekt der Erfindung betrifft ein Verfahren zum Darstellen der Umgebung des Kraftfahrzeugs in einer bestimmten Ansicht in einem Kraftfahrzeug, beispielsweise zum Darstellen des Kraftfahrzeugs in einer Ansicht von oben.One aspect of the invention relates to a method for representing the surroundings of the motor vehicle in a specific view in a motor vehicle, for example for representing the motor vehicle in a view from above.
Bei dem Verfahren werden erste Bildinformation der Umgebung eines Kraftfahrzeugs mit zumindest einer Fahrzeug-Kamera eines ein oder mehrere Kameras umfassenden Fahrzeug-Kamerasystems erfasst. Beispielsweise werden hierfür zwei Kameras verwendet.In the method, first image information of the surroundings of a motor vehicle is detected with at least one vehicle camera of a vehicle camera system comprising one or more cameras. For example, two cameras are used for this purpose.
Bei dem Verfahren wird räumliche Information, beispielsweise Tiefeninformation (d. h. Abstandsinformation) oder räumliche Koordinaten, in Bezug auf die aufgenommene erste Bildinformation bestimmt. Die Erzeugung der räumlichen Information erfolgt vorzugsweise durch das Kamera-System selbst. Die Erzeugung der räumlichen Information erfolgt beispielsweise durch ein Stereo-Triangulationsverfahren, wobei die Bilder mindestens zweier Kameras, bei denen die Bildfelder überlappen, ausgewertet werden. Stattdessen lassen sich aber auch andere Verfahren, wie beispielsweise ein aktives Triangulationsverfahren, verwenden.In the method, spatial information, such as depth information (i.e., distance information) or spatial coordinates, is determined with respect to the captured first image information. The spatial information is preferably generated by the camera system itself. The spatial information is generated, for example, by a stereo triangulation method, the images of at least two cameras in which the image fields overlap being evaluated. Instead, however, other methods, such as an active triangulation method, can be used.
Unter Verwendung der räumlichen Information wird die erste Bildinformation in zweite Bildinformation entsprechend der gewünschten Ansicht transformiertUsing the spatial information, the first image information is transformed into second image information corresponding to the desired view
Schließlich wird die Umgebung des Kraftfahrzeugs in der gewünschten Ansicht basierend auf der zweiten Bildinformation dargestellt. Es kann insbesondere auch zweite Bildinformation für die Mehrzahl von Richtungen zusammengefügt werden und diese Zusammenfügung dargestellt werden.Finally, the environment of the motor vehicle is displayed in the desired view based on the second image information. In particular, second image information for the plurality of directions can also be put together and this combination displayed.
Die Erfindung ermöglicht durch die Berücksichtigung räumlicher Information eine realitätsgetreue perspektivische Transformation der Bildinformation. Dies erlaubt eine fehlerfreie Aneinanderfügung bei der Erzeugung einer Gesamtansicht aus mehreren Teilansichten.By considering spatial information, the invention enables a realistic perspective transformation of the image information. This allows a faultless joining together when creating an overall view of several partial views.
Bei der dargestellten Ansicht kann es sich um eine Sicht von oben handeln (beispielsweise um eine orthogonale Sicht von oben mit einer zur Fahrbahnebene orthogonalen virtuellen Kamera-Richtung, was auch als Aufsicht bezeichnet wird, oder alternativ von schräg oben). Hierbei können mehrere Teilansichten aus einer virtuellen Kamera-Sicht von oben zu einer Gesamtansicht von oben zusammengefügt werden.The view shown may be a view from above (for example, an orthogonal view from above with a virtual camera direction orthogonal to the road plane, which is also referred to as a plan view, or alternatively from obliquely above). Here you can combine several partial views from a virtual camera view from the top to a general view from the top.
Alternativ kann auch eine Gesamtansicht aus mehreren Teilansichten erzeugt werden, bei der die virtuelle Kamera parallel zu Fahrbahnebene angeordnet ist, und die Teilansichten aus unterschiedlichen Umgebungsrichtungen zu einer Panorama-Ansicht aneinandergefügt werden.Alternatively, an overall view can also be generated from a plurality of partial views, in which the virtual camera is arranged parallel to the road surface, and the partial views from different directions of the surroundings are joined together to form a panoramic view.
Es ist von Vorteil, wenn zur Bestimmung der räumlichen Information zumindest eine Kamera oder gar mehrere Kameras des Kameras-Systems verwendet werden.It is advantageous if at least one camera or even several cameras of the camera system are used to determine the spatial information.
Vorzugsweise wird zur Bestimmung der räumlichen Information ein passives Triangulationsverfahren verwendet, welches auf der Auswertung von mindestens zwei Bildern aus mindestens zwei unterschiedlichen Kamerapositionen beruht. Dazu wird zum Aufnehmen der ersten Bildinformation ein erstes Bild aus einer ersten Kameraposition aufgenommen. Außerdem wird zum Aufnehmen der ersten Bildinformation ein zweites Bild aus einer zweiten Kameraposition aufgenommen. Der aufgenommene Umgebungsbereich des ersten Bildes und der aufgenommene Umgebungsbereich des zweiten Bildes überlappen zumindest teilweise. Vorzugsweise werden das erste Bild mit einer ersten Kamera aufgenommen und das zweite Bild mit einer zweiten Kamera aufgenommen. Es wäre auch denkbar, eine einzige Kamera zur Aufnahme der beiden Bilder zu verwenden, die beispielsweise verfahrbar ist.Preferably, a passive triangulation method is used to determine the spatial information, which is based on the evaluation of at least two images from at least two different camera positions. For this purpose, a first image from a first camera position is recorded to record the first image information. In addition, to capture the first image information, a second image is taken from a second camera position. The recorded surrounding area of the first image and the recorded surrounding area of the second image overlap at least partially. Preferably, the first image is taken with a first camera and the second image is taken with a second camera. It would also be conceivable to use a single camera for recording the two images, which can be moved, for example.
Bei einer alternativen Ausführungsform kann ein aktives Triangulationsverfahren verwendet werden, bei dem beispielsweise mit einer als Sensor fungierenden Kamera des Kamera-Systems ein von der Szene reflektiertes Lichtsignal von einer zusätzlichen Lichtquelle, beispielsweise von einem Laser oder einer LED-Lichtquelle, aufgenommen wird.In an alternative embodiment, an active triangulation method may be used in which, for example, with a camera of the camera system functioning as a sensor, a light signal reflected by the scene is picked up by an additional light source, for example a laser or an LED light source.
Bei der räumlichen Information kann es sich beispielsweise um Tiefeninformation (d. h. Abstandsinformation) oder um Raumkoordinaten handeln.The spatial information may be, for example, depth information (i.e., distance information) or spatial coordinates.
Vorzugsweise werden beim Bestimmen der räumlichen Information Raumkoordinaten für Bildpunkte der ersten Bildinformation bestimmt. Die Raumkoordinaten können beispielsweise mit einem Triangulationsverfahren direkt bestimmt werden. Alternativ wird mit einem Triangulationsverfahren zunächst Tiefeninformation (d. h. Abstandsinformation) bestimmt, wobei mit Hilfe der Abstandsinformation dann Raumkoordinaten für Bildpunkte der ersten Bildinformation berechnet werden.Preferably, spatial coordinates for pixels of the first image information are determined when determining the spatial information. The spatial coordinates can be determined directly, for example, using a triangulation method. Alternatively, depth information (i.e., distance information) is first determined by a triangulation method, and spatial information for pixels of the first image information is then calculated using the distance information.
Die Verknüpfung der ersten Bildinformation mit den Raumkoordinaten entspricht dreidimensionaler Bildinformation, d. h. einem dreidimensionalen Bild. Die dreidimensionale Bildinformation beschränkt sich typischerweise auf eine gewisse Fläche im Raum (dies wird in der Literatur auch häufig als 2½ dimensionale Information bezeichnet) und es ist keine dreidimensionale Bildinformation für sämtliche Raumpunkte des Raumes wie bei einem Computer-Tomographen vorhanden.The linking of the first image information with the spatial coordinates corresponds to three-dimensional image information, ie a three-dimensional image. The three-dimensional image information is typically confined to a certain area in space (this is often referred to in the literature as 2½-dimensional information) and it is no three-dimensional image information for all spatial points of space as in a computer tomograph available.
Bei der Transformation der ersten Bildinformation in zweite Bildinformation wird vorzugsweise mittels dreidimensionaler Projektion virtuell die Position der Kamera (d. h. das Projektionszentrum) entsprechend der gewünschten Ansicht geändert.In the transformation of the first image information into second image information, the position of the camera (i.e., the projection center) is changed virtually according to the desired view, preferably by means of three-dimensional projection.
Zum Transformieren der ersten Bildinformation in zweite Bildinformation wird die dreidimensionale Bildinformation in die zweite Bildinformation unter Änderung des Projektionszentrums projiziert. Die dreidimensionale Bildinformation wird also in eine einem neuen Projektionszentrum zugehörige zweidimensionale Bildebene projiziert. Die sich hierbei ergebende zweite Bildinformation entspricht einem zweidimensionalen Bild in einer zweidimensionalen Ebene. Die Projektion wird beispielsweise in der Weise umgesetzt, dass die Position der Objektpunkte in der Szene relativ zum neuen Projektionszentrum (beispielsweise über dem Fahrzeug) in Bezug gesetzt wird und eine vorhandene Drehung der Koordinatensysteme zueinander mittels Rotationsmatrizen berücksichtigt wird. Abhängig von der Position des Betrachters zu diesem neuen Projektionszentrum wird dann die dreidimensionale Szenerie (die nun in Koordinaten relativ zum Projektionszentrum vorliegt) in eine zweidimensionale Ebene projiziert.For transforming the first image information into second image information, the three-dimensional image information is projected into the second image information by changing the projection center. The three-dimensional image information is thus projected into a two-dimensional image plane associated with a new projection center. The resulting second image information corresponds to a two-dimensional image in a two-dimensional plane. The projection is implemented, for example, in such a way that the position of the object points in the scene is related relative to the new projection center (for example above the vehicle) and an existing rotation of the coordinate systems relative to one another by means of rotation matrices is taken into account. Depending on the position of the observer to this new projection center then the three-dimensional scenery (which is now in coordinates relative to the projection center) is projected into a two-dimensional plane.
Bei einer bevorzugten Ausführungsform, bei der aus einer Mehrzahl von Teilansichten eine Gesamtansicht durch Image-Stitching erzeugt wird, wird für eine Mehrzahl von Teilansichten jeweils erste Bildinformation aufgenommen. Zumindest für eine Teilansicht wird räumliche Information hinsichtlich der jeweiligen ersten Bildinformation bestimmt. Für jede der Mehrzahl von Teilansichten wird jeweils die erste Bildinformation in zweite Bildinformation transformiert, wobei dies zumindest für eine Teilansicht unter Verwendung der entsprechenden räumlichen Information durch eine dreidimensionale Projektion erfolgt. Die dreidimensionale Projektion kann mehrmals für sämtliche Teilansichten durchgeführt werden. Dies ist jedoch nicht zwingend notwendig; beispielsweise kann die dreidimensionale Projektion nur für ein oder mehrere Teilansichten erfolgen, die ein erhabenes Objekt umfassen. Die Projektion erfolgt für die einzelnen Teilansichten so, dass die sich ergebende Bildinformation für alle Teilansichten das gleiche Projektionszentrum aufweist. Die den einzelnen Teilansichten zugeordnete zweite Bildinformation wird aneinandergefügt und die Aneinanderfügung wird dargestellt.In a preferred embodiment, in which an overall view is generated by image stitching from a plurality of partial views, first image information is recorded in each case for a plurality of partial views. At least for a partial view, spatial information regarding the respective first image information is determined. For each of the plurality of partial views, in each case the first image information is transformed into second image information, this taking place at least for a partial view using the corresponding spatial information by a three-dimensional projection. The three-dimensional projection can be performed several times for all partial views. However, this is not absolutely necessary; For example, the three-dimensional projection can only take place for one or more partial views that comprise a raised object. The projection takes place for the individual partial views in such a way that the resulting image information has the same projection center for all partial views. The second image information assigned to the individual partial views is joined together and the joining is displayed.
Da das Projektionszentrum vorzugsweise für alle Teilansichten, die anschließend zu einer Gesamtansicht zusammengefügt werden, identisch gewählt wird, lassen sich die einzelnen Teilansichten artefaktfrei zu einer Gesamtansicht aneinanderfügen.Since the projection center is preferably selected identically for all partial views that are subsequently joined together to form an overall view, the individual partial views can be joined together in an artifact-free manner to form an overall view.
Ein zweiter Aspekt der Erfindung betrifft ein System zum Darstellen der Umgebung des Kraftfahrzeugs in einer bestimmten Ansicht, beispielsweise in einer Ansicht von oben. Das System umfasst ein Fahrzeug-Kamerasystem mit einer oder mehrerer Fahrzeug-Kameras. Das Fahrzeug-Kamerasystem ist eingerichtet, erste Bildinformation der Umgebung eines Kraftfahrzeugs mit zumindest einer Fahrzeug-Kamera aufzunehmen. Ferner sind Mittel zum Bestimmen von räumlicher Information hinsichtlich der aufgenommenen ersten Bildinformation vorhanden. Das System ist ferner zum Transformieren der ersten Bildinformation unter Verwendung der räumlichen Information in für die bestimmte Ansicht passende zweite Bildinformation eingerichtet. Ferner weist das System Mittel zum Darstellen der Umgebung des Kraftfahrzeugs in der bestimmten Ansicht basierend auf der zweiten Bildinformation auf.A second aspect of the invention relates to a system for representing the environment of the motor vehicle in a particular view, for example in a view from above. The system includes a vehicle camera system with one or more vehicle cameras. The vehicle camera system is set up to record first image information of the surroundings of a motor vehicle with at least one vehicle camera. Furthermore, there are means for determining spatial information with regard to the recorded first image information. The system is further adapted to transform the first image information using the spatial information in second image information appropriate for the particular view. Further, the system includes means for displaying the environment of the motor vehicle in the particular view based on the second image information.
Die vorstehenden Ausführungen zum erfindungsgemäßen Verfahren nach dem ersten Aspekt der Erfindung gelten in entsprechender Weise auch für das erfindungsgemäße System nach dem zweiten Aspekt der Erfindung.The above statements on the method according to the invention according to the first aspect of the invention also apply correspondingly to the system according to the invention according to the second aspect of the invention.
Die Erfindung wird nachfolgend unter Zuhilfenahme auf die beigefügten Zeichnungen anhand eines Ausführungsbeispiels beschrieben. In diesen zeigen:The invention will be described below with reference to the accompanying drawings with reference to an embodiment. In these show:
Besonders augenfällig wird dieser Darstellungsfehler beim Aneinanderfügen von in ihrer Perspektive transformierten Bildern mehrerer Kameras. Im Übergangsbereich zwischen zwei Kamerabildern können erhabene Objekte vollständig verschwinden oder doppelt angezeigt werden, da der vorstehend beschriebene Fehler für beide Kamerabilder gegenläufig ist. Dies wird im Folgenden anhand eines Beispiels erläutert.This misrepresentation becomes particularly obvious when joining images of several cameras that have been transformed in their perspective. In the transition region between two camera images, raised objects can disappear completely or be displayed twice, since the error described above is opposite for both camera images. This will be explained below with reference to an example.
Die Bilder der beiden Kameras
In
Fehler in der Darstellung erhabener Objekte, welche beim Aneinanderfügen mehrerer Bilder besonders augenfällig sind, werden erfindungsgemäß dadurch vermieden, dass räumliche Information der Szenerie, insbesondere über das Kamerasystem selbst erzeugt wird, und diese Information bei der Bildtransformation verwendet wird. Die Bestimmung der räumlichen Information kann insbesondere durch Vorsehen eines hinreichenden Überlapps der Bildfelder von mindestens zwei Kameras geschehen. Der Überlapp lässt sich nutzen, um anhand gängiger passiver Stereo-Triangulations-Verfahren eine Tiefenkarte der Szenerie oder die dreidimensionale Koordinaten für die aufgenommenen Bildpunkte zu erzeugen. Ebenso ließe sich bei Verwendung einer zusätzlichen Beleuchtungseinheit ein aktives Triangulationsverfahren anwenden, um die räumliche Information zu generieren. Außerdem könnte die räumliche Information mittels eines Laufzeitverfahrens (time of flight) oder anderer Verfahren bestimmt werden.Errors in the representation of raised objects, which are particularly obvious when joining several images together, are avoided according to the invention in that spatial information of the scene, in particular via the camera system itself, is generated, and this information is used in the image transformation. The determination of the spatial information can be done in particular by providing a sufficient overlap of the image fields of at least two cameras. The overlap can be used to generate a depth map of the scenery or the three-dimensional coordinates for the captured pixels using common passive stereo triangulation techniques. Likewise, using an additional illumination unit, an active triangulation technique could be used to generate the spatial information. In addition, the spatial information could be determined by a time of flight method or other method.
In
-
1. Aufnahme zweier zweidimensionaler Bilder aus unterschiedlichen Kamerapositionen (s. Schritte
100 und110 ) 1. Take two two-dimensional images from different camera positions (seesteps 100 and110 ) -
2. Bestimmen räumlicher Information, insbesondere Bestimmen von Raumkoordinaten, mittels eines Stereo-Triangulationsverfahrens (s. Schritt
120 )2. Determining spatial information, in particular determining spatial coordinates, by means of a stereo triangulation method (see step120 ) -
3. Assoziieren der aufgenommenen zweidimensionalen Bildinformation (d. h. der Helligkeits- und/oder Farbinformation) mit räumlicher Information, insbesondere mit dreidimensionalen Raumkoordinaten, so dass sich aus der Verknüpfung eine dreidimensionale Bildinformation ergibt (s. Schritt
130 )3. associating the acquired two-dimensional image information (ie the brightness and / or color information) with spatial information, in particular with three-dimensional space coordinates, so that the linkage results in three-dimensional image information (see step130 ) -
4. Projektion der dreidimensionalen Bildinformation auf eine zweidimensionale Projektionsebene ausgehend von einem neuen Prejektionszentrum (s. Schritt
140 )4. Projection of the three-dimensional image information on a two-dimensional projection plane starting from a new Prejektionszentrum (see step140 )
In den Schritten
Anhand der in den Schritten
Alternativ kann zur Bestimmung von räumlicher Information statt eines Stereo-Triangulationsverfahren auch ein alternatives Verfahren zur Generierung von räumlicher Information verwendet werden, beispielsweise ein aktives Triangulationsverfahren oder elf Time-of-Flight-Verfahren. Bei einem aktiven Triangulationsverfahren wird mit einer Lichtquelle, beispielsweise einem Laser oder einer LED-Lichtquelle, ein bestimmtes Lichtmuster (beispielsweise Streifen) ausgestrahlt, dessen Reflektion mit einem Sensor, beispielsweise einer Kamera des Kamerasystems, detektiert wird, woraus sich wiederum über bekannte Verfahren der Objektabstand triangulieren lässt. Time-of-Flight hingegen ist ein Laufzeitverfahren, d. h. die Laufzeit des vom Sensor ausgesandten und vom Objekt reflektierten Lichts wird bestimmt, um daraus die Entfernung zu bestimmen. Beide Verfahren sind in der gängigen Literatur beschrieben, beispielsweise in
In Schritt
In Schritt
Vorstehend wurde eine perspektivische Transformation von überlappender Bildinformation zweier Kameras unter Verwendung von räumlicher Information beschrieben. Zur Erzeugung einer Gesamtansicht aus mehreren Teilansichten können die vorstehend beschriebenen Schritte für die einzelnen Teilansichten durchgeführt werden, d. h. pro Teilansicht wird die überlappende Bildinformation zweier Kameras unter Verwendung von räumlicher Information in eine zweidimensionale Bildinformation mit geändertem Projektionszentrum transformiert. Hierbei wird das Projektionszentrum für alle Teilansichten identisch gewählt. Für die Teilansichten kann jedoch eine unterschiedliche Verkippung der virtuellen Kamera verwendet werden. Bei Verwendung des gleichen Projektionszentrums lassen sich die korrekt projizierten Teilansichten artefaktefrei zu einer Gesamtansicht aneinanderfügen. Beispielsweise können, wie in
Bei fehlender räumlicher Information lässt sich die Bildtransformation mit Änderung der Kamera-Position nur dann durchführen, wenn vereinfachte Annahmen getroffen werden. Typischerweise wird dann nämlich angenommen, dass sich die Szene vollständig in einer Ebene, wie beispielsweise der Fahrbahnebene, befindet. Erhabene Objekte, wie beispielsweise Pfosten, werden dann fehlerhaft in die zweidimensionale Ebene transformiert. Da die Fehlerausprägung von der tatsächlichen Kameraposition abhängt, fällt der Fehler unterschiedlich aus und wird dadurch, insbesondere beim Aneinanderfügen mehrerer Bilder, als äußerst störend empfunden.In the absence of spatial information, the image transformation can only be performed with a change in the camera position if simplified assumptions are made. It is then typically assumed that the scene is completely in a plane, such as the roadway plane. Sublime objects, such as posts, are then incorrectly transformed into the two-dimensional plane. Since the error manifestation depends on the actual camera position, the error is different and is thus perceived as extremely disturbing, in particular when joining several images.
Die beschriebene Erfindung ermöglicht aufgrund der Verwendung von räumlicher Information eine realitätsgetreue perspektivische Transformation von aufgenommenen Kamera-Bildern und damit verbunden eine fehlerfreie Aneinanderfügung mehrerer Teilansichten zu einer realitätsgetreuen Anzeige des Fahrzeugumfeldes. Zur Gewinnung der räumlichen Information wird vorzugsweise das Kamerasystem selbst verwendet, indem beispielsweise die Kamera-Information eines Kamera-Paares mittels eines Stereo-Triangulationsverfahrens ausgewertet wird. Da in diesem Fall die Gewinnung der räumlichen Information unter Verwendung des Kamera-Systems erfolgt, das ohnehin zur Anzeige des Fahrzeug-Umfelds verbaut ist, sind die zusätzlichen Kosten gering. Es werden zur Realisierung der erfindungsgemäßen Funktion beispielsweise lediglich Änderungen am Bildfeld vorgenommen und zusätzliche Rechenkapazitäten auf dem Steuergerät zur Verfügung gestellt.The invention described allows due to the use of spatial information, a realistic perspective transformation of captured camera images and, associated with an error-free joining of several partial views to a realistic display of the vehicle environment. To obtain the spatial information, the camera system itself is preferably used by, for example, evaluating the camera information of a camera pair by means of a stereo triangulation method. In this case, since the spatial information is obtained by using the camera system which is installed anyway for displaying the vehicle environment, the additional cost is low. For the realization of the function according to the invention, for example, only changes to the image field are made and additional computing capacities are made available on the control unit.
Ebenso erlaubt die räumliche Information das Ableiten weiterer neuer Funktionen und kann als Ergänzung zur bestehenden Ultraschall-Sensorik gesehen werden.Likewise, the spatial information allows deriving further new functions and can be seen as a supplement to existing ultrasound sensors.
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- EP 1775952 A2 [0005] EP 1775952 A2 [0005]
- DE 102008029181 A1 [0006] DE 102008029181 A1 [0006]
- DE 102009036200 A1 [0007] DE 102009036200 A1 [0007]
- DE 10059900 A1 [0008] DE 10059900 A1 [0008]
Zitierte Nicht-PatentliteraturCited non-patent literature
- http://en.wikipedia.org/wiki/Triangulation_(computer_vision) [0047] http://en.wikipedia.org/wiki/Triangulation_(computer_vision) [0047]
- „Digitale Bildverarbeitung”, Bernd Jähne, Springer Berlin Heidelberg, 6. Auflage [0047] "Digital Image Processing", Bernd Jähne, Springer Berlin Heidelberg, 6th Edition [0047]
- „Handbook of Computer Vision and Applications”, Bernd Jähne, Academic Press Inc, 9. Oktober 2009 [0048] "Handbook of Computer Vision and Applications," Bernd Jähne, Academic Press Inc, October 9, 2009 [0048]
- http://en.wikipedia.org/wiki/3D_projection [0050] http://en.wikipedia.org/wiki/3D_projection [0050]
- „Multiple View Geometry in Computer Vision”, Richard Hartley et al., Carmbridge University Press, 2. Auflage [0050] "Multiple View Geometry in Computer Vision", Richard Hartley et al., Carmbridge University Press, 2nd Edition [0050]
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102011082881A DE102011082881A1 (en) | 2011-09-16 | 2011-09-16 | Method for representing surroundings of vehicle e.g. motor vehicle e.g. car, involves transforming primary image information into secondary image information corresponding to panoramic view using spatial information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102011082881A DE102011082881A1 (en) | 2011-09-16 | 2011-09-16 | Method for representing surroundings of vehicle e.g. motor vehicle e.g. car, involves transforming primary image information into secondary image information corresponding to panoramic view using spatial information |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102011082881A1 true DE102011082881A1 (en) | 2013-03-21 |
Family
ID=47751041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102011082881A Withdrawn DE102011082881A1 (en) | 2011-09-16 | 2011-09-16 | Method for representing surroundings of vehicle e.g. motor vehicle e.g. car, involves transforming primary image information into secondary image information corresponding to panoramic view using spatial information |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102011082881A1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013215408A1 (en) | 2013-08-06 | 2015-03-05 | Bayerische Motoren Werke Aktiengesellschaft | A vehicle display system and method for displaying a vehicle environment |
DE102014204303A1 (en) | 2014-03-10 | 2015-09-10 | Robert Bosch Gmbh | A method of merging frames captured by a camera system from different positions into a common image |
CN105100702A (en) * | 2014-05-22 | 2015-11-25 | F·波尔希名誉工学博士公司 | Method for presenting a vehicle's environment, display apparatus, system, and computer program |
DE102015205377A1 (en) * | 2015-03-25 | 2016-09-29 | Volkswagen Aktiengesellschaft | View of an environment of a vehicle |
EP3188080A1 (en) | 2016-01-04 | 2017-07-05 | Volkswagen Aktiengesellschaft | Method for evaluating gestures |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10059900A1 (en) | 2000-12-01 | 2002-06-13 | Daimler Chrysler Ag | Method for helping a motor vehicle driver by representation of surrounding objects in birds-eye view, so that especially during parking he can better judge distances and see any hidden or moving objects |
US20050110869A1 (en) * | 2003-11-24 | 2005-05-26 | Tillotson Brian J. | Virtual pan/tilt camera system and method for vehicles |
EP1775952A2 (en) | 2005-10-17 | 2007-04-18 | Sanyo Electric Co., Ltd. | Vehicle drive assistance system |
DE102008029181A1 (en) | 2008-06-19 | 2009-02-19 | Daimler Ag | Motor vehicle's surrounding area monitoring method, involves detecting surrounding area of vehicle by cameras whose displayed areas partially overlap each other, where partial areas of frames of cameras are arranged parallel to each other |
DE102009036200A1 (en) | 2009-08-05 | 2010-05-06 | Daimler Ag | Method for monitoring surrounding area of vehicle utilized for transport of e.g. goods, involves generating entire image, where course of boundary lines is given such that lines run away from objects depending on positions of objects |
US20100117812A1 (en) * | 2008-11-10 | 2010-05-13 | Lorenz Laubinger | System and method for displaying a vehicle surrounding with adjustable point of view |
-
2011
- 2011-09-16 DE DE102011082881A patent/DE102011082881A1/en not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10059900A1 (en) | 2000-12-01 | 2002-06-13 | Daimler Chrysler Ag | Method for helping a motor vehicle driver by representation of surrounding objects in birds-eye view, so that especially during parking he can better judge distances and see any hidden or moving objects |
US20050110869A1 (en) * | 2003-11-24 | 2005-05-26 | Tillotson Brian J. | Virtual pan/tilt camera system and method for vehicles |
EP1775952A2 (en) | 2005-10-17 | 2007-04-18 | Sanyo Electric Co., Ltd. | Vehicle drive assistance system |
DE102008029181A1 (en) | 2008-06-19 | 2009-02-19 | Daimler Ag | Motor vehicle's surrounding area monitoring method, involves detecting surrounding area of vehicle by cameras whose displayed areas partially overlap each other, where partial areas of frames of cameras are arranged parallel to each other |
US20100117812A1 (en) * | 2008-11-10 | 2010-05-13 | Lorenz Laubinger | System and method for displaying a vehicle surrounding with adjustable point of view |
DE102009036200A1 (en) | 2009-08-05 | 2010-05-06 | Daimler Ag | Method for monitoring surrounding area of vehicle utilized for transport of e.g. goods, involves generating entire image, where course of boundary lines is given such that lines run away from objects depending on positions of objects |
Non-Patent Citations (5)
Title |
---|
"Digitale Bildverarbeitung", Bernd Jähne, Springer Berlin Heidelberg, 6. Auflage |
"Handbook of Computer Vision and Applications", Bernd Jähne, Academic Press Inc, 9. Oktober 2009 |
"Multiple View Geometry in Computer Vision", Richard Hartley et al., Carmbridge University Press, 2. Auflage |
http://en.wikipedia.org/wiki/3D_projection |
http://en.wikipedia.org/wiki/Triangulation_(computer_vision) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013215408A1 (en) | 2013-08-06 | 2015-03-05 | Bayerische Motoren Werke Aktiengesellschaft | A vehicle display system and method for displaying a vehicle environment |
DE102014204303A1 (en) | 2014-03-10 | 2015-09-10 | Robert Bosch Gmbh | A method of merging frames captured by a camera system from different positions into a common image |
WO2015135670A1 (en) * | 2014-03-10 | 2015-09-17 | Robert Bosch Gmbh | Method for assembling single images that have been taken from different positions by a camera system to form a joint image |
US10384606B2 (en) | 2014-03-10 | 2019-08-20 | Robert Bosch Gmbh | Method for assembling single images recorded by a camera system from different positions, to form a common image |
CN105100702A (en) * | 2014-05-22 | 2015-11-25 | F·波尔希名誉工学博士公司 | Method for presenting a vehicle's environment, display apparatus, system, and computer program |
DE102014107235A1 (en) * | 2014-05-22 | 2015-11-26 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | A method of displaying a vehicle environment on a display device; a display device; a system of a plurality of image capture units and a display device; a computer program |
CN105100702B (en) * | 2014-05-22 | 2019-12-20 | F·波尔希名誉工学博士公司 | Method, display device, system and computer program for presenting vehicle environment |
DE102015205377A1 (en) * | 2015-03-25 | 2016-09-29 | Volkswagen Aktiengesellschaft | View of an environment of a vehicle |
EP3188080A1 (en) | 2016-01-04 | 2017-07-05 | Volkswagen Aktiengesellschaft | Method for evaluating gestures |
DE102016100075A1 (en) | 2016-01-04 | 2017-07-06 | Volkswagen Aktiengesellschaft | Method for evaluating gestures |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102006003538B3 (en) | Image acquisitions merging method for bird`s eye perspective, involves selecting image sections such that shadowing effects produced by moved objects are projected during transition in overall image from image section to other section | |
DE102017120112A1 (en) | DEPTH CARE VALUATION WITH STEREO IMAGES | |
EP2766879A2 (en) | Method for integrating virtual objects into vehicle displays | |
EP3117399B1 (en) | Method for assembling single images that have been taken from different positions by a camera system to form a joint image | |
DE102015108955A1 (en) | Rundsichtsystem and operating procedures thereof | |
WO2015048967A1 (en) | Method and apparatus for displaying the surroundings of a vehicle, and driver assistance system | |
EP3762857A1 (en) | Surround view system having an adapted projection surface | |
DE102010042026B4 (en) | Method for generating an image of at least one object in the surroundings of a vehicle | |
DE102014116199A1 (en) | Image distortion compensation device and method of operation therefor | |
DE102013206435A1 (en) | Visualization system and device for generating and displaying a virtual image of a vehicle environment | |
DE102011107458A1 (en) | Method for evaluating an object recognition device of a motor vehicle | |
DE102011082881A1 (en) | Method for representing surroundings of vehicle e.g. motor vehicle e.g. car, involves transforming primary image information into secondary image information corresponding to panoramic view using spatial information | |
DE112017007923T5 (en) | Display control device, display control method and display system | |
DE102014012250B4 (en) | Process for image processing and display | |
DE102006037600B4 (en) | Method for the resolution-dependent representation of the environment of a motor vehicle | |
WO2020001838A1 (en) | Method for sensor and memory-based depiction of an environment, display apparatus and vehicle having the display apparatus | |
DE102013012778A1 (en) | Method for detecting a moving pedestrian on the basis of characteristic features and optical flow vectors of an image, camera system and motor vehicle | |
DE102009026091A1 (en) | Method for monitoring three-dimensional spatial area, particularly work cell of automatic working machine, for e.g. robot, involves accomplishing independent scene analysis of images in or for each camera | |
DE102011121473A1 (en) | A method for displaying images on a display device of a motor vehicle, driver assistance device, motor vehicle and computer program | |
DE102017010683A1 (en) | Method for automatic restoration of a measured state of a projection system | |
EP3073446A1 (en) | Method for representing the surroundings of a vehicle | |
EP3571091B1 (en) | Method and device for displaying the surroundings of a vehicle | |
DE112021002598T5 (en) | IMAGE PROCESSING DEVICE | |
DE102005002636A1 (en) | Video data processing method for camera system, involves applying coordinate transformation to camera image for obtaining transformed camera image, where transformation transfers camera coordinate system to destination coordinate system | |
DE102015014199B4 (en) | Method and system for improving the object recognition performance of a 3D recognition unit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |