DE102011082881A1 - Method for representing surroundings of vehicle e.g. motor vehicle e.g. car, involves transforming primary image information into secondary image information corresponding to panoramic view using spatial information - Google Patents

Method for representing surroundings of vehicle e.g. motor vehicle e.g. car, involves transforming primary image information into secondary image information corresponding to panoramic view using spatial information Download PDF

Info

Publication number
DE102011082881A1
DE102011082881A1 DE102011082881A DE102011082881A DE102011082881A1 DE 102011082881 A1 DE102011082881 A1 DE 102011082881A1 DE 102011082881 A DE102011082881 A DE 102011082881A DE 102011082881 A DE102011082881 A DE 102011082881A DE 102011082881 A1 DE102011082881 A1 DE 102011082881A1
Authority
DE
Germany
Prior art keywords
image information
image
information
vehicle
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102011082881A
Other languages
German (de)
Inventor
Jens Landgraf
Marco Hering
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102011082881A priority Critical patent/DE102011082881A1/en
Publication of DE102011082881A1 publication Critical patent/DE102011082881A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

The method involves receiving (100,110) primary image information of environment of a motor vehicle using vehicle cameras of vehicle camera system. The spatial information is determined (120) from received primary image information. The primary image information is transformed (130) into secondary image information corresponding to panoramic view using spatial information. The surroundings of vehicle in panoramic view are represented (140) based on secondary image information. An independent claim is included for system for representing surroundings of vehicle.

Description

Die Erfindung betrifft ein Verfahren zum Darstellen der Umgebung eines Kraftfahrzeugs in einer bestimmten Ansicht. Ferner betrifft die Erfindung ein entsprechendes System zur Darstellung der Umgebung.The invention relates to a method for representing the environment of a motor vehicle in a particular view. Furthermore, the invention relates to a corresponding system for displaying the environment.

Aus dem Stand der Technik sind kamerabasierte Systeme zur Darstellung der Fahrzeugumgebung bekannt, die Bildinformation einer Kamera oder mehrerer, an unterschiedlichen Positionen des Fahrzeugs verbauter Kameras mittels Bildverarbeitung in einer für den Fahrer besonders übersichtlichen Ansicht, beispielsweise in eine Ansicht von oben, transformieren und darstellen. Bei der Verwendung mehrerer Kameras wird die Bildinformation dieser Kameras perspektivisch transformiert und dann diese Teilansichten zu einer Gesamtansicht zusammengefügt. Beispielsweise werden die beiden Bilder auf der rechten und der linken Fahrzeugseite befindlicher Außenspiegelkameras und das Bild einer Heckkamera perspektivisch zu einer Aufsicht transformiert und anschließend die sich durch die Transformation ergebenden Teilansichten zu einer Gesamtansicht aneinandergefügt, beispielsweise zu einer 270° oder 360° der Umgebung umfassenden Gesamtansicht. Das Aneinanderfügen einzelner Bilder zu einer Gesamtansicht wird auch als Image-Stitching bezeichnet.Camera-based systems for displaying the vehicle surroundings are known from the prior art, which transform and display image information of a camera or several cameras installed at different positions of the vehicle by means of image processing in a view which is particularly clear to the driver, for example in a view from above. When using multiple cameras, the image information of these cameras is transformed in perspective and then these partial views are combined to form an overall view. For example, the two images on the right and left side of the vehicle exterior mirror cameras and the image of a rear camera are transformed perspective to a plan view and then joined together by the resulting partial views to form an overall view, for example, to a 270 ° or 360 ° of the surrounding comprehensive view , The joining of individual images to an overall view is also referred to as image stitching.

Um Bilder aus unterschiedlichen Kamerapositionen fehlerfrei aneinanderzufügen, sollte typischerweise im Rahmen der Bildtransformation die Perspektive für sämtliche Kamerabilder auf ein identisches Projektionszentrum umgerechnet werden, beispielsweise auf einen Projektionszentrum direkt über dem Fahrzeug.In order to combine images from different camera positions without error, the perspective for all camera images should typically be converted to an identical projection center as part of the image transformation, for example to a projection center directly above the vehicle.

Bei der Transformation der Bildinformation wird in konventionellen Systemen im Allgemeinen die vereinfachende Annahme getroffen, dass sich alle Objekte innerhalb des Kamerabildes in einer Ebene, typischerweise der Fahrbahnebene, befinden. Erhabene Objekte, die in der Realität aus der Ebene heraustreten oder sich über der Ebene befindet, werden bei der Transformation aufgrund dieser Vereinfachung mit zunehmender Höhe immer stärker versetzt und damit im Ausgangsbild an falscher Position abgebildet. Besonders augenfällig wird dieses Artefakt beim Aneinanderfügen (Image-Stitching) von Bildern mehrerer Kameras. Im Übergangsbereich zwischen zwei Kamerabildern können erhabene Objekte vollständig verschwinden oder doppelt angezeigt werden.In the transformation of image information, conventional systems generally adopt the simplifying assumption that all objects within the camera image are in one plane, typically the roadway plane. Sublime objects, which in reality emerge from the plane or are above the plane, are increasingly displaced with increasing height during the transformation due to this simplification, and are therefore mapped in the original image in the wrong position. This artifact becomes particularly noticeable when joining images of several cameras together (image stitching). In the transition area between two camera images, raised objects can disappear completely or be displayed twice.

Aus der Druckschrift EP 1 775 952 A2 ist ein System bekannt, welches Bilder mehrerer Fahrzeugkameras zu einem Gesamtbild in eine Vogelperspektive konvertiert. In dieser Druckschrift wird beispielsweise vorgeschlagen, in einem Überlappbereich zwischen zwei Bildern in der Vogelperspektive eine beispielsweise kammförmige Grenzlinie festzulegen, wobei zur Erzeugung des Gesamtbildes oberhalb der Grenzlinie das eine Bild verwendet wird und unterhalb der Grenzlinie das andere Bild verwendet wird. Hierdurch wird verhindert, dass ein erhabenes Objekt bei der Projektion auf den Boden im Gesamtbild verschwindet.From the publication EP 1 775 952 A2 a system is known, which converts images of several vehicle cameras to a total image in a bird's-eye view. In this document, for example, it is proposed to set an example comb-shaped boundary line in an overlap area between two images in a bird's eye view, wherein one image is used to generate the overall image above the boundary line and the other image is used below the boundary line. This prevents a raised object from disappearing when projected onto the floor in the overall picture.

Aus der Druckschrift DE 10 2008 029 181 A1 ist ein System mit zwei Kameras bekannt, welches aus Einzelbildern ein Gesamtbild erzeugt, das die Umgebung in einer Vogelperspektive dargestellt. Das Gesamtbild setzt sich in einem gesamten abgebildeten Überlagerungsbereich aus Teilbereichen von Einzelbildern der beiden Kameras zusammen, wobei abwechselnd jeweils ein Teilbereich des Einzelbildes der ersten Kamera parallel zu einem Teilbereich des Einzelbildes der zweiten Kamera angeordnet ist.From the publication DE 10 2008 029 181 A1 is a system known with two cameras, which creates a single image of an overall picture that represents the environment in a bird's eye view. The overall image is composed of partial regions of individual images of the two cameras in an overall overlapping region, whereby in each case one subregion of the individual image of the first camera is arranged parallel to a subregion of the individual image of the second camera.

Inder Druckschrift DE 10 2009 036 200 A1 ist ein Verfahren zur Überwachung einer Umgebung eines Fahrzeugs beschrieben, wobei die Umgebung und in dieser vorhandene Objekte mittels zumindest zweier Bilderfassungseinheiten, deren Erfassungsbereiche sich zumindest teilweise überlappen und einen Überlappungsbereich bilden, erfasst werden, wobei aus mittels der Bilderfassungseinheiten erfassten Einzelbildern anhand einer Bildverarbeitungseinheit ein Gesamtbild erzeugt wird, welches das Fahrzeug und dessen Umgebung aus einer Vogelperspektive zeigt. Dabei wird in Abhängigkeit von ermittelten Positionen der Objekte in dem Gesamtbild zwischen einem ersten Einzelbildbereich und einem zweiten Einzelbildbereich ein Verlauf zumindest einer Grenzlinie, die sich von einem Ursprung zum Bildrand des Gesamtbilds erstreckt, derart vorgegeben, dass die Grenzlinie abseits der Objekte verläuft.Indian publication DE 10 2009 036 200 A1 a method for monitoring an environment of a vehicle is described, wherein the environment and existing objects in this by means of at least two image acquisition units, the coverage areas at least partially overlap and form an overlap area are detected, wherein from using the image acquisition units captured individual images based on an image processing unit an overall image is generated, which shows the vehicle and its surroundings from a bird's eye view. Depending on determined positions of the objects in the overall image between a first individual image area and a second individual image area, a profile of at least one boundary line extending from an origin to the image edge of the overall image is predefined such that the boundary line extends away from the objects.

Aus der Druckschrift DE 100 59 900 A1 ist die Darstellung von bildhafter Umgebungsinformation in Vogelperspektive bekannt, wobei erhabene oder sich bewegende Objekte innerhalb der Bilddaten detektiert werden. Hierbei kann auf aus der Stereo-Bildverarbeitung bekannte Verfahren zurückgegriffen werden. Die Ortsparameter der detektierten Objekte können einem System zur Weiterverarbeitung zur Verfügung gestellt werden. Dabei ist es denkbar, dass der durch seine Ortsparameter beschriebene, nicht befahrbare Raum aus einem zusammenhängenden Bereich besteht oder aber aus mehreren nicht zusammenhängenden Teilbereichen gebildet wird. Zur Hervorhebung der nicht befahrbaren Räume können die entsprechenden Bereiche in den Bilddaten ausgeblendet oder in den Bilddaten maskiert werden.From the publication DE 100 59 900 A1 For example, the bird's eye view of pictorial environmental information is known, with raised or moving objects detected within the image data. In this case, recourse can be had to methods known from stereo image processing. The location parameters of the detected objects can be made available to a system for further processing. It is conceivable that the non-drivable space described by its location parameters consists of a contiguous area or is formed of several non-contiguous subareas. To emphasize the non-passable spaces, the corresponding areas in the image data can be hidden or masked in the image data.

Es ist Aufgabe der Erfindung, ein alternatives Verfahren zum Darstellen der Umgebung eines Kraftfahrzeugs anzugeben, welches eine möglichst fehlerfreie Darstellung von erhabenen Objekten erlaubt.It is an object of the invention to provide an alternative method for representing the environment of a motor vehicle, which allows the most error-free representation of raised objects.

Die Aufgabe wird durch die Merkmale der unabhängigen Patentansprüche gelöst. The object is solved by the features of the independent claims.

Ein Aspekt der Erfindung betrifft ein Verfahren zum Darstellen der Umgebung des Kraftfahrzeugs in einer bestimmten Ansicht in einem Kraftfahrzeug, beispielsweise zum Darstellen des Kraftfahrzeugs in einer Ansicht von oben.One aspect of the invention relates to a method for representing the surroundings of the motor vehicle in a specific view in a motor vehicle, for example for representing the motor vehicle in a view from above.

Bei dem Verfahren werden erste Bildinformation der Umgebung eines Kraftfahrzeugs mit zumindest einer Fahrzeug-Kamera eines ein oder mehrere Kameras umfassenden Fahrzeug-Kamerasystems erfasst. Beispielsweise werden hierfür zwei Kameras verwendet.In the method, first image information of the surroundings of a motor vehicle is detected with at least one vehicle camera of a vehicle camera system comprising one or more cameras. For example, two cameras are used for this purpose.

Bei dem Verfahren wird räumliche Information, beispielsweise Tiefeninformation (d. h. Abstandsinformation) oder räumliche Koordinaten, in Bezug auf die aufgenommene erste Bildinformation bestimmt. Die Erzeugung der räumlichen Information erfolgt vorzugsweise durch das Kamera-System selbst. Die Erzeugung der räumlichen Information erfolgt beispielsweise durch ein Stereo-Triangulationsverfahren, wobei die Bilder mindestens zweier Kameras, bei denen die Bildfelder überlappen, ausgewertet werden. Stattdessen lassen sich aber auch andere Verfahren, wie beispielsweise ein aktives Triangulationsverfahren, verwenden.In the method, spatial information, such as depth information (i.e., distance information) or spatial coordinates, is determined with respect to the captured first image information. The spatial information is preferably generated by the camera system itself. The spatial information is generated, for example, by a stereo triangulation method, the images of at least two cameras in which the image fields overlap being evaluated. Instead, however, other methods, such as an active triangulation method, can be used.

Unter Verwendung der räumlichen Information wird die erste Bildinformation in zweite Bildinformation entsprechend der gewünschten Ansicht transformiertUsing the spatial information, the first image information is transformed into second image information corresponding to the desired view

Schließlich wird die Umgebung des Kraftfahrzeugs in der gewünschten Ansicht basierend auf der zweiten Bildinformation dargestellt. Es kann insbesondere auch zweite Bildinformation für die Mehrzahl von Richtungen zusammengefügt werden und diese Zusammenfügung dargestellt werden.Finally, the environment of the motor vehicle is displayed in the desired view based on the second image information. In particular, second image information for the plurality of directions can also be put together and this combination displayed.

Die Erfindung ermöglicht durch die Berücksichtigung räumlicher Information eine realitätsgetreue perspektivische Transformation der Bildinformation. Dies erlaubt eine fehlerfreie Aneinanderfügung bei der Erzeugung einer Gesamtansicht aus mehreren Teilansichten.By considering spatial information, the invention enables a realistic perspective transformation of the image information. This allows a faultless joining together when creating an overall view of several partial views.

Bei der dargestellten Ansicht kann es sich um eine Sicht von oben handeln (beispielsweise um eine orthogonale Sicht von oben mit einer zur Fahrbahnebene orthogonalen virtuellen Kamera-Richtung, was auch als Aufsicht bezeichnet wird, oder alternativ von schräg oben). Hierbei können mehrere Teilansichten aus einer virtuellen Kamera-Sicht von oben zu einer Gesamtansicht von oben zusammengefügt werden.The view shown may be a view from above (for example, an orthogonal view from above with a virtual camera direction orthogonal to the road plane, which is also referred to as a plan view, or alternatively from obliquely above). Here you can combine several partial views from a virtual camera view from the top to a general view from the top.

Alternativ kann auch eine Gesamtansicht aus mehreren Teilansichten erzeugt werden, bei der die virtuelle Kamera parallel zu Fahrbahnebene angeordnet ist, und die Teilansichten aus unterschiedlichen Umgebungsrichtungen zu einer Panorama-Ansicht aneinandergefügt werden.Alternatively, an overall view can also be generated from a plurality of partial views, in which the virtual camera is arranged parallel to the road surface, and the partial views from different directions of the surroundings are joined together to form a panoramic view.

Es ist von Vorteil, wenn zur Bestimmung der räumlichen Information zumindest eine Kamera oder gar mehrere Kameras des Kameras-Systems verwendet werden.It is advantageous if at least one camera or even several cameras of the camera system are used to determine the spatial information.

Vorzugsweise wird zur Bestimmung der räumlichen Information ein passives Triangulationsverfahren verwendet, welches auf der Auswertung von mindestens zwei Bildern aus mindestens zwei unterschiedlichen Kamerapositionen beruht. Dazu wird zum Aufnehmen der ersten Bildinformation ein erstes Bild aus einer ersten Kameraposition aufgenommen. Außerdem wird zum Aufnehmen der ersten Bildinformation ein zweites Bild aus einer zweiten Kameraposition aufgenommen. Der aufgenommene Umgebungsbereich des ersten Bildes und der aufgenommene Umgebungsbereich des zweiten Bildes überlappen zumindest teilweise. Vorzugsweise werden das erste Bild mit einer ersten Kamera aufgenommen und das zweite Bild mit einer zweiten Kamera aufgenommen. Es wäre auch denkbar, eine einzige Kamera zur Aufnahme der beiden Bilder zu verwenden, die beispielsweise verfahrbar ist.Preferably, a passive triangulation method is used to determine the spatial information, which is based on the evaluation of at least two images from at least two different camera positions. For this purpose, a first image from a first camera position is recorded to record the first image information. In addition, to capture the first image information, a second image is taken from a second camera position. The recorded surrounding area of the first image and the recorded surrounding area of the second image overlap at least partially. Preferably, the first image is taken with a first camera and the second image is taken with a second camera. It would also be conceivable to use a single camera for recording the two images, which can be moved, for example.

Bei einer alternativen Ausführungsform kann ein aktives Triangulationsverfahren verwendet werden, bei dem beispielsweise mit einer als Sensor fungierenden Kamera des Kamera-Systems ein von der Szene reflektiertes Lichtsignal von einer zusätzlichen Lichtquelle, beispielsweise von einem Laser oder einer LED-Lichtquelle, aufgenommen wird.In an alternative embodiment, an active triangulation method may be used in which, for example, with a camera of the camera system functioning as a sensor, a light signal reflected by the scene is picked up by an additional light source, for example a laser or an LED light source.

Bei der räumlichen Information kann es sich beispielsweise um Tiefeninformation (d. h. Abstandsinformation) oder um Raumkoordinaten handeln.The spatial information may be, for example, depth information (i.e., distance information) or spatial coordinates.

Vorzugsweise werden beim Bestimmen der räumlichen Information Raumkoordinaten für Bildpunkte der ersten Bildinformation bestimmt. Die Raumkoordinaten können beispielsweise mit einem Triangulationsverfahren direkt bestimmt werden. Alternativ wird mit einem Triangulationsverfahren zunächst Tiefeninformation (d. h. Abstandsinformation) bestimmt, wobei mit Hilfe der Abstandsinformation dann Raumkoordinaten für Bildpunkte der ersten Bildinformation berechnet werden.Preferably, spatial coordinates for pixels of the first image information are determined when determining the spatial information. The spatial coordinates can be determined directly, for example, using a triangulation method. Alternatively, depth information (i.e., distance information) is first determined by a triangulation method, and spatial information for pixels of the first image information is then calculated using the distance information.

Die Verknüpfung der ersten Bildinformation mit den Raumkoordinaten entspricht dreidimensionaler Bildinformation, d. h. einem dreidimensionalen Bild. Die dreidimensionale Bildinformation beschränkt sich typischerweise auf eine gewisse Fläche im Raum (dies wird in der Literatur auch häufig als 2½ dimensionale Information bezeichnet) und es ist keine dreidimensionale Bildinformation für sämtliche Raumpunkte des Raumes wie bei einem Computer-Tomographen vorhanden.The linking of the first image information with the spatial coordinates corresponds to three-dimensional image information, ie a three-dimensional image. The three-dimensional image information is typically confined to a certain area in space (this is often referred to in the literature as 2½-dimensional information) and it is no three-dimensional image information for all spatial points of space as in a computer tomograph available.

Bei der Transformation der ersten Bildinformation in zweite Bildinformation wird vorzugsweise mittels dreidimensionaler Projektion virtuell die Position der Kamera (d. h. das Projektionszentrum) entsprechend der gewünschten Ansicht geändert.In the transformation of the first image information into second image information, the position of the camera (i.e., the projection center) is changed virtually according to the desired view, preferably by means of three-dimensional projection.

Zum Transformieren der ersten Bildinformation in zweite Bildinformation wird die dreidimensionale Bildinformation in die zweite Bildinformation unter Änderung des Projektionszentrums projiziert. Die dreidimensionale Bildinformation wird also in eine einem neuen Projektionszentrum zugehörige zweidimensionale Bildebene projiziert. Die sich hierbei ergebende zweite Bildinformation entspricht einem zweidimensionalen Bild in einer zweidimensionalen Ebene. Die Projektion wird beispielsweise in der Weise umgesetzt, dass die Position der Objektpunkte in der Szene relativ zum neuen Projektionszentrum (beispielsweise über dem Fahrzeug) in Bezug gesetzt wird und eine vorhandene Drehung der Koordinatensysteme zueinander mittels Rotationsmatrizen berücksichtigt wird. Abhängig von der Position des Betrachters zu diesem neuen Projektionszentrum wird dann die dreidimensionale Szenerie (die nun in Koordinaten relativ zum Projektionszentrum vorliegt) in eine zweidimensionale Ebene projiziert.For transforming the first image information into second image information, the three-dimensional image information is projected into the second image information by changing the projection center. The three-dimensional image information is thus projected into a two-dimensional image plane associated with a new projection center. The resulting second image information corresponds to a two-dimensional image in a two-dimensional plane. The projection is implemented, for example, in such a way that the position of the object points in the scene is related relative to the new projection center (for example above the vehicle) and an existing rotation of the coordinate systems relative to one another by means of rotation matrices is taken into account. Depending on the position of the observer to this new projection center then the three-dimensional scenery (which is now in coordinates relative to the projection center) is projected into a two-dimensional plane.

Bei einer bevorzugten Ausführungsform, bei der aus einer Mehrzahl von Teilansichten eine Gesamtansicht durch Image-Stitching erzeugt wird, wird für eine Mehrzahl von Teilansichten jeweils erste Bildinformation aufgenommen. Zumindest für eine Teilansicht wird räumliche Information hinsichtlich der jeweiligen ersten Bildinformation bestimmt. Für jede der Mehrzahl von Teilansichten wird jeweils die erste Bildinformation in zweite Bildinformation transformiert, wobei dies zumindest für eine Teilansicht unter Verwendung der entsprechenden räumlichen Information durch eine dreidimensionale Projektion erfolgt. Die dreidimensionale Projektion kann mehrmals für sämtliche Teilansichten durchgeführt werden. Dies ist jedoch nicht zwingend notwendig; beispielsweise kann die dreidimensionale Projektion nur für ein oder mehrere Teilansichten erfolgen, die ein erhabenes Objekt umfassen. Die Projektion erfolgt für die einzelnen Teilansichten so, dass die sich ergebende Bildinformation für alle Teilansichten das gleiche Projektionszentrum aufweist. Die den einzelnen Teilansichten zugeordnete zweite Bildinformation wird aneinandergefügt und die Aneinanderfügung wird dargestellt.In a preferred embodiment, in which an overall view is generated by image stitching from a plurality of partial views, first image information is recorded in each case for a plurality of partial views. At least for a partial view, spatial information regarding the respective first image information is determined. For each of the plurality of partial views, in each case the first image information is transformed into second image information, this taking place at least for a partial view using the corresponding spatial information by a three-dimensional projection. The three-dimensional projection can be performed several times for all partial views. However, this is not absolutely necessary; For example, the three-dimensional projection can only take place for one or more partial views that comprise a raised object. The projection takes place for the individual partial views in such a way that the resulting image information has the same projection center for all partial views. The second image information assigned to the individual partial views is joined together and the joining is displayed.

Da das Projektionszentrum vorzugsweise für alle Teilansichten, die anschließend zu einer Gesamtansicht zusammengefügt werden, identisch gewählt wird, lassen sich die einzelnen Teilansichten artefaktfrei zu einer Gesamtansicht aneinanderfügen.Since the projection center is preferably selected identically for all partial views that are subsequently joined together to form an overall view, the individual partial views can be joined together in an artifact-free manner to form an overall view.

Ein zweiter Aspekt der Erfindung betrifft ein System zum Darstellen der Umgebung des Kraftfahrzeugs in einer bestimmten Ansicht, beispielsweise in einer Ansicht von oben. Das System umfasst ein Fahrzeug-Kamerasystem mit einer oder mehrerer Fahrzeug-Kameras. Das Fahrzeug-Kamerasystem ist eingerichtet, erste Bildinformation der Umgebung eines Kraftfahrzeugs mit zumindest einer Fahrzeug-Kamera aufzunehmen. Ferner sind Mittel zum Bestimmen von räumlicher Information hinsichtlich der aufgenommenen ersten Bildinformation vorhanden. Das System ist ferner zum Transformieren der ersten Bildinformation unter Verwendung der räumlichen Information in für die bestimmte Ansicht passende zweite Bildinformation eingerichtet. Ferner weist das System Mittel zum Darstellen der Umgebung des Kraftfahrzeugs in der bestimmten Ansicht basierend auf der zweiten Bildinformation auf.A second aspect of the invention relates to a system for representing the environment of the motor vehicle in a particular view, for example in a view from above. The system includes a vehicle camera system with one or more vehicle cameras. The vehicle camera system is set up to record first image information of the surroundings of a motor vehicle with at least one vehicle camera. Furthermore, there are means for determining spatial information with regard to the recorded first image information. The system is further adapted to transform the first image information using the spatial information in second image information appropriate for the particular view. Further, the system includes means for displaying the environment of the motor vehicle in the particular view based on the second image information.

Die vorstehenden Ausführungen zum erfindungsgemäßen Verfahren nach dem ersten Aspekt der Erfindung gelten in entsprechender Weise auch für das erfindungsgemäße System nach dem zweiten Aspekt der Erfindung.The above statements on the method according to the invention according to the first aspect of the invention also apply correspondingly to the system according to the invention according to the second aspect of the invention.

Die Erfindung wird nachfolgend unter Zuhilfenahme auf die beigefügten Zeichnungen anhand eines Ausführungsbeispiels beschrieben. In diesen zeigen:The invention will be described below with reference to the accompanying drawings with reference to an embodiment. In these show:

1 ein Beispiel für ein künstliche Änderung der Kamera-Perspektive; 1 an example of an artificial change in the camera perspective;

2 den sich ergebenden Fehler bei Änderung der Kamera-Perspektive; 2 the resulting error when changing the camera perspective;

3 ein in einem Fahrzeug verbautes, beispielhaftes Kamera-System mit zumindest zwei Front-Kameras; 3 a built in a vehicle, exemplary camera system with at least two front cameras;

4 eine beispielhafte Verarbeitung der Einzelbilder der Front-Kameras; 4 exemplary processing of the frames of the front cameras;

5 die Aneinanderfügung der verarbeiteten Einzelbilder der Front-Kameras zu einer Gesamtansicht; 5 the joining of the processed individual images of the front cameras into an overall view;

6 ein Ablaufdiagramm für ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens; und 6 a flowchart for an embodiment of the method according to the invention; and

7 ein Beispiel für ein Kamera-System mit acht Kameras. 7 an example of a camera system with eight cameras.

1 und 2 zeigen ein Beispiel für eine künstliche Änderung der Kamera-Perspektive und den sich ergebenden Darstellungsfehler bei einem erhabenen Objekt. Bei der Transformation der Bildinformation zwecks Änderung der Perspektive von einer tatsächlichen Kamera-Position 1 zu einer virtuellen Kamera-Position 2 (hier in der Kamera-Position einer Aufsicht) wird im Allgemeinen die vereinfachende Annahme getroffen, dass sich alle Objekte 3 innerhalb des Kamerabildes in einer Ebene 4, typischerweise der Fahrbahnebene, befinden. Erhabene Objekte 3, die in der Realität aus der Ebene 4 heraustreten oder sich über der Ebene 4 befindet, werden bei der Transformation aufgrund dieser Vereinfachung mit zunehmender Höhe h immer stärker versetzt und damit im Ausgangsbild an falscher Position abgebildet. Dies ist in 2 zu sehen, welche den fehlerhaften Versatz Δ des erhabenen Objektes 2 im transformierten Bild unter Berücksichtigung der virtuellen Kamera-Position 2 zeigt. Eigentlich müsste das Objekt 4 bei Änderung der Kamera-Perspektive von der realen Kamera-Position 1 zur virtuellen Kamera-Position 2 an der korrekten Position 5 dargestellt werden. Tatsächlich wird der Endpunkt des Objekts 2 aber an der fehlerhaften Position 6 dargestellt, die um den Versatz Δ gegenüber der Position 5 versetzt ist. Für den Versatz Δ gilt: Δ = h/tanβ, wobei der Winkel β den Sichtwinkel zwischen der tatsächlichen Kamera-Position 1 und der Ebene 4 beschreibt. 1 and 2 show an example of an artificial change of the camera perspective and the resulting display error in one sublime object. In transforming the image information to change the perspective of an actual camera position 1 to a virtual camera position 2 (here in the camera position of a supervisor) is generally taken the simplistic assumption that all objects 3 within the camera image in one plane 4 , typically the carriageway plane. Sublime objects 3 that in reality is out of the plane 4 come out or above the plane 4 is located in the transformation due to this simplification with increasing height h increasingly offset and thus mapped in the original image at the wrong position. This is in 2 to see what the erroneous offset Δ of the raised object 2 in the transformed image taking into account the virtual camera position 2 shows. Actually, the object would have to 4 when changing the camera perspective from the real camera position 1 to the virtual camera position 2 in the correct position 5 being represented. In fact, the endpoint of the object becomes 2 but at the faulty position 6 represented by the offset Δ relative to the position 5 is offset. For the offset Δ, Δ = h / tanβ, where the angle β is the viewing angle between the actual camera position 1 and the plane 4 describes.

Besonders augenfällig wird dieser Darstellungsfehler beim Aneinanderfügen von in ihrer Perspektive transformierten Bildern mehrerer Kameras. Im Übergangsbereich zwischen zwei Kamerabildern können erhabene Objekte vollständig verschwinden oder doppelt angezeigt werden, da der vorstehend beschriebene Fehler für beide Kamerabilder gegenläufig ist. Dies wird im Folgenden anhand eines Beispiels erläutert.This misrepresentation becomes particularly obvious when joining images of several cameras that have been transformed in their perspective. In the transition region between two camera images, raised objects can disappear completely or be displayed twice, since the error described above is opposite for both camera images. This will be explained below with reference to an example.

3 zeigt ein in einem Fahrzeug verbautes Kamera-System mit zumindest zwei Front-Kameras 10 und 11. Der aufgenommene Umgebungsbereich des ersten Bildes und der aufgenommene Umgebungsbereich des zweiten Bildes überlappen teilweise. 3 shows a built-in vehicle camera system with at least two front cameras 10 and 11 , The captured surrounding area of the first image and the captured surrounding area of the second image partially overlap.

Die Bilder der beiden Kameras 10 und 11 werden, wie in 4 gezeigt, verarbeitet und anschießend, wie in 5 gezeigt, aneinandergefügt. 4a1) zeigt das aufgenommene Bild der Kamera 10 und 4a2) zeigt das aufgenommene Bild der Kamera 11. Beide Bilder sind in einer Fish-Eye-Perspektive aufgenommen. In 4a1) und 4a2) ist an dem erhabenen Objekt mittig ein Verschluss angeordnet, der durch einen schwarzen Kreis markiert ist und sich oberhalb des Bodens befindet. In 4a1) befindet sich dieser Verschluss zwischen der 3. und 4. dunklen Bodenlinie rechts von der hellen Bodenlinie 20. In 4a2) befindet sich der Verschluss zwischen der 3. und 4. dunklen Bodenlinie links von der hellen Bodenlinie 21. 4b1) und 4b2) zeigen das Bild der Kamera 10 bzw. das Bild der Kamera 11 nach einer Korrektur der Fish-Eye-Perspektive. 4c1) und 4c2) zeigen das Bild der Kamera 10 bzw. das Bild der Kamera 11 nach einer anschließenden Bildtransformation, wobei die Kamera-Perspektive in eine Sicht von oben geändert wird. Nach der Bildtransformation befindet sich in 4c1) der Verschluss seitlich ungefähr auf der Position der 5. dunklen Linie rechts von der hellen Linie 20. Nach der Bildtransformation befindet sich in 4c2) der Verschluss seitlich ungefähr auf der Position der 5. dunklen Linie links von der hellen Linie 21. Durch die Änderung der Perspektive ohne Verwendung von dreidimensionaler Information ist es also zu einer fehlerhaften Verschiebung der Position des Verschlusses gekommen.The pictures of the two cameras 10 and 11 be like in 4 shown, processed and connected, as in 5 shown, joined together. 4a1 ) shows the recorded image of the camera 10 and 4a2) shows the captured image of the camera 11 , Both pictures are taken in a fish eye perspective. In 4a1) and 4a2) On the raised object a closure is centrally arranged, which is marked by a black circle and is located above the ground. In 4a1) This closure is located between the 3rd and 4th dark floor line to the right of the bright floor line 20 , In 4a2) the shutter is between the 3rd and 4th dark floor line to the left of the bright floor line 21 , 4b1) and 4b2) show the picture of the camera 10 or the picture of the camera 11 after a correction of the fish eye perspective. 4c1) and 4c2) show the picture of the camera 10 or the picture of the camera 11 after a subsequent image transformation, changing the camera perspective to a view from above. After the image transformation is in 4c1) the shutter is laterally approximately at the position of the 5th dark line to the right of the light line 20 , After the image transformation is in 4c2) the shutter is sideways approximately at the position of the 5th dark line to the left of the light line 21 , By changing the perspective without the use of three-dimensional information, it has thus come to a faulty displacement of the position of the shutter.

In 5 ist die Aneinanderfügung von Bildinformation aus 4c1) und 4c2) zu einer Gesamtansicht dargestellt. Bei der Aneinanderfügung wird nicht die gesamte Bildinformation beider Bilder in 4c1) und 4c2) verwendet, stattdessen wird ein Teil der Bildinformation abgeschnitten. Links der gestrichelten Linie in 5 wird Bildinformation aus 4c1) verwendet, rechts der gestrichelten Linie in 5 wird Bildinformation aus 4c2) verwendet. Bei der Aneinanderfügung in 5 gehen aufgrund der fehlerhaften Verschiebung mit zunehmender Höhe Objektbereiche verloren. Im Unterschied zu den 4c1) und 4c2) ist in 5 der Verschluss in der Mitte des Objektes nicht mehr sichtbar.In 5 is the juxtaposition of image information 4c1) and 4c2) to an overall view. When joining together is not the entire image information of both images in 4c1) and 4c2) instead, part of the image information is truncated. Left of the dashed line in 5 becomes image information 4c1) used to the right of the dashed line in 5 becomes image information 4c2) used. When joining in 5 Due to the erroneous shift, object areas are lost with increasing height. Unlike the 4c1) and 4c2) is in 5 the shutter in the middle of the object is no longer visible.

Fehler in der Darstellung erhabener Objekte, welche beim Aneinanderfügen mehrerer Bilder besonders augenfällig sind, werden erfindungsgemäß dadurch vermieden, dass räumliche Information der Szenerie, insbesondere über das Kamerasystem selbst erzeugt wird, und diese Information bei der Bildtransformation verwendet wird. Die Bestimmung der räumlichen Information kann insbesondere durch Vorsehen eines hinreichenden Überlapps der Bildfelder von mindestens zwei Kameras geschehen. Der Überlapp lässt sich nutzen, um anhand gängiger passiver Stereo-Triangulations-Verfahren eine Tiefenkarte der Szenerie oder die dreidimensionale Koordinaten für die aufgenommenen Bildpunkte zu erzeugen. Ebenso ließe sich bei Verwendung einer zusätzlichen Beleuchtungseinheit ein aktives Triangulationsverfahren anwenden, um die räumliche Information zu generieren. Außerdem könnte die räumliche Information mittels eines Laufzeitverfahrens (time of flight) oder anderer Verfahren bestimmt werden.Errors in the representation of raised objects, which are particularly obvious when joining several images together, are avoided according to the invention in that spatial information of the scene, in particular via the camera system itself, is generated, and this information is used in the image transformation. The determination of the spatial information can be done in particular by providing a sufficient overlap of the image fields of at least two cameras. The overlap can be used to generate a depth map of the scenery or the three-dimensional coordinates for the captured pixels using common passive stereo triangulation techniques. Likewise, using an additional illumination unit, an active triangulation technique could be used to generate the spatial information. In addition, the spatial information could be determined by a time of flight method or other method.

In 6 ist ein Ablaufdiagramm für ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens dargestellt. Das in 6 dargestellte Ausführungsbeispiel umfasst im Wesentlichen die folgenden Schritte:In 6 a flow chart for an embodiment of the method according to the invention is shown. This in 6 The illustrated embodiment essentially comprises the following steps:

  • 1. Aufnahme zweier zweidimensionaler Bilder aus unterschiedlichen Kamerapositionen (s. Schritte 100 und 110) 1. Take two two-dimensional images from different camera positions (see steps 100 and 110 )
  • 2. Bestimmen räumlicher Information, insbesondere Bestimmen von Raumkoordinaten, mittels eines Stereo-Triangulationsverfahrens (s. Schritt 120)2. Determining spatial information, in particular determining spatial coordinates, by means of a stereo triangulation method (see step 120 )
  • 3. Assoziieren der aufgenommenen zweidimensionalen Bildinformation (d. h. der Helligkeits- und/oder Farbinformation) mit räumlicher Information, insbesondere mit dreidimensionalen Raumkoordinaten, so dass sich aus der Verknüpfung eine dreidimensionale Bildinformation ergibt (s. Schritt 130)3. associating the acquired two-dimensional image information (ie the brightness and / or color information) with spatial information, in particular with three-dimensional space coordinates, so that the linkage results in three-dimensional image information (see step 130 )
  • 4. Projektion der dreidimensionalen Bildinformation auf eine zweidimensionale Projektionsebene ausgehend von einem neuen Prejektionszentrum (s. Schritt 140)4. Projection of the three-dimensional image information on a two-dimensional projection plane starting from a new Prejektionszentrum (see step 140 )

In den Schritten 100 und 110 erfolgt eine dimensionale Bildaufnahme mittels zweier zweidimensionaler Kameras des Kamerasystems, die an unterschiedlichen Stellen des Fahrzeugs verbaut sind. Bei den Kameras kann es sich um Farb-Kameras oder Schwarzweiß-Kameras handeln, die einen Farbwert bzw. Helligkeitswert für die aufgenommenen Bildpunkte liefern. Hierbei handelt es sich beispielsweise um die Kameras 10 und 11 in 3. Der Abstand der Kameras 10 und 11 kann auch deutlich geringer sein, als dies in 3 dargestellt ist. Die beiden Kameras können grundsätzlich an beliebigen Stellen im Fahrzeug integriert sein; außerdem können die beiden Kameras nur eine Untermenge aller im Fahrzeug verbauten Kameras darstellen. Bei der Bildaufnahme in den Schritten 100 und 110 wird vorausgesetzt, dass sich der Szenenbereich, der im Schritt 100 von einer Kamera erfasst wird, mit dem Szenenbereich, der in Schritt 110 von der anderen Kamera erfasst wird, zumindest teilweise überdeckt, wie dies beispielsweise in 4a1) und 4a2) der Fall ist.In the steps 100 and 110 a dimensional image acquisition takes place by means of two two-dimensional cameras of the camera system, which are installed at different points of the vehicle. The cameras can be color cameras or black-and-white cameras that provide a color value or brightness value for the recorded pixels. These are, for example, the cameras 10 and 11 in 3 , The distance of the cameras 10 and 11 can also be significantly lower than this in 3 is shown. The two cameras can basically be integrated anywhere in the vehicle; In addition, the two cameras can only represent a subset of all cameras installed in the vehicle. When taking pictures in the steps 100 and 110 It is assumed that the scene area in the step 100 captured by a camera, with the scene area in step 110 is covered by the other camera, at least partially covered, as for example in 4a1) and 4a2) the case is.

Anhand der in den Schritten 100 und 110 aufgenommenen Bildinformation lässt sich über ein Stereo-Triangulationsverfahren räumliche Information triangulieren (s. Schritt 120). Beispielsweise kann bei Kenntnis der Lage zweier korrespondierender zweidimensionaler Bildpunkte in dem Bild der ersten Kamera und dem Bild der zweiten Kamera sowie dem Abstand der beiden Kameras die dreidimensionale Raumkoordinate des zu den beiden Bildpunkten zugehörigen Raumpunktes bestimmt werden. Zur Bestimmung der Raumkoordinaten kann zunächst aus der Verschiebung (Disparität) zwischen korrespondierenden Bildpunkten über eine Disparitätsschätzung der tatsächliche Abstand zum zugehörigen Raumpunkt bestimmt werden. Die Bestimmung der dreidimensionalen Raumkoordinaten kann für sämtliche zweidimensionalen Bildpunkte im Überlappungsbereich der Kameras durchgeführt werden, so dass für diese zweidimensionalen Bildpunkte die Raumkoordinaten bestimmt werden können. Die Berechnung der Raumkoordinaten ist beispielsweise unter der Wikipedia-Internetseite „ http://en.wikipedia.org/wiki/Triangulation_(computer_vision) ” oder in dem Buch „Digitale Bildverarbeitung”, Bernd Jähne, Springer Berlin Heidelberg, 6. Auflage , beschrieben, deren Offenbarungsgehalt jeweils hiermit durch Bezugnahme in den vorliegenden Offenbarungsgehalt aufgenommen wird.Look in the steps 100 and 110 recorded image information can be triangulated by a stereo triangulation method spatial information (see step 120 ). For example, knowing the position of two corresponding two-dimensional pixels in the image of the first camera and the image of the second camera and the distance between the two cameras, the three-dimensional spatial coordinate of the corresponding to the two pixels point of space can be determined. To determine the spatial coordinates, the actual distance to the associated spatial point can first be determined from the displacement (disparity) between corresponding pixels via a disparity estimation. The determination of the three-dimensional spatial coordinates can be carried out for all two-dimensional pixels in the overlapping region of the cameras, so that the spatial coordinates can be determined for these two-dimensional pixels. The calculation of the spatial coordinates is, for example, under the Wikipedia website " http://en.wikipedia.org/wiki/Triangulation_(computer_vision) "Or in the book "Digital Image Processing", Bernd Jähne, Springer Berlin Heidelberg, 6th edition , the disclosure of which is hereby incorporated by reference in the present disclosure.

Alternativ kann zur Bestimmung von räumlicher Information statt eines Stereo-Triangulationsverfahren auch ein alternatives Verfahren zur Generierung von räumlicher Information verwendet werden, beispielsweise ein aktives Triangulationsverfahren oder elf Time-of-Flight-Verfahren. Bei einem aktiven Triangulationsverfahren wird mit einer Lichtquelle, beispielsweise einem Laser oder einer LED-Lichtquelle, ein bestimmtes Lichtmuster (beispielsweise Streifen) ausgestrahlt, dessen Reflektion mit einem Sensor, beispielsweise einer Kamera des Kamerasystems, detektiert wird, woraus sich wiederum über bekannte Verfahren der Objektabstand triangulieren lässt. Time-of-Flight hingegen ist ein Laufzeitverfahren, d. h. die Laufzeit des vom Sensor ausgesandten und vom Objekt reflektierten Lichts wird bestimmt, um daraus die Entfernung zu bestimmen. Beide Verfahren sind in der gängigen Literatur beschrieben, beispielsweise in „Handbook of Computer Vision and Applications”, Bernd Jähne, Academic Press Inc, 9. Oktober 2009 .Alternatively, an alternative method for generating spatial information can be used to determine spatial information instead of a stereo triangulation method, for example an active triangulation method or eleven time-of-flight methods. In an active triangulation method, a specific light pattern (for example strips) is emitted with a light source, for example a laser or an LED light source, the reflection of which is detected by a sensor, for example a camera of the camera system, which in turn results in known object distance can be triangulated. Time-of-flight, on the other hand, is a transit time method, ie the transit time of the light emitted by the sensor and reflected by the object is determined in order to determine the distance therefrom. Both methods are described in the current literature, for example in "Handbook of Computer Vision and Applications," Bernd Jähne, Academic Press Inc, October 9, 2009 ,

In Schritt 130 wird jedem Bildpunkt im Überlappungsbereich der aufgenommenen zweidimensionalen Bilder die jeweilige räumliche Information zugeordnet, beispielsweise die jeweiligen dreidimensionale Raumkoordinaten (beispielsweise x-, y-, z-Koordinaten). Dem System ist somit bekannt, welcher Farb- oder Helligkeitswert sich an der entsprechenden Position relativ zum Fahrzeug befindet.In step 130 Each pixel in the overlapping region of the recorded two-dimensional images is assigned the respective spatial information, for example the respective three-dimensional spatial coordinates (for example x, y, z coordinates). The system is thus aware of which color or brightness value is located at the corresponding position relative to the vehicle.

In Schritt 140 wird mittels dreidimensionaler Projektion virtuell die Kamera-Position (d. h. das Projektionszentrum) geändert, beispielsweise in eine Draufsicht auf die Fahrzeugumgebung. Bei der dreidimensionalen Projektion wird die dreidimensionale Bildinformation (d. h. der jeweilige Farb- oder Helligkeitswert an den jeweiligen Raumpunkten) auf eine zweidimensionale Bildebene projiziert. Diese Projektion wird beispielsweise umgesetzt, indem die Position der Bildobjekte relativ zum neuen Projektionszentrum in Bezug gesetzt wird und eine vorhandene Drehung der Koordinatensysteme zueinander mittels Rotationsmatrizen berücksichtigt wird. In Abhängigkeit von der Position des Betrachters zu diesem neuen Projektionszentrum wird dann die dreidimensionale Szenerie (die nun in dreidimensionalen Koordinaten relativ zum neuen Projektionszentrum vorliegt) in die zweidimensionale Bildebene projiziert. Im Wesentlichen beinhaltet dieser Schritt das Schneiden der Sichtstrahlen mit einer Bildebene. Das Verfahren der dreidimensionalen Projektion ist auf der Wikipedia-Internetseite „ http://en.wikipedia.org/wiki/3D_projection ” oder in dem Buch „Multiple View Geometry in Computer Vision”, Richard Hartley et al., Carmbridge University Press, 2. Auflage , beschrieben, deren Offenbarungsgehalt jeweils hiermit durch Bezugnahme in den vorliegenden Offenbarungsgehalt aufgenommen wird.In step 140 For example, the camera position (ie the projection center) is virtually changed by means of three-dimensional projection, for example in a plan view of the vehicle surroundings. In three-dimensional projection, the three-dimensional image information (ie the respective color or brightness value at the respective spatial points) is projected onto a two-dimensional image plane. This projection is implemented, for example, by relating the position of the image objects relative to the new projection center and taking into account any existing rotation of the coordinate systems relative to each other by means of rotation matrices. Depending on the position of the observer to this new projection center then the three-dimensional scenery (which is now present in three-dimensional coordinates relative to the new projection center) is projected into the two-dimensional image plane. In essence, this step involves cutting the visual beams with an image plane. The method of three-dimensional projection is on the Wikipedia website " http://en.wikipedia.org/wiki/3D_projection "Or in the book "Multiple View Geometry in Computer Vision," Richard Hartley et al., Carmbridge University Press, 2nd Edition , the disclosure of which is hereby incorporated by reference in the present disclosure.

Vorstehend wurde eine perspektivische Transformation von überlappender Bildinformation zweier Kameras unter Verwendung von räumlicher Information beschrieben. Zur Erzeugung einer Gesamtansicht aus mehreren Teilansichten können die vorstehend beschriebenen Schritte für die einzelnen Teilansichten durchgeführt werden, d. h. pro Teilansicht wird die überlappende Bildinformation zweier Kameras unter Verwendung von räumlicher Information in eine zweidimensionale Bildinformation mit geändertem Projektionszentrum transformiert. Hierbei wird das Projektionszentrum für alle Teilansichten identisch gewählt. Für die Teilansichten kann jedoch eine unterschiedliche Verkippung der virtuellen Kamera verwendet werden. Bei Verwendung des gleichen Projektionszentrums lassen sich die korrekt projizierten Teilansichten artefaktefrei zu einer Gesamtansicht aneinanderfügen. Beispielsweise können, wie in 7 dargestellt, pro Kamera überwachter Fahrzeugseite jeweils ein Kamera-Paar mit jeweils zwei zueinander versetzten Kameras vorgesehen werden. Bei Überwachung sämtlicher Fahrzeugseiten können also beispielsweise acht Kameras 1017 verwendet werden. Die gestrichelten Linien in 7 geben jeweils den Sichtbereich der Kameras 1017 an. Die Bildinformation der Kameras 10, 11 wird unter Verwendung von räumlicher Information zu einer ersten Teilansicht perspektivisch transformiert. Die Bildinformation der Kameras 12, 13 wird unter Verwendung von räumlicher Information zu einer zweiten Teilansicht perspektivisch transformiert. Die Bildinformation der Kameras 14, 15 wird unter Verwendung von räumlicher Information zu einer dritten Teilansicht perspektivisch transformiert. Die Bildinformation der Kameras 16, 17 wird unter Verwendung von räumlicher Information zu einer vierten Teilansicht perspektivisch transformiert. Die vier Teilansichten werden anschließend zu einer Gesamtsicht zusammengefügt.In the foregoing, a perspective transformation of overlapping image information of two cameras using spatial information has been described. To generate an overall view from a plurality of partial views, the above-described steps for the individual partial views can be carried out, ie, for each partial view, the overlapping image information of two cameras is transformed into two-dimensional image information with a changed projection center using spatial information. Here, the projection center is selected identically for all partial views. For the partial views, however, a different tilt of the virtual camera can be used. When using the same projection center, the correctly projected partial views can be joined together in an artifact-free manner to form an overall view. For example, as in 7 shown, per camera monitored vehicle side one pair of cameras each with two mutually offset cameras are provided. When monitoring all sides of the vehicle so for example, eight cameras 10 - 17 be used. The dashed lines in 7 each give the field of view of the cameras 10 - 17 at. The picture information of the cameras 10 . 11 is perspectively transformed using spatial information into a first partial view. The picture information of the cameras 12 . 13 is perspectively transformed using spatial information to a second partial view. The picture information of the cameras 14 . 15 is perspectively transformed using spatial information into a third partial view. The picture information of the cameras 16 . 17 is perspectively transformed using spatial information into a fourth partial view. The four partial views are then combined to form an overall view.

Bei fehlender räumlicher Information lässt sich die Bildtransformation mit Änderung der Kamera-Position nur dann durchführen, wenn vereinfachte Annahmen getroffen werden. Typischerweise wird dann nämlich angenommen, dass sich die Szene vollständig in einer Ebene, wie beispielsweise der Fahrbahnebene, befindet. Erhabene Objekte, wie beispielsweise Pfosten, werden dann fehlerhaft in die zweidimensionale Ebene transformiert. Da die Fehlerausprägung von der tatsächlichen Kameraposition abhängt, fällt der Fehler unterschiedlich aus und wird dadurch, insbesondere beim Aneinanderfügen mehrerer Bilder, als äußerst störend empfunden.In the absence of spatial information, the image transformation can only be performed with a change in the camera position if simplified assumptions are made. It is then typically assumed that the scene is completely in a plane, such as the roadway plane. Sublime objects, such as posts, are then incorrectly transformed into the two-dimensional plane. Since the error manifestation depends on the actual camera position, the error is different and is thus perceived as extremely disturbing, in particular when joining several images.

Die beschriebene Erfindung ermöglicht aufgrund der Verwendung von räumlicher Information eine realitätsgetreue perspektivische Transformation von aufgenommenen Kamera-Bildern und damit verbunden eine fehlerfreie Aneinanderfügung mehrerer Teilansichten zu einer realitätsgetreuen Anzeige des Fahrzeugumfeldes. Zur Gewinnung der räumlichen Information wird vorzugsweise das Kamerasystem selbst verwendet, indem beispielsweise die Kamera-Information eines Kamera-Paares mittels eines Stereo-Triangulationsverfahrens ausgewertet wird. Da in diesem Fall die Gewinnung der räumlichen Information unter Verwendung des Kamera-Systems erfolgt, das ohnehin zur Anzeige des Fahrzeug-Umfelds verbaut ist, sind die zusätzlichen Kosten gering. Es werden zur Realisierung der erfindungsgemäßen Funktion beispielsweise lediglich Änderungen am Bildfeld vorgenommen und zusätzliche Rechenkapazitäten auf dem Steuergerät zur Verfügung gestellt.The invention described allows due to the use of spatial information, a realistic perspective transformation of captured camera images and, associated with an error-free joining of several partial views to a realistic display of the vehicle environment. To obtain the spatial information, the camera system itself is preferably used by, for example, evaluating the camera information of a camera pair by means of a stereo triangulation method. In this case, since the spatial information is obtained by using the camera system which is installed anyway for displaying the vehicle environment, the additional cost is low. For the realization of the function according to the invention, for example, only changes to the image field are made and additional computing capacities are made available on the control unit.

Ebenso erlaubt die räumliche Information das Ableiten weiterer neuer Funktionen und kann als Ergänzung zur bestehenden Ultraschall-Sensorik gesehen werden.Likewise, the spatial information allows deriving further new functions and can be seen as a supplement to existing ultrasound sensors.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • EP 1775952 A2 [0005] EP 1775952 A2 [0005]
  • DE 102008029181 A1 [0006] DE 102008029181 A1 [0006]
  • DE 102009036200 A1 [0007] DE 102009036200 A1 [0007]
  • DE 10059900 A1 [0008] DE 10059900 A1 [0008]

Zitierte Nicht-PatentliteraturCited non-patent literature

  • http://en.wikipedia.org/wiki/Triangulation_(computer_vision) [0047] http://en.wikipedia.org/wiki/Triangulation_(computer_vision) [0047]
  • „Digitale Bildverarbeitung”, Bernd Jähne, Springer Berlin Heidelberg, 6. Auflage [0047] "Digital Image Processing", Bernd Jähne, Springer Berlin Heidelberg, 6th Edition [0047]
  • „Handbook of Computer Vision and Applications”, Bernd Jähne, Academic Press Inc, 9. Oktober 2009 [0048] "Handbook of Computer Vision and Applications," Bernd Jähne, Academic Press Inc, October 9, 2009 [0048]
  • http://en.wikipedia.org/wiki/3D_projection [0050] http://en.wikipedia.org/wiki/3D_projection [0050]
  • „Multiple View Geometry in Computer Vision”, Richard Hartley et al., Carmbridge University Press, 2. Auflage [0050] "Multiple View Geometry in Computer Vision", Richard Hartley et al., Carmbridge University Press, 2nd Edition [0050]

Claims (11)

Verfahren zum Darstellen der Umgebung des Kraftfahrzeugs in einer bestimmten Ansicht in einem Kraftfahrzeug, umfassend die Schritte: – Aufnehmen (100, 110) erster Bildinformation der Umgebung eines Kraftfahrzeugs mit zumindest einer Fahrzeug-Kamera (1017) eines ein oder mehrere Kameras umfassenden Fahrzeug-Kamerasystems; – Bestimmen (120) von räumlicher Information hinsichtlich der aufgenommenen erste Bildinformation; – unter Verwendung der räumlichen Information, Transformieren (130) der ersten Bildinformation in zweite Bildinformation entsprechend der bestimmten Ansicht; und – Darstellen der Umgebung des Kraftfahrzeugs in der bestimmten Ansicht basierend auf der zweiten Bildinformation.A method of representing the environment of the motor vehicle in a particular view in a motor vehicle, comprising the steps of: - picking up ( 100 . 110 ) first image information of the surroundings of a motor vehicle with at least one vehicle camera ( 10 - 17 ) a vehicle camera system comprising one or more cameras; - Determine ( 120 ) of spatial information regarding the captured first image information; - using the spatial information, transform ( 130 ) the first image information into second image information corresponding to the determined view; and - representing the environment of the motor vehicle in the particular view based on the second image information. Verfahren nach Anspruch 1, wobei die bestimmte Ansicht eine Ansicht von oben ist.The method of claim 1, wherein the particular view is a top view. Verfahren nach einem der vorhergehenden Ansprüche, wobei – der Schritt des Aufnehmens erster Bildinformation umfasst: – Aufnehmen (100) eines ersten Bildes aus einer ersten Kameraposition; und – Aufnehmen (110) eines zweiten Bildes aus einer zweiten Kameraposition, wobei der aufgenommene Umgebungsbereich des ersten Bildes und der aufgenommene Umgebungsbereich des zweiten Bildes zumindest teilweise überlappen; und – die räumliche Information durch ein das erste und das zweite Bild verarbeitendes Triangulationsverfahren bestimmt wird.Method according to one of the preceding claims, wherein - the step of recording first image information comprises: - recording ( 100 ) of a first image from a first camera position; and - recording ( 110 ) a second image from a second camera position, the captured surrounding area of the first image and the captured surrounding area of the second image at least partially overlapping; and the spatial information is determined by a triangulation method processing the first and the second image. Verfahren nach Anspruch 3, wobei das erste Bild mit einer ersten Kamera (1017) des Fahrzeug-Kamerasystems und das zweite Bild mit einer zweiten Kamera (1017) des Fahrzeug-Kamerasystems aufgenommen werden.Method according to claim 3, wherein the first image with a first camera ( 10 - 17 ) of the vehicle camera system and the second image with a second camera ( 10 - 17 ) of the vehicle camera system. Verfahren nach einem der vorhergehenden Ansprüche, wobei die räumliche Information unter Verwendung einer Kamera (1017) des Kamera-Systems bestimmt wird.Method according to one of the preceding claims, wherein the spatial information is determined using a camera ( 10 - 17 ) of the camera system. Verfahren nach einem der vorhergehenden Ansprüche, wobei die räumliche Information Tiefeninformation oder Raumkoordinaten-Information ist.Method according to one of the preceding claims, wherein the spatial information is depth information or space coordinate information. Verfahren nach einem der vorhergehenden Ansprüche, wobei bei dem Schritt des Bestimmens räumlicher Information Raumkoordinaten für die erste Bildinformation bestimmt werden.Method according to one of the preceding claims, wherein in the step of determining spatial information spatial coordinates for the first image information are determined. Verfahren nach Anspruch 7, wobei der Schritt des Transformierens der ersten Bildinformation in zweite Bildinformation umfasst: – Projizieren dreidimensionaler Bildinformation in eine zweidimensionale Bildebene, wobei die dreidimensionale Bildinformation der Verknüpfung der ersten Bildinformation mit den Raumkoordinaten entspricht.The method of claim 7, wherein the step of transforming the first image information into second image information comprises: Projecting three-dimensional image information into a two-dimensional image plane, the three-dimensional image information corresponding to the association of the first image information with the spatial coordinates. Verfahren nach einem der vorhergehenden Ansprüche, wobei – für eine Mehrzahl von Teilansichten jeweils erste Bildinformation aufgenommen wird; – zumindest für eine Teilansicht räumliche Information hinsichtlich der jeweiligen ersten Bildinformation bestimmt wird; – für jede der Mehrzahl von Teilansichten jeweils die erste Bildinformation in zweite Bildinformation transformiert wird, wobei dies zumindest für eine Teilansicht unter Verwendung der entsprechenden räumlichen Information erfolgt und die zweite Bildinformation für die Mehrzahl der Teilansichten jeweils das gleiche Projektionszentrum aufweist; und – zweite Bildinformation für die Mehrzahl der Teilansichten zusammengefügt wird und die Zusammenfügung zweiter Bildinformation dargestellt wird.Method according to one of the preceding claims, wherein For each of a plurality of partial views, first image information is recorded; - At least for a partial view spatial information is determined with respect to the respective first image information; For each of the plurality of partial views, in each case the first image information is transformed into second image information, this taking place at least for a partial view using the corresponding spatial information and the second image information for the plurality of partial views each having the same projection center; and - Combining second image information for the plurality of partial views and the assembly of second image information is displayed. Verfahren nach Anspruch 9, wobei für jede der Mehrzahl von Teilansichten räumliche Information bestimmt wird und die Transformation für jede der Mehrzahl von Teilansichten unter Verwendung der räumlichen Information erfolgt.The method of claim 9, wherein spatial information is determined for each of the plurality of subviews and the transformation is performed for each of the plurality of subviews using the spatial information. System für ein Kraftfahrzeug zum Darstellen der Umgebung des Kraftfahrzeugs in einer bestimmten Ansicht, umfassend: – ein Fahrzeug-Kamerasystem mit eine oder mehrerer Fahrzeug-Kameras (1017), wobei das Fahrzeug-Kamerasystem eingerichtet ist, erste Bildinformation der Umgebung eines Kraftfahrzeugs mit zumindest einer Fahrzeug-Kamera aufzunehmen; – Mittel zum Bestimmen von räumlicher Information hinsichtlich der aufgenommenen erste Bildinformation; – Mittel zum Transformieren der ersten Bildinformation unter Verwendung der räumlichen Information in zweite Bildinformation entsprechend der bestimmten Ansicht; und – Mittel zum Darstellen der Umgebung des Kraftfahrzeugs in der bestimmten Ansicht basierend auf der zweiten Bildinformation.System for a motor vehicle for representing the surroundings of the motor vehicle in a specific view, comprising: a vehicle camera system with one or more vehicle cameras ( 10 - 17 ), wherein the vehicle camera system is adapted to receive first image information of the surroundings of a motor vehicle with at least one vehicle camera; - means for determining spatial information regarding the captured first image information; - means for transforming the first image information using the spatial information into second image information according to the determined view; and means for representing the environment of the motor vehicle in the particular view based on the second image information.
DE102011082881A 2011-09-16 2011-09-16 Method for representing surroundings of vehicle e.g. motor vehicle e.g. car, involves transforming primary image information into secondary image information corresponding to panoramic view using spatial information Withdrawn DE102011082881A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102011082881A DE102011082881A1 (en) 2011-09-16 2011-09-16 Method for representing surroundings of vehicle e.g. motor vehicle e.g. car, involves transforming primary image information into secondary image information corresponding to panoramic view using spatial information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011082881A DE102011082881A1 (en) 2011-09-16 2011-09-16 Method for representing surroundings of vehicle e.g. motor vehicle e.g. car, involves transforming primary image information into secondary image information corresponding to panoramic view using spatial information

Publications (1)

Publication Number Publication Date
DE102011082881A1 true DE102011082881A1 (en) 2013-03-21

Family

ID=47751041

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011082881A Withdrawn DE102011082881A1 (en) 2011-09-16 2011-09-16 Method for representing surroundings of vehicle e.g. motor vehicle e.g. car, involves transforming primary image information into secondary image information corresponding to panoramic view using spatial information

Country Status (1)

Country Link
DE (1) DE102011082881A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013215408A1 (en) 2013-08-06 2015-03-05 Bayerische Motoren Werke Aktiengesellschaft A vehicle display system and method for displaying a vehicle environment
DE102014204303A1 (en) 2014-03-10 2015-09-10 Robert Bosch Gmbh A method of merging frames captured by a camera system from different positions into a common image
CN105100702A (en) * 2014-05-22 2015-11-25 F·波尔希名誉工学博士公司 Method for presenting a vehicle's environment, display apparatus, system, and computer program
DE102015205377A1 (en) * 2015-03-25 2016-09-29 Volkswagen Aktiengesellschaft View of an environment of a vehicle
EP3188080A1 (en) 2016-01-04 2017-07-05 Volkswagen Aktiengesellschaft Method for evaluating gestures

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10059900A1 (en) 2000-12-01 2002-06-13 Daimler Chrysler Ag Method for helping a motor vehicle driver by representation of surrounding objects in birds-eye view, so that especially during parking he can better judge distances and see any hidden or moving objects
US20050110869A1 (en) * 2003-11-24 2005-05-26 Tillotson Brian J. Virtual pan/tilt camera system and method for vehicles
EP1775952A2 (en) 2005-10-17 2007-04-18 Sanyo Electric Co., Ltd. Vehicle drive assistance system
DE102008029181A1 (en) 2008-06-19 2009-02-19 Daimler Ag Motor vehicle's surrounding area monitoring method, involves detecting surrounding area of vehicle by cameras whose displayed areas partially overlap each other, where partial areas of frames of cameras are arranged parallel to each other
DE102009036200A1 (en) 2009-08-05 2010-05-06 Daimler Ag Method for monitoring surrounding area of vehicle utilized for transport of e.g. goods, involves generating entire image, where course of boundary lines is given such that lines run away from objects depending on positions of objects
US20100117812A1 (en) * 2008-11-10 2010-05-13 Lorenz Laubinger System and method for displaying a vehicle surrounding with adjustable point of view

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10059900A1 (en) 2000-12-01 2002-06-13 Daimler Chrysler Ag Method for helping a motor vehicle driver by representation of surrounding objects in birds-eye view, so that especially during parking he can better judge distances and see any hidden or moving objects
US20050110869A1 (en) * 2003-11-24 2005-05-26 Tillotson Brian J. Virtual pan/tilt camera system and method for vehicles
EP1775952A2 (en) 2005-10-17 2007-04-18 Sanyo Electric Co., Ltd. Vehicle drive assistance system
DE102008029181A1 (en) 2008-06-19 2009-02-19 Daimler Ag Motor vehicle's surrounding area monitoring method, involves detecting surrounding area of vehicle by cameras whose displayed areas partially overlap each other, where partial areas of frames of cameras are arranged parallel to each other
US20100117812A1 (en) * 2008-11-10 2010-05-13 Lorenz Laubinger System and method for displaying a vehicle surrounding with adjustable point of view
DE102009036200A1 (en) 2009-08-05 2010-05-06 Daimler Ag Method for monitoring surrounding area of vehicle utilized for transport of e.g. goods, involves generating entire image, where course of boundary lines is given such that lines run away from objects depending on positions of objects

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
"Digitale Bildverarbeitung", Bernd Jähne, Springer Berlin Heidelberg, 6. Auflage
"Handbook of Computer Vision and Applications", Bernd Jähne, Academic Press Inc, 9. Oktober 2009
"Multiple View Geometry in Computer Vision", Richard Hartley et al., Carmbridge University Press, 2. Auflage
http://en.wikipedia.org/wiki/3D_projection
http://en.wikipedia.org/wiki/Triangulation_(computer_vision)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013215408A1 (en) 2013-08-06 2015-03-05 Bayerische Motoren Werke Aktiengesellschaft A vehicle display system and method for displaying a vehicle environment
DE102014204303A1 (en) 2014-03-10 2015-09-10 Robert Bosch Gmbh A method of merging frames captured by a camera system from different positions into a common image
WO2015135670A1 (en) * 2014-03-10 2015-09-17 Robert Bosch Gmbh Method for assembling single images that have been taken from different positions by a camera system to form a joint image
US10384606B2 (en) 2014-03-10 2019-08-20 Robert Bosch Gmbh Method for assembling single images recorded by a camera system from different positions, to form a common image
CN105100702A (en) * 2014-05-22 2015-11-25 F·波尔希名誉工学博士公司 Method for presenting a vehicle's environment, display apparatus, system, and computer program
DE102014107235A1 (en) * 2014-05-22 2015-11-26 Dr. Ing. H.C. F. Porsche Aktiengesellschaft A method of displaying a vehicle environment on a display device; a display device; a system of a plurality of image capture units and a display device; a computer program
CN105100702B (en) * 2014-05-22 2019-12-20 F·波尔希名誉工学博士公司 Method, display device, system and computer program for presenting vehicle environment
DE102015205377A1 (en) * 2015-03-25 2016-09-29 Volkswagen Aktiengesellschaft View of an environment of a vehicle
EP3188080A1 (en) 2016-01-04 2017-07-05 Volkswagen Aktiengesellschaft Method for evaluating gestures
DE102016100075A1 (en) 2016-01-04 2017-07-06 Volkswagen Aktiengesellschaft Method for evaluating gestures

Similar Documents

Publication Publication Date Title
DE102006003538B3 (en) Image acquisitions merging method for bird`s eye perspective, involves selecting image sections such that shadowing effects produced by moved objects are projected during transition in overall image from image section to other section
DE102017120112A1 (en) DEPTH CARE VALUATION WITH STEREO IMAGES
EP2766879A2 (en) Method for integrating virtual objects into vehicle displays
EP3117399B1 (en) Method for assembling single images that have been taken from different positions by a camera system to form a joint image
DE102015108955A1 (en) Rundsichtsystem and operating procedures thereof
WO2015048967A1 (en) Method and apparatus for displaying the surroundings of a vehicle, and driver assistance system
EP3762857A1 (en) Surround view system having an adapted projection surface
DE102010042026B4 (en) Method for generating an image of at least one object in the surroundings of a vehicle
DE102014116199A1 (en) Image distortion compensation device and method of operation therefor
DE102013206435A1 (en) Visualization system and device for generating and displaying a virtual image of a vehicle environment
DE102011107458A1 (en) Method for evaluating an object recognition device of a motor vehicle
DE102011082881A1 (en) Method for representing surroundings of vehicle e.g. motor vehicle e.g. car, involves transforming primary image information into secondary image information corresponding to panoramic view using spatial information
DE112017007923T5 (en) Display control device, display control method and display system
DE102014012250B4 (en) Process for image processing and display
DE102006037600B4 (en) Method for the resolution-dependent representation of the environment of a motor vehicle
WO2020001838A1 (en) Method for sensor and memory-based depiction of an environment, display apparatus and vehicle having the display apparatus
DE102013012778A1 (en) Method for detecting a moving pedestrian on the basis of characteristic features and optical flow vectors of an image, camera system and motor vehicle
DE102009026091A1 (en) Method for monitoring three-dimensional spatial area, particularly work cell of automatic working machine, for e.g. robot, involves accomplishing independent scene analysis of images in or for each camera
DE102011121473A1 (en) A method for displaying images on a display device of a motor vehicle, driver assistance device, motor vehicle and computer program
DE102017010683A1 (en) Method for automatic restoration of a measured state of a projection system
EP3073446A1 (en) Method for representing the surroundings of a vehicle
EP3571091B1 (en) Method and device for displaying the surroundings of a vehicle
DE112021002598T5 (en) IMAGE PROCESSING DEVICE
DE102005002636A1 (en) Video data processing method for camera system, involves applying coordinate transformation to camera image for obtaining transformed camera image, where transformation transfers camera coordinate system to destination coordinate system
DE102015014199B4 (en) Method and system for improving the object recognition performance of a 3D recognition unit

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee