EP4208372A1 - Method for displaying the surroundings of a vehicle on a display device, processing unit, and vehicle - Google Patents

Method for displaying the surroundings of a vehicle on a display device, processing unit, and vehicle

Info

Publication number
EP4208372A1
EP4208372A1 EP21769721.8A EP21769721A EP4208372A1 EP 4208372 A1 EP4208372 A1 EP 4208372A1 EP 21769721 A EP21769721 A EP 21769721A EP 4208372 A1 EP4208372 A1 EP 4208372A1
Authority
EP
European Patent Office
Prior art keywords
display device
overlay structure
vehicle
displayed
round
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP21769721.8A
Other languages
German (de)
French (fr)
Inventor
Tobias KLINGER
Ralph-Carsten Lülfing
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF CV Systems Global GmbH
Original Assignee
ZF CV Systems Global GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF CV Systems Global GmbH filed Critical ZF CV Systems Global GmbH
Publication of EP4208372A1 publication Critical patent/EP4208372A1/en
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Definitions

  • the invention relates to a method for displaying surroundings of a vehicle, in particular a commercial vehicle, on a display device, a processing unit for carrying out the method, and a vehicle.
  • DE 10 2017 108 254 B4 describes how to create an image composed of individual images and display it on a display.
  • the individual images are each recorded by several cameras.
  • Depth information relating to the object, in particular a position of the object, can be determined by triangulating two or more images.
  • the objects can also be tracked over time.
  • a first image from the first camera and a second image from the second camera are projected via a homographic matrix onto a ground plane and reference plane, respectively, before the first image and the second image are rotated to create a combined image of the environment.
  • DE 100 35 223 A1 describes creating an overall image or all-round view image from a number of individual images and projecting the vehicle itself into the all-round view image as an artificial graphic object or overlay structure.
  • EP 3 293 700 B1 describes reconstructing parts of the environment from a number of individual images from a camera using a structure-from-motion method and thus determining depth information on individual objects. A quality metric is determined in order to obtain an optimal reconstruction of the environment. By combining several cameras or individual images, this can also be done in an all-round view.
  • DE 102018 100 909 A1 describes how the structure-from-motion method is used to obtain a reconstruction of the current environment and to classify or categorize objects in a neural network.
  • the object of the invention is to specify a method for displaying the surroundings of a vehicle on a display device which can be carried out with little hardware and computing effort and enables an observer to easily orientate himself in the environment.
  • the task is also to specify a processing unit and a vehicle.
  • a method for displaying the surroundings of a vehicle on a display device and also a processing unit for carrying out the method with at least the following steps are provided:
  • the environment around the vehicle is recorded, particularly in a close-up area, with at least two cameras, each camera having a different field of view, with the fields of view of neighboring cameras overlapping at least in certain areas, in particular at the edges.
  • An all-round view image is then created from the individual images determined in this way, with each individual image being recorded by a different camera at approximately the same time and the individual images for creating the all-round view image being projected into a reference plane, for example using a homography matrix.
  • depth information is determined for at least one object in the recorded environment, the depth information being obtained by triangulation from at least two different individual images from the same camera, preferably by a so-called structure-from-motion method, the at least one object being imaged in the at least two different individual images, preferably from at least two different points of view.
  • a stereo camera system is not used to determine the depth information. Rather, a perspective reconstruction of the surroundings or the object is obtained merely by image processing of the individual images of a camera, from which the depth information can be derived.
  • At least one overlay structure is generated as a function of the depth information previously determined by the SfM method, with each overlay structure being uniquely assigned to an imaged object.
  • the all-round view image created containing the at least one object and the at least one overlay structure generated is then displayed on the display device in such a way that the at least one overlay structure is displayed on and/or adjacent to the respectively assigned object .
  • An overlay structure can therefore advantageously be displayed on the display device without additional sensors, based solely on methods of image processing, in particular structure-from-motion. With recourse to the previously determined depth information, this can be displayed in a targeted manner at the position or adjacent to the position on the display device on which the object is also displayed. Even if the respective object in the all-round view image is not displayed on the display device in a geometrically interpretable manner, the overlay structure can help to ensure that the all-round view image can be used for reliable orientation, since the overlay structure contains the essential information relating to an object emphasized on the display device. A distortion of raised objects in the all-round view image that occurs as a result of the projection into the reference plane can at least be compensated for in this way.
  • the display of the overlay structure can also solve the problem that objects in the overlapping areas of individual images from two adjacent cameras often "disappear" or can be perceived insufficiently, since these objects are tilted backwards in the respective camera perspective and in the all-round view -Image usually does not appear at all or at least cannot be perceived adequately.
  • an object is contained in the overlay structures according to the method described above and is therefore also displayed in the all-round view image.
  • the outer edge is preferably understood to mean an outer boundary of the respective object, with the bar or the respective overlay structure being superimposed at least on that outer edge or boundary that is closest to the host vehicle.
  • a boundary of the object in the direction of one's own vehicle can be identified on the all-round view by means of a bar.
  • the observer can clearly see up to which point in space one's own vehicle can be maneuvered or positioned without touching the object, for example during a parking or maneuvering operation.
  • a polygon is displayed on the display device as an overlay structure in such a way that the polygon at least partially, preferably completely, spans the respectively assigned object.
  • the polygon can also be adapted to this object contour or object shape. If the object contour or the object shape is not known, a rectangle can be assumed as a polygon, for example, which covers the object points of the respective object depicted in the all-round view image.
  • the viewer can also be provided with information regarding the spatial characteristics of the object by means of color coding.
  • an overlay structure on the display device that is further away from one's own vehicle can be given a color, for example, which indicates a low level of danger, for example a green color.
  • an overlay structure that is closer to one's own vehicle on the display device can be given a color that indicates a higher risk, for example a red color. Any color gradations are possible depending on the object distance. Provision can preferably also be made for the color and/or the type of overlay structure of the respective object to be dependent on a movement indicator assigned to the object, with the movement indicator indicating whether the respective object can move, e.g. a person or a vehicle, or is permanently stationary, for example a building or a lantern, the movement indicator being obtained from the ascertained depth information with regard to the respectively associated object. As a result, it can additionally be highlighted on the display device which additional danger can emanate from the displayed object due to a potential movement if this object cannot be clearly recognized directly on the all-round view image due to the distortion.
  • object points on the object depicted in the individual images are tracked over time in order to derive the movement indicator for the object in question. Accordingly, by forming difference images, for example, it can be determined how individual image pixels behave over time and a movement of the object can be inferred from this. Provision can preferably also be made for the at least one overlay structure to be displayed opaquely or at least partially transparently on the display device, so that the at least one overlay structure completely or at least partially displays the all-round view image on and/or adjacent to the respectively assigned object related to the transparency covers.
  • the respective object can be emphasized by the overlay structure, but at the same time the viewer can be given the opportunity to still recognize the object lying behind it, in order to make a plausible assessment of the danger that the object can pose.
  • the transparency of the overlay structure can also be defined in a manner similar to the color coding as a function of the depth information relating to the object. For example, objects with a larger object distance from the vehicle can be displayed with greater transparency than objects with a small object distance from the vehicle, as a result of which more relevant objects are highlighted more strongly.
  • the display device has display pixels, with all-round view pixels of the all-round view image being displayed on the display pixels of the display device, with an object contained in the all-round view image being displayed on object pixels, with the object pixels being a subset of the display pixels, wherein the overlay structure assigned to the respective object is displayed or superimposed on and/or adjacent to the respective object pixels on the display device.
  • the overlay structures are preferably superimposed by superimposing an overlay image with at least one overlay structure on the all-round view image with the at least one object on the display device in such a way that the overlay structure assigned to the respective object is on and/or adjacent to the respective object pixels is displayed on the display device.
  • a pre-processing is first carried out using the depth information in such a way that an overlay image is created in which preferably Finally, the overlay structures are displayed at the positions at which or adjacent to which the objects are displayed in the all-round view image.
  • these two images can then be displayed simultaneously on the display device in order to achieve the superimposition according to the invention.
  • the all-round view image itself contains the at least one overlay structure, with the all-round view image being adapted in this way at and/or adjacent to the all-round view pixels on which an object is depicted that the overlay structure assigned to the respective object is displayed on and/or adjacent to the respective object pixels on the display device.
  • the display device is only sent an image for display, which is “provided” with the overlay structures in advance, in that the pixels are appropriately “manipulated” in order to display the overlay structures in this image.
  • the vehicle itself can thus also be viewed as an object to which overlay structures are assigned, which the viewer can use to orientate himself.
  • the position of the isolines depends on the spatial information that is determined via the individual images. For example, the isolines can be displayed at intervals of 1 m around the host vehicle.
  • the overlay structures can also be color-coded with color gradations, so that iso-lines closer to the vehicle are shown in red and iso-lines further away are shown in green, with a corresponding color gradient for iso-lines in between.
  • the transparency of the isolines can also vary depending on the iso distance in order to make the distances to the vehicle easily recognizable to the viewer.
  • a vehicle according to the invention in which the method according to the invention can be carried out, therefore has at least two cameras, each camera having a different field of view, with the fields of view of adjacent cameras overlapping at least partially, in particular at the edges.
  • a display device and a processing unit according to the invention are provided in the vehicle, the display device being designed to display a created all-round view image containing at least one object and at least one generated overlay structure—as part of the all-round view image or as a separate overlay image - to represent in such a way that the at least one overlay structure is displayed on and/or adjacent to the respectively assigned object.
  • each individual camera has a field of vision with a viewing angle of greater than or equal to 120°, in particular greater than or equal to 170°, the camera being designed, for example, as a fisheye camera that is selected from the group on at least two sides of the vehicle consisting of a front, a back or at least one long side.
  • the individual cameras are preferably aimed at a close-up area of the environment, i.e. at the ground, in order to enable a bird's-eye view.
  • FIG. 1 shows a schematic of a vehicle for carrying out the method according to the invention
  • 2a shows a detailed view of an object imaged in two individual images from a single camera
  • FIG. 2b shows a detailed view of a display device in the vehicle according to FIG. 1 ;
  • FIG. 3 shows a detailed view of the environment displayed on the display device.
  • FIG. 1 shows a vehicle 1, in particular a commercial vehicle, which, according to the embodiment shown, has a front camera 3a on a front side 2a, for example in the roof liner, and a rear camera 3b on a rear side 2b. Furthermore, side cameras 3c are arranged on the longitudinal sides 2c of the vehicle 1, for example on the mirrors. Additional cameras 3 (not shown) can also be provided in the vehicle 1 in order to capture an environment U, in particular a close-up area N (environment up to 10 m away from the vehicle 1).
  • a close-up area N environment up to 10 m away from the vehicle 1).
  • Each camera 3 has a field of vision 4, with a front field of vision 4a of the front camera 3a looking forward, a rear field of vision 4b of the rear field camera 3b looking backward and a side field of vision 4c of the side cameras 3c to the respective side of the Vehicle 1 are aligned.
  • the cameras 3 are aligned towards the ground on which the vehicle 1 is moving.
  • the number and the position of the cameras 3 is preferably chosen such that the viewing areas 4 of adjacent cameras 3 overlap in the close-up area N, so that all viewing areas 4 together can cover the close-up area N without gaps and thus over the entire area.
  • the cameras 3 can each be designed, for example, as fisheye cameras, which can each cover a field of view 4 with a viewing angle W of equal to or greater than 170°.
  • Each camera 3 outputs image signals SB that characterize the surroundings U in the field of view 4 that are imaged on the sensor of the respective camera 3 .
  • the image signals SB are output to a processing unit 6, the processing unit 6 being designed to generate 3 individual images EBk (running index k) for each camera on the basis of the image signals SB.
  • the kth individual image EBk has a number Ni of individual image pixels EBkPi (running index i from 0 to Ni) on which the surroundings U are imaged.
  • Certain single image pixels EBkPi are assigned to object points PPn (running index n) which belong to an object 0 in the environment U according to FIG.
  • the individual images EBk from different cameras 3 are converted by projecting the individual images EBk into a reference plane RE, for example a horizontal plane under the vehicle 1 (cf. a plane parallel to the plane spanned by xO and yO in FIG. 2a), an all-round view image RB with a number Np of all-round view image pixels RBPp (running index p from 0 to Np) is created by a perspective transformation, eg as a function of a homography matrix, using an all-round view algorithm A1.
  • the all-round view image RB the surroundings U around the vehicle 1 are displayed without gaps on all sides, at least in the close-up range N (cf. FIG.
  • the all-round view image RB results in an all-round view field of view 4R, which is larger than the individual fields of view 4 of the cameras 3.
  • This all-round view image RB of the close-up area N can be shown to an occupant, for example the driver of the vehicle 1, on a display device 7 be issued, so that the driver can orientate himself, for example, when parking or maneuvering.
  • the environment U can be presented to the viewer in a bird's-eye view.
  • the display device 7 has a number Nm of display pixels APm (running index m from 0 to Nm), with each all-round view image pixel RBPp being displayed on a specific display pixel APm of the display device 7, so that the viewer All-round view image RB visible on the display device 7 results.
  • a dynamic subset of the display pixels APm are object pixels OAPq (running index q), on which an object O from the environment U is displayed (only schematically in FIG. 2b). All-round view image pixels RBPp, on which a specific object O from the environment U or a specific object point PPn is imaged, are therefore assigned to the object pixels OAPq.
  • the application of the all-round view algorithm A1 can result in distortions occurring at the image edges of the all-round view image RB.
  • further information which results from depth information TI for the objects 0 shown, is superimposed on the created all-round view image RB.
  • the depth information TI is obtained from a number of individual images EBk from a single camera 3 using the so-called Structure-from-Motion (SfM) method. Depth information TI is therefore extracted camera by camera for each camera 3 individually.
  • SfM Structure-from-Motion
  • the relevant three-dimensional object 0 in the environment U with its object points PPn is recorded by the respective camera 3 from at least two different viewpoints SP1, SP2, as shown in FIG. 2a.
  • the depth information TI relating to the respective three-dimensional object 0 can then be obtained by triangulation T:
  • image coordinates xB, yB are determined for at least one first single-image pixel EB1 P1 in a first single image EB1, e.g. of the front camera 3a, and at least one first single-image pixel EB2P1 in a second single image EB2, also of the front camera 3a.
  • Both individual images EB2 are recorded by the front camera 3a at different positions SP1, SP2, ie the vehicle 1 or the front camera 3a moves by a base length L between the individual images EB1, EB2.
  • the first two individual image pixels EB1 P1 , EB2P1 are selected in the respective individual images EB1, EB2 in such a way that they are assigned to the same object point PPn on the three-dimensional object 0 that is depicted in each case.
  • one or more pairs of individual image pixels EB1Pi, EB2Pi for one or more object points PPn can be determined for one or more objects 0 in the environment U.
  • a certain number of frame Pixels EB1 Pi, EB2Pi in the respective individual image EB1, EB2 are combined in a feature point MP1, MP2 (see Fig. 2), the individual image pixels EB1 Pi, EB2Pi to be combined being selected in such a way that the respective feature point MP1, MP2 has a specific clearly localizable feature M is assigned to the three-dimensional object 0.
  • the feature M can be, for example, a corner ME or an outer edge MK on the three-dimensional object 0 (cf. FIG. 2a).
  • the absolute, actual object coordinates xO, yO, zO (world coordinates) of the three-dimensional Object 0 or the object point PPj or the feature M are calculated or estimated.
  • a correspondingly determined base length L between the positions SP1, SP2 of the front camera 3a is used.
  • both a position and an orientation, ie a pose, of the vehicle 1 relative to the respective three-dimensional object 0 can then be determined from geometric considerations if the triangulation T for a sufficient number of object points PPi or characteristics M of an object 0 was carried out.
  • the processing unit 6 can also at least estimate an object shape FO and/or an object contour CO if the exact object coordinates xO, yO, zO of a plurality of object points PPj or features M of an object 0 are known.
  • the object shape FO and/or the object contour CO can be supplied to a deep learning algorithm A2 for later processing.
  • objects 0 and their object coordinates xO, yO, zO can also be detected by any other camera 3 in the vehicle 1 and their position and orientation in space can be determined via this.
  • it can additionally be provided that more than two individual images EB1, EB2 are recorded with the respective camera 3 and evaluated by triangulation T as described above and/or a bundle adjustment is additionally carried out.
  • the object 0 for the SfM method can be viewed from at least two different viewpoints SP1, SP2 by the respective camera 3, as shown schematically in FIG. 2a.
  • the respective camera 3 is to be moved into the different positions SP1, SP2 in a controlled manner.
  • Based on odometry data OD it can be determined which base length L results between the positions SP1, SP2 from this movement. Different methods can be used for this:
  • the vehicle 1 is actively set in motion in its entirety, for example by the drive system, or passively, for example by a slope will. If at least two individual images EB1, EB2 are recorded by the respective camera 3 during this movement within a time offset, the base length L can be determined using odometry data OD, from which the vehicle movement and thus also the camera movement can be derived. The two positions SP1, SP2 assigned to the individual images EB1, EB2 are thus determined by odometry.
  • wheel speed signals S13 from active and/or passive wheel speed sensors 13 on the wheels of vehicle 1 can be used as odometry data OD.
  • these can be used to determine how far the vehicle 1 or the respective camera 3 has moved between the positions SP1, SP2, from which the Base length L follows.
  • further odometry data OD available in the vehicle 1 can be accessed.
  • a steering angle LW and/or a yaw rate G which are correspondingly determined by sensors or analytically, can be used in order to also take into account the rotational movement of the vehicle 4 .
  • odometry can also be used.
  • a camera position can be continuously determined from the image signals SB of the respective camera 3 or from information in the captured individual images EB1, EB2, insofar as object coordinates xO, yO, zO of a specific object point PPn, for example, are known at least at the beginning.
  • the odometry data OD can therefore also contain a dependency on the camera position determined in this way, since the vehicle movement between the two positions SP1, SP2 or directly also the base length L can be derived from this.
  • an active adjustment of the camera 3 can also be provided without changing the state of motion of the entire vehicle 1 . Accordingly, any movements of the respective camera 3 are possible in order to bring them into different positions SP1, SP2 in a controlled and measurable manner.
  • overlay structures 20 can subsequently be superimposed on the all-round view image RB, as shown in FIG.
  • the superimposition can take place in such a way that the display device 7 is transmitted the all-round view image RB via an all-round view image signal SRB and an overlay image OB to be superimposed with the respective overlay structures 20 is transmitted via an overlay signal SO.
  • the display device Device 7 displays both images RB, OB on the corresponding display pixels APm, for example by pixel addition or pixel multiplication or any other pixel operation.
  • the all-round view image RB can also be changed or adjusted directly in the processing unit 6 at the corresponding all-round view pixels RBPp, so that the display device 7 can use the all-round view image signal SRB to show an all-round view image RB that contains the overlay structures 20 includes, is transmitted for display.
  • the additional overlay structures 20 are uniquely assigned to a specific object O in the environment U.
  • the observer can be presented with additional information about the respective object O, which makes orientation in the area U based on the display more convenient.
  • the overlay structure 20 can be, for example, a bar 20a and/or a polygon 20b and/or a text 20c, which can additionally be encoded depending on the respectively associated depth information TI.
  • the superimposition takes place in such a way that the overlay structure 20 appears on or adjacent to the object pixels OAPq of the display device 7 which are assigned to the object O.
  • the respective object pixels OAPq can be dynamically identified by the processing unit 6 via the all-round view algorithm A1. Based on this, the overlay image OB can be created or the all-round view pixels RBPp of the all-round view image RB can be changed or adjusted directly, so that the respective overlay structure 20 is on or adjacent to the respective object O on the display device 7 appears.
  • a bar 20a can be displayed on the display pixels APm of the display device 7 that is located on or adjacent to an outer edge MK of the respective object O that is closest to the host vehicle 1 .
  • the alignment of the bar 20a can be chosen such that the bar 20a is perpendicular to an object normal NE, as shown in FIG Delimitation of the object 0 indicates if the object 0 has no straight outer edge MK, for example.
  • the object normal NO can be estimated from the depth information TI on this object, ie from the position and the orientation, which follows from the SfM method.
  • the object pixels OAPq of the object O, to which the bar 20a is also assigned can be colored in a fixed color F.
  • the object O itself is displayed more clearly, so that possible distortions in the display of the object O are perceived less.
  • a polygon 20b with the object shape OF or the object contour OC in a specific color F is thus superimposed as a further overlay structure 20 on the all-round view image RB in the area of the object pixels OAPq. If the object shape OF or the object contour OC cannot be clearly determined in the SfM method, only a rectangle can be assumed for the object O, which then runs “behind” the bar 20a as seen from the vehicle 1 .
  • the further overlay structure 20 is a polygon 20b with four corners.
  • Black for example, can be selected as the color F.
  • the color F can also be selected as a function of an object distance OA from the respective object O.
  • the bar 20a itself can also be color-coded depending on the object distance OA from the respective object O.
  • the object distance OA between the vehicle 1 and the object O also follows from the depth information TI on this object obtained via the SfM method, i.e. from the position and the orientation.
  • the color F of the respective overlay structure 20, ie the bar 20a and/or the polygon 20b can be displayed in a warning color, in particular red, for example will. If the object distance OA of the object O is in a range between 1 m and 5 m, yellow can be used as the color F for this object O associated overlay structure 20 can be used. In the case of object distances OA greater than 5 m, green can be provided as the color F. In this way, the danger emanating from the respective object O can be shown to the observer in a clear manner. Since the depth information TI is obtained from the individual images EBk, the distortions from the all-round view algorithm A1 have no influence on the overlay structures 20 and can therefore be displayed at the correct position on the display device 7 starting from the host vehicle 1 .
  • the respective overlay structure 20 can be displayed opaquely or at least partially transparently on the display device 7, so that the at least one overlay structure 20 completely or at least partially shows the all-round view image RB on and/or adjacent to the respectively assigned object O in terms of transparency.
  • the color F of the overlay structure 20 can be selected as a function of a movement indicator B.
  • an object contour OC and/or an object shape OF for the respectively detected object O can be determined using the SfM method. However, no direct conclusions about the dynamics of the object O can be drawn from the SfM method. However, if the object contour OC and/or the object shape OF is supplied to a deep learning algorithm A2 in the processing unit 6, at least one classification of the object O can take place, from which the possible dynamics of the object O can then be inferred .
  • the object contour OC and/or the object shape OF of the respective object O can be compared with known objects. These can be stored in a database, which is stored, for example, in a memory fixed to the vehicle or which can be accessed from vehicle 1 via a mobile data connection. Based on the entries of known objects in the database, it can be determined whether the detected object O is a person or a building or a vehicle or the like. Each detected object 0 can be assigned a movement indicator B stored in the database, which indicates whether and how the object 0 normally moves in the environment U. From this it can be concluded whether increased attention to the object 0, eg in the case of people, is required.
  • the overlay structure 20, for example the bar 20a and/or the polygon 20b or another overlay structure 20, can be coded according to the movement indicator B, for example in color.
  • a text 20c for example in the form of an “!” (exclamation mark), etc., can be superimposed as a further overlay structure 20.
  • the movement indicator B of an object O can also be estimated by chronologically tracking individual image pixels EBkPi, which are assigned to an object point PPn in the environment U. This can be done, for example, by forming a difference between successive individual images EBk pixel by pixel. A movement of the respective object O can also be inferred from this.
  • isolines 20d can be superimposed as overlay structures 20, each of which characterizes a fixed iso-distance A1 to a vehicle exterior 1a.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

The invention relates to a method for displaying the surroundings of the vehicle (1) on a display device (7), having at least the following steps: - capturing the surroundings using at least two cameras, each of which has a different field of view, the fields of view of adjacent cameras overlapping; - generating a 360° image (RB) from at least two individual images of different cameras, said individual images being projected onto a reference plane in order to generate the 360° image (RB); - ascertaining depth information on at least one object (O) in the surroundings from at least two different individual images of the same camera by means of triangulation; - generating at least one overlay structure (20) on the basis of the ascertained depth information, wherein each overlay structure (20) is uniquely assigned to an imaged object (O); and - displaying the generated 360° image (RB) containing the at least one object (O) and the at least one generated overlay structure (20) on the display device (7) such that the at least one overlay structure (20) is displayed on and/or adjacently to the respective object (O).

Description

Verfahren zum Anzeigen einer Umgebung eines Fahrzeuges auf einer Anzeigeeinrichtung, Verarbeitungseinheit und Fahrzeug Method for displaying surroundings of a vehicle on a display device, processing unit and vehicle
Die Erfindung betrifft ein Verfahren zum Anzeigen einer Umgebung eines Fahrzeuges, insbesondere eines Nutzfahrzeuges, auf einer Anzeigeeinrichtung, eine Verarbeitungseinheit zur Durchführung des Verfahrens sowie ein Fahrzeug. The invention relates to a method for displaying surroundings of a vehicle, in particular a commercial vehicle, on a display device, a processing unit for carrying out the method, and a vehicle.
Aus dem Stand der Technik ist bekannt, Rundumsicht-Bilder aus Einzelbildern mehrerer Kameras zu erstellen und einem Insassen auf einer Anzeigeeinrichtung darzustellen. Dazu ist bekannt, die Einzelbilder auf eine Referenzebene, beispielsweise eine horizontale Ebene unter dem Fahrzeug, zu projizieren, entsprechend zu drehen und daraus ein kombiniertes Rundumsicht-Bild zu erstellen. Nachteilig bei dieser Methode ist, dass erhabene Objekte, die aus der Referenzebene in einer bestimmten Höhe herausragen, in dem Rundumsicht- Bild nach hinten verkippt dargestellt und dadurch in ihren Größenverhältnissen verzerrt werden. Dadurch sind diese Objekte durch den Betrachter nicht intuitiv geometrisch interpretierbar. Eine Orientierung anhand des Rundumsicht-Bildes wird dadurch erschwert. It is known from the prior art to create all-round view images from individual images from a number of cameras and to display them to an occupant on a display device. For this purpose, it is known to project the individual images onto a reference plane, for example a horizontal plane under the vehicle, to rotate them accordingly and to create a combined all-round view image from them. The disadvantage of this method is that raised objects that protrude from the reference plane at a certain height are shown tilted backwards in the all-round view image and their proportions are thus distorted. As a result, these objects cannot be intuitively interpreted geometrically by the viewer. This makes orientation based on the all-round view image more difficult.
Dieser Effekt kann minimiert werden, indem durch zusätzliche Sensoren eine Höhe der erfassten Objekte ermittelt wird und die Verzerrung in den Größenverhältnissen mit diesen zusätzlichen Höhen-Informationen kompensiert wird. Nachteilig dabei ist, dass derartige zusätzliche Sensoren nicht in allen Fahrzeugen vorhanden und/oder zusätzliche Sensoren teuer sind. Zudem ist der Rechenaufwand erhöht. This effect can be minimized by using additional sensors to determine the height of the detected objects and by using this additional height information to compensate for the distortion in the proportions. The disadvantage here is that such additional sensors are not present in all vehicles and/or additional sensors are expensive. In addition, the computational effort is increased.
Beispielhaft ist in DE 10 2017 108 254 B4 beschrieben, ein aus Einzelbildern zusammengesetztes Bild zu erstellen und auf einer Anzeige darzustellen. Dabei werden die Einzelbilder jeweils von mehreren Kameras aufgenommen. Durch Triangulation von zwei oder mehreren Bildern können Tiefeninformationen bezüglich des Objektes, insbesondere eine Position des Objektes, ermittelt werden. Die Objekte können zudem zeitlich verfolgt werden. For example, DE 10 2017 108 254 B4 describes how to create an image composed of individual images and display it on a display. The individual images are each recorded by several cameras. Depth information relating to the object, in particular a position of the object, can be determined by triangulating two or more images. The objects can also be tracked over time.
Gemäß DE 102015 105 248 A1 ist vorgesehen, an einem zweiteiligen Fahrzeug eine erste Kamera an einem ersten Teilfahrzeug und eine zweite Kamera an einem zweiten Teilfahrzeug anzuordnen. Ein erstes Bild von der ersten Kamera und ein zweites Bild von der zweiten Kamera werden über eine Homografiematrix auf eine Bodenebene bzw. Referenzebene projiziert, bevor das erste Bild und das zweite Bild gedreht werden, um daraus ein kombiniertes Bild der Umgebung zu erzeugen. According to DE 102015 105 248 A1, provision is made for arranging a first camera on a first part of a vehicle and a second camera on a second part of a vehicle on a two-part vehicle. A first image from the first camera and a second image from the second camera are projected via a homographic matrix onto a ground plane and reference plane, respectively, before the first image and the second image are rotated to create a combined image of the environment.
In DE 100 35 223 A1 ist beschrieben, aus mehreren Einzelbildern ein Gesamtbild bzw. Rundumsicht-Bild zu erstellen und dabei das Fahrzeug selbst als künstliches grafisches Objekt bzw. Overlay-Struktur in das Rundumsicht-Bild zu projizieren. DE 100 35 223 A1 describes creating an overall image or all-round view image from a number of individual images and projecting the vehicle itself into the all-round view image as an artificial graphic object or overlay structure.
In EP 3 293 700 B1 ist beschrieben, aus mehreren Einzelbildern einer Kamera durch ein Structure-from-Motion Verfahren Teile der Umgebung zu rekonstruieren und damit Tiefeninformationen zu einzelnen Objekten zu ermitteln. Dabei wird eine Qualitätsmetrik ermittelt, um eine optimale Rekonstruktion der Umgebung zu erhalten. Durch Kombinieren von mehreren Kameras bzw. Einzelbildern kann dies auch in einer Rundumsicht erfolgen. EP 3 293 700 B1 describes reconstructing parts of the environment from a number of individual images from a camera using a structure-from-motion method and thus determining depth information on individual objects. A quality metric is determined in order to obtain an optimal reconstruction of the environment. By combining several cameras or individual images, this can also be done in an all-round view.
In DE 102018 100 909 A1 ist beschrieben, durch das Structure-from- Motion Verfahren eine Rekonstruktion der aktuellen Umgebung zu erhalten und Objekte in einem neuronalen Netzwerk zu klassifizieren bzw. kategorisieren. DE 102018 100 909 A1 describes how the structure-from-motion method is used to obtain a reconstruction of the current environment and to classify or categorize objects in a neural network.
Ausgehend davon ist Aufgabe der Erfindung, ein Verfahren zum Anzeigen einer Umgebung eines Fahrzeuges auf einer Anzeigeeinrichtung anzugeben, das mit wenig Hardware- und Rechenaufwand durchgeführt werden kann und einem Betrachter eine einfache Orientierung in der Umgebung ermöglicht. Aufgabe ist weiterhin, eine Verarbeitungseinheit und ein Fahrzeug anzugeben. Proceeding from this, the object of the invention is to specify a method for displaying the surroundings of a vehicle on a display device which can be carried out with little hardware and computing effort and enables an observer to easily orientate himself in the environment. The task is also to specify a processing unit and a vehicle.
Diese Aufgabe wird durch ein Verfahren nach Anspruch 1 sowie eine Verarbeitungseinheit und ein Fahrzeug gemäß den weiteren unabhängigen Ansprüchen gelöst. Die Unteransprüche geben bevorzugte Weiterbildungen an. This object is achieved by a method according to claim 1 and a processing unit and a vehicle according to the further independent claims. The dependent claims indicate preferred developments.
Erfindungsgemäß ist demnach ein Verfahren zum Anzeigen einer Umgebung eines Fahrzeuges auf einer Anzeigeeinrichtung sowie auch eine Verarbeitungseinheit zur Durchführung des Verfahrens mit mindestens den folgenden Schritten vorgesehen: According to the invention, a method for displaying the surroundings of a vehicle on a display device and also a processing unit for carrying out the method with at least the following steps are provided:
Zunächst wird die Umgebung um das Fahrzeug insbesondere in einem Nahbereich mit mindestens zwei Kameras aufgenommen, wobei jede Kamera einen anderen Sichtbereich aufweist, wobei sich Sichtbereiche von benachbarten Kameras zumindest bereichsweise, insbesondere randseitig, überlappen. Aus den dadurch ermittelten Einzelbildern wird anschließend ein Rundumsicht-Bild erstellt, wobei jedes Einzelbild von einer anderen Kamera in etwa zum selben Zeitpunkt aufgenommen ist und die Einzelbilder zum Erstellen des Rundumsicht-Bildes in eine Referenzebene projiziert werden, beispielsweise durch eine Homografiematrix. First of all, the environment around the vehicle is recorded, particularly in a close-up area, with at least two cameras, each camera having a different field of view, with the fields of view of neighboring cameras overlapping at least in certain areas, in particular at the edges. An all-round view image is then created from the individual images determined in this way, with each individual image being recorded by a different camera at approximately the same time and the individual images for creating the all-round view image being projected into a reference plane, for example using a homography matrix.
Demnach wird kein dreidimensionales Rundumsicht-Bild aus den Einzelbildern erstellt, sondern ein Rundumsicht-Bild, in dem die Umgebung durch entsprechende Kombination der Einzelbilder als zweidimensionale Projektion dargestellt wird. Dadurch wird bei entsprechender Anordnung und Ausrichtung der Kameras eine Ansicht der Umgebung aus der Vogelperspektive ermöglicht, wenn das Rundumsicht-Bild auf der Anzeigeeinrichtung angezeigt wird. Accordingly, no three-dimensional all-round view image is created from the individual images, but rather an all-round view image in which the surroundings are represented as a two-dimensional projection by appropriately combining the individual images. With a corresponding arrangement and orientation of the cameras, this enables a view of the surroundings from a bird's-eye view when the all-round view image is displayed on the display device.
In einem weiteren Schritt des erfindungsgemäßen Verfahrens werden von mindestens einem Objekt in der aufgenommenen Umgebung Tiefeninformationen ermittelt, wobei die Tiefeninformationen durch Triangulation aus mindestens zwei unterschiedlichen Einzelbildern derselben Kamera, vorzugsweise durch ein sog. Structure-from-Motion Verfahren, ermittelt werden, wobei das mindestens eine Objekt in den mindestens zwei unterschiedlichen Einzelbildern abgebildet ist, vorzugsweise aus mindestens zwei unterschiedlichen Standpunkten. Demnach wird zur Ermittlung der Tiefeninformationen nicht auf ein Stereo-Kamera-System zurückgegriffen. Vielmehr wird lediglich durch eine Bildverarbeitung der einzelnen Bilder einer Kamera eine Perspektive Rekonstruktion der Umgebung bzw. des Objekts erhalten, woraus sich die Tiefeninformationen ableiten lassen. In a further step of the method according to the invention, depth information is determined for at least one object in the recorded environment, the depth information being obtained by triangulation from at least two different individual images from the same camera, preferably by a so-called structure-from-motion method, the at least one object being imaged in the at least two different individual images, preferably from at least two different points of view. Accordingly, a stereo camera system is not used to determine the depth information. Rather, a perspective reconstruction of the surroundings or the object is obtained merely by image processing of the individual images of a camera, from which the depth information can be derived.
In Abhängigkeit der vorher durch das SfM-Verfahren ermittelten Tiefeninformationen wird mindestens eine Overlay-Struktur erzeugt, wobei jede Overlay-Struktur einem abgebildeten Objekt eindeutig zugeordnet ist. In einem weiteren Schritt erfolgt dann das Darstellen des erstellten Rundumsicht-Bildes enthaltend das mindestens ein Objekt und der mindestens einen erzeugten Overlay-Struktur auf der Anzeigeeinrichtung derartig, dass die mindestens eine Overlay-Struktur auf und/oder benachbart zu dem jeweils zugeordneten Objekt angezeigt wird. At least one overlay structure is generated as a function of the depth information previously determined by the SfM method, with each overlay structure being uniquely assigned to an imaged object. In a further step, the all-round view image created containing the at least one object and the at least one overlay structure generated is then displayed on the display device in such a way that the at least one overlay structure is displayed on and/or adjacent to the respectively assigned object .
Daher kann vorteilhafterweise ohne zusätzliche Sensoren, lediglich basierend auf Methoden der Bildverarbeitung, insbesondere dem Structure-from- Motion, auf der Anzeigeeinrichtung eine Overlay-Struktur dargestellt werden. Diese kann unter Rückgriff auf die vorher ermittelten Tiefeninformationen gezielt an der Position oder benachbart zu der Position auf der Anzeigeeinrichtung dargestellt werden, auf der auch das Objekt dargestellt ist. Auch wenn das jeweilige Objekt im Rundumsicht-Bild auf der Anzeigeeinrichtung nicht intuitiv geometrisch interpretierbar dargestellt wird, kann die Overlay-Struktur dazu beitragen, dass eine sichere Orientierung anhand des Rundumsicht-Bildes erfolgen kann, da die Overlay-Struktur die wesentlichen Informationen bezüglich eines Objektes auf der Anzeigeeinrichtung verstärkt bzw. hervorhebt. Eine aufgrund der Projektion in die Referenzebene entstehende Verzerrung von erhabenen Objekten im Rundumsicht-Bild kann dadurch zumindest kompensiert werden. Ergänzend kann durch die Darstellung der Overlay-Struktur auch das Problem behoben werden, dass Objekte in den Überlappungsbereichen von Einzelbildern zweier benachbarter Kameras häufig „verschwinden“ oder unzureichend wahrgenommen werden können, da diese Objekte in der jeweiligen Kameraperspektive nach hinten gekippt sind und in dem Rundumsicht-Bild in der Regel gar nicht auftauchen oder zumindest unzureichend wahrgenommen werden können. In den Overlay-Strukturen ist ein solches Objekt allerdings nach dem oben beschriebenen Verfahren enthalten und wird daher im Rund- umsicht-Bild auch dargestellt. An overlay structure can therefore advantageously be displayed on the display device without additional sensors, based solely on methods of image processing, in particular structure-from-motion. With recourse to the previously determined depth information, this can be displayed in a targeted manner at the position or adjacent to the position on the display device on which the object is also displayed. Even if the respective object in the all-round view image is not displayed on the display device in a geometrically interpretable manner, the overlay structure can help to ensure that the all-round view image can be used for reliable orientation, since the overlay structure contains the essential information relating to an object emphasized on the display device. A distortion of raised objects in the all-round view image that occurs as a result of the projection into the reference plane can at least be compensated for in this way. In addition, the display of the overlay structure can also solve the problem that objects in the overlapping areas of individual images from two adjacent cameras often "disappear" or can be perceived insufficiently, since these objects are tilted backwards in the respective camera perspective and in the all-round view -Image usually does not appear at all or at least cannot be perceived adequately. However, such an object is contained in the overlay structures according to the method described above and is therefore also displayed in the all-round view image.
Vorzugsweise kann dazu vorgesehen sein, dass auf der Anzeigeeinrichtung als Overlay-Struktur ein Balken und/oder ein Polygon und/oder ein Text auf und/oder benachbart zu dem jeweils zugeordneten Objekt angezeigt wird. Demnach können einfache Strukturen als Überlagerung angezeigt werden, die für ein Hervorheben von Objekten zur Orientierung ausreichend sind. Beispielsweise kann lediglich ein Balken vorgesehen sein, der auf einer und/oder benachbart zu einer Außenkante des jeweils zugeordneten Objekts auf der Anzeigeeinrichtung angezeigt wird, wobei der Balken vorzugsweise senkrecht zu einer Objekt-Normalen des jeweils zugeordneten Objektes liegt, wobei die Objekt-Normale aus den Tiefeninformationen gewonnen werden kann. Als Außenkante wird dabei vorzugsweise eine äußere Begrenzung des jeweiligen Objektes verstanden, wobei der Balken bzw. die jeweilige Overlay-Struktur zumindest an derjenigen Außenkante bzw. Begrenzung überlagert wird, die dem eigenen Fahrzeug am nächsten ist. Dadurch kann durch einen Balken eine Begrenzung des Objektes in Richtung des eigenen Fahrzeuges auf dem Rundumsichtbild kenntlich gemacht werden. Dadurch kann der Betrachter eindeutig erkennen, bis zu welchem Punkt im Raum das eigene Fahrzeug rangiert oder positioniert werden kann, ohne das Objekt zu berühren, beispielsweise bei einem Einparkoder Rangiervorgang. Vorzugsweise ist ergänzend oder alternativ zu dem Balken vorgesehen, dass auf der Anzeigeeinrichtung als Overlay-Struktur ein Polygon derartig abgebildet wird, dass das Polygon das jeweils zugeordnete Objekt zumindest teilweise, vorzugsweise vollständig überspannt. Dadurch kann dem Betrachter der Anzeigeeinrichtung nicht nur die Begrenzung des jeweiligen Objektes in Richtung des eigenen Fahrzeuges angezeigt werden, sondern auch die Ausdehnung des Objektes kenntlich gemacht werden, so dass das Objekt noch deutlicher auf der Anzeigeeinrichtung hervorgehoben wird. Ist eine Objekt-Kontur und/oder eine Objekt-Form des jeweiligen Objektes aus der Rekonstruktion der Umgebung über das SfM-Verfahren bekannt, kann das Polygon an diese Objekt-Kontur bzw. Objekt-Form auch angepasst werden. Sind die Objekt-Kontur bzw. die Objekt-Form nicht bekannt, kann als Polygon beispielsweise ein Rechteck angenommen werden, das die im Rundumsicht-Bild abgebildeten Objektpunkte des jeweiligen Objektes überdeckt. Provision can preferably be made for a bar and/or a polygon and/or text to be displayed on and/or adjacent to the respectively associated object on the display device as an overlay structure. Accordingly, simple structures can be displayed as an overlay, which are sufficient for highlighting objects for orientation. For example, only one bar can be provided, which is displayed on and/or adjacent to an outer edge of the respectively assigned object on the display device, the bar preferably being perpendicular to an object normal of the respectively assigned object, the object normal being the depth information can be obtained. The outer edge is preferably understood to mean an outer boundary of the respective object, with the bar or the respective overlay structure being superimposed at least on that outer edge or boundary that is closest to the host vehicle. As a result, a boundary of the object in the direction of one's own vehicle can be identified on the all-round view by means of a bar. As a result, the observer can clearly see up to which point in space one's own vehicle can be maneuvered or positioned without touching the object, for example during a parking or maneuvering operation. In addition or as an alternative to the bar, it is preferably provided that a polygon is displayed on the display device as an overlay structure in such a way that the polygon at least partially, preferably completely, spans the respectively assigned object. As a result, the viewer of the display device can not only see the boundary of the respective object in the direction of his own vehicle, but also the extent of the object can be identified, so that the object is highlighted even more clearly on the display device. If an object contour and/or an object shape of the respective object is known from the reconstruction of the environment using the SfM method, the polygon can also be adapted to this object contour or object shape. If the object contour or the object shape is not known, a rectangle can be assumed as a polygon, for example, which covers the object points of the respective object depicted in the all-round view image.
Vorzugsweise ist weiterhin vorgesehen, dass die mindestens eine Overlay- Struktur auf der Anzeigeeinrichtung in einer vorab festgelegten Farbe angezeigt wird oder in einer Farbe, die von der ermittelten Tiefeninformation bezüglich des jeweils zugeordneten Objektes abhängig ist. Dadurch kann dem Betrachter zusätzlich durch eine Farbcodierung eine Information bezüglich der räumlichen Charakteristik des Objektes mitgegeben werden. Vorzugsweise kann dabei vorgesehen sein, dass die Farbe der mindestens einen Overlay-Struktur abhängig von einem Objekt-Abstand zwischen dem Fahrzeug und dem jeweils zugeordneten Objekt ist, wobei der Objekt-Abstand aus den ermittelten Tiefeninformationen bezüglich des jeweils zugeordneten Objektes gewonnen wird. Dadurch kann einer auf der Anzeigeeinrichtung weiter vom eigenen Fahrzeug entfernten Overlay-Struktur beispielsweise eine Farbe gegeben werden, die auf eine geringe Gefahr hinweist, beispielsweise eine grüne Farbe. Eine Overlay- Struktur, die auf der Anzeigeeinrichtung hingegen näher am eigenen Fahrzeug liegt, kann eine Farbe gegeben werden, die auf eine höhere Gefahr hinweist, beispielsweise eine rote Farbe. Dabei sind beliebige Farbabstufungen in Abhängigkeit des Objekt-Abstandes möglich. Vorzugsweise kann weiterhin vorgesehen sein, dass die Farbe und/oder die Art der Overlay-Struktur des jeweiligen Objektes abhängig von einem dem Objekt zugeordneten Bewegungsindikator ist, wobei der Bewegungsindikator angibt, ob sich das jeweilige Objekt bewegen kann, z.B. eine Person oder ein Fahrzeug, oder dauerhaft stationär ist, beispielsweise ein Gebäude oder eine Laterne, wobei der Bewegungsindikator aus den ermittelten Tiefeninformationen bezüglich des jeweils zugeordneten Objektes gewonnen wird. Dadurch kann ergänzend auf der Anzeigeeinrichtung hervorgehoben werden, welche zusätzliche Gefahr aufgrund einer potentiellen Bewegung von dem angezeigten Objekt ausgehen kann, wenn dieses Objekt aufgrund der Verzerrung auf dem Rundumsicht-Bild nicht direkt eindeutig erkennbar ist. Provision is preferably also made for the at least one overlay structure to be displayed on the display device in a predefined color or in a color that is dependent on the determined depth information with regard to the respectively assigned object. As a result, the viewer can also be provided with information regarding the spatial characteristics of the object by means of color coding. Provision can preferably be made for the color of the at least one overlay structure to be dependent on an object distance between the vehicle and the respectively assigned object, the object distance being obtained from the determined depth information with regard to the respectively assigned object. As a result, an overlay structure on the display device that is further away from one's own vehicle can be given a color, for example, which indicates a low level of danger, for example a green color. On the other hand, an overlay structure that is closer to one's own vehicle on the display device can be given a color that indicates a higher risk, for example a red color. Any color gradations are possible depending on the object distance. Provision can preferably also be made for the color and/or the type of overlay structure of the respective object to be dependent on a movement indicator assigned to the object, with the movement indicator indicating whether the respective object can move, e.g. a person or a vehicle, or is permanently stationary, for example a building or a lantern, the movement indicator being obtained from the ascertained depth information with regard to the respectively associated object. As a result, it can additionally be highlighted on the display device which additional danger can emanate from the displayed object due to a potential movement if this object cannot be clearly recognized directly on the all-round view image due to the distortion.
Vorzugsweise kann dazu vorgesehen sein, dass aus den Tiefeninformationen eine Objekt-Kontur und/oder eine Objekt-Form des jeweils zugeordneten Objektes ermittelt wird und aus der Objekt-Kontur und/oder der Objekt-Form über einen Deep-Learning-Algorithmus durch Vergleich mit bekannten Objekt- Konturen und/oder Objekt-Formen ein Bewegungsindikator für das betreffende Objekt abgeleitet wird. Dadurch kann auf eine rechenaufwändige Objektverfolgung verzichtet werden und stattdessen auf den Vergleich von bekannten Objekten in einer Datenbank zurückgegriffen werden, die im Fahrzeug gespeichert ist oder auf die vom Fahrzeug aus über eine entsprechende Datenverbindung zugegriffen werden kann. Provision can preferably be made for an object contour and/or an object shape of the respectively associated object to be determined from the depth information and for the object contour and/or the object shape to be determined using a deep learning algorithm by comparison with known object contours and/or object shapes, a motion indicator for the object in question is derived. As a result, there is no need for computationally expensive object tracking and, instead, the comparison of known objects in a database that is stored in the vehicle or that can be accessed from the vehicle via a corresponding data connection can be used.
Alternativ oder ergänzend (zur Plausibilisierung) kann aber auch vorgesehen sein, dass in den Einzelbildern abgebildete Objektpunkte auf dem Objekt zeitlich verfolgt werden, um den Bewegungsindikator für das betreffende Objekt abzuleiten. Demnach kann beispielsweise durch das Bilden von Differenzbil- dern ermittelt werden, wie sich Einzelbild-Bildpunkte zeitlich verhalten und daraus auf eine Bewegung des Objektes geschlossen werden. Vorzugsweise kann weiterhin vorgesehen sein, dass die mindestens eine Overlay-Struktur auf der Anzeigeeinrichtung undurchsichtig oder zumindest teilweise durchsichtig angezeigt wird, so dass die mindestens eine Overlay- Struktur das Rundumsicht-Bild auf und/oder benachbart zu dem jeweils zugeordneten Objekt vollständig oder zumindest teilweise bezogen auf die Transparenz abdeckt. Dadurch kann das jeweilige Objekt durch die Overlay-Struktur zwar hervorgehoben werden, dem Betrachter aber gleichzeitig die Möglichkeit gegeben werden, das dahinterliegende Objekt noch zu erkennen, um ggf. selbst zu plausibi lisieren, welche Gefahr von dem Objekt ausgehen kann. Vorteilhafterweise kann die Transparenz der Overlay-Struktur auch ähnlich zu der Farbkodierung in Abhängigkeit der Tiefeninformation bezüglich des Objektes festgelegt werden. So können beispielsweise Objekte mit einem größeren Objekt-Abstand zum Fahrzeug mit einer höheren Transparenz als Objekte mit niedrigem Objekt-Abstand zum Fahrzeug angezeigt werden, wodurch relevantere Objekte stärker hervorgehoben werden. Alternatively or in addition (for plausibility checking) it can also be provided that object points on the object depicted in the individual images are tracked over time in order to derive the movement indicator for the object in question. Accordingly, by forming difference images, for example, it can be determined how individual image pixels behave over time and a movement of the object can be inferred from this. Provision can preferably also be made for the at least one overlay structure to be displayed opaquely or at least partially transparently on the display device, so that the at least one overlay structure completely or at least partially displays the all-round view image on and/or adjacent to the respectively assigned object related to the transparency covers. As a result, the respective object can be emphasized by the overlay structure, but at the same time the viewer can be given the opportunity to still recognize the object lying behind it, in order to make a plausible assessment of the danger that the object can pose. Advantageously, the transparency of the overlay structure can also be defined in a manner similar to the color coding as a function of the depth information relating to the object. For example, objects with a larger object distance from the vehicle can be displayed with greater transparency than objects with a small object distance from the vehicle, as a result of which more relevant objects are highlighted more strongly.
Vorzugsweise ist weiterhin vorgesehen, dass die Anzeigeeinrichtung Anzeigepixel aufweist, wobei Rundumsicht-Bildpunkte des Rundumsicht-Bildes auf den Anzeigepixeln der Anzeigeeinrichtung angezeigt werden, wobei ein in dem Rundumsicht-Bild enthaltenes Objekt auf Objektpixeln dargestellt wird, wobei die Objektpixel eine Untermenge der Anzeigepixel sind, wobei die dem jeweiligen Objekt zugeordnete Overlay-Struktur auf und/oder benachbart zu den jeweiligen Objektpixeln auf der Anzeigeeinrichtung angezeigt bzw. überlagert wird. Vorzugsweise erfolgt die Überlagerung der Overlay- Strukturen dadurch, dass dem Rundumsicht-Bild mit dem mindestens einen Objekt auf der Anzeigeeinrichtung ein Overlay-Bild mit mindestens einer Overlay-Struktur derartig überlagert wird, dass die dem jeweiligen Objekt zugeordnete Overlay-Struktur auf und/oder benachbart zu den jeweiligen Objektpixeln auf der Anzeigeeinrichtung angezeigt wird. It is preferably also provided that the display device has display pixels, with all-round view pixels of the all-round view image being displayed on the display pixels of the display device, with an object contained in the all-round view image being displayed on object pixels, with the object pixels being a subset of the display pixels, wherein the overlay structure assigned to the respective object is displayed or superimposed on and/or adjacent to the respective object pixels on the display device. The overlay structures are preferably superimposed by superimposing an overlay image with at least one overlay structure on the all-round view image with the at least one object on the display device in such a way that the overlay structure assigned to the respective object is on and/or adjacent to the respective object pixels is displayed on the display device.
Demnach erfolgt zunächst eine Vorverarbeitung anhand der Tiefeninformationen derartig, dass ein Overlay-Bild erstellt wird, in dem vorzugsweise aus- sch ließl ich die Overlay-Strukturen an den Positionen dargestellt werden, an denen oder benachbart zu denen im Rundumsicht-Bild die Objekte abgebildet sind. Durch eine Addition oder Multiplikation oder einer beliebigen anderen Operation können diese beiden Bilder dann auf der Anzeigeeinrichtung gleichzeitig angezeigt werden, um die erfindungsgemäße Überlagerung zu erreichen. Accordingly, a pre-processing is first carried out using the depth information in such a way that an overlay image is created in which preferably Finally, the overlay structures are displayed at the positions at which or adjacent to which the objects are displayed in the all-round view image. By means of an addition or multiplication or any other operation, these two images can then be displayed simultaneously on the display device in order to achieve the superimposition according to the invention.
Alternativ oder ergänzend kann aber auch vorgesehen sein, dass das Rundumsicht-Bild selbst die mindestens eine Overlay-Struktur beinhaltet, wobei das Rundumsicht-Bild dazu an und/oder benachbart zu den Rundumsicht- Bildpunkten, auf denen ein Objekt abgebildet ist, derartig angepasst wird, dass die dem jeweiligen Objekt zugeordnete Overlay-Struktur auf und/oder benachbart zu den jeweiligen Objektpixeln auf der Anzeigeeinrichtung angezeigt wird. Der Anzeigeeinrichtung wird in dem Fall also nur ein Bild zur Darstellung übermittelt, das vorab entsprechend mit den Overlay-Strukturen „versehen“ wird, indem die Bildpunkte entsprechend „manipuliert“ werden, um die Overlay- Strukturen in diesem Bild darzustellen. Alternatively or additionally, however, it can also be provided that the all-round view image itself contains the at least one overlay structure, with the all-round view image being adapted in this way at and/or adjacent to the all-round view pixels on which an object is depicted that the overlay structure assigned to the respective object is displayed on and/or adjacent to the respective object pixels on the display device. In this case, the display device is only sent an image for display, which is “provided” with the overlay structures in advance, in that the pixels are appropriately “manipulated” in order to display the overlay structures in this image.
Vorzugsweise ist weiterhin vorgesehen, dass die mindestens zwei Einzelbilder, aus denen durch Triangulation die Tiefeninformationen ermittelt werden, von mindestens zwei unterschiedlichen Standpunkten aus von derselben Kamera aufgenommen werden, wobei die Tiefeninformationen durch Triangulation in Abhängigkeit einer Basislänge zwischen den mindestens zwei Standpunkten ermittelt werden. Dadurch kann eine zuverlässige Ermittlung der Tiefeninformationen im Rahmen des SfM-Verfahrens sichergestellt werden. Vorzugsweise kann dabei vorgesehen sein, dass die Kamera durch eine Bewegung des Fahrzeuges selbst, d.h. eine Veränderung der Fahrdynamik des Fahrzeuges, in die unterschiedlichen Standpunkte gebracht wird oder aber durch eine aktive Verstellung der Kamera ohne eine Veränderung der Fahrdynamik des Fahrzeuges. Provision is preferably also made for the at least two individual images from which the depth information is determined by triangulation to be recorded by the same camera from at least two different points of view, with the depth information being determined by triangulation as a function of a base length between the at least two points of view. This ensures reliable determination of the depth information within the scope of the SfM method. Provision can preferably be made for the camera to be brought into the different positions by a movement of the vehicle itself, i.e. a change in the driving dynamics of the vehicle, or by an active adjustment of the camera without changing the driving dynamics of the vehicle.
Vorzugsweise ist weiterhin vorgesehen, dass die Umgebung innerhalb eines Rundumsicht-Bereiches in dem Rundumsicht-Bild abgebildet wird, wobei der Rundumsicht-Bereich größer ist als die Sichtbereiche der einzelnen Karne- ras, wobei ein Sichtwinkel des Rundumsicht-Bereiches 360° beträgt, und wobei das Rundumsicht-Bild aus mindestens zwei in etwa zeitgleich aufgenommenen Einzelbildern von unterschiedlichen Kameras zusammengestellt ist. Damit wird eine vorzugsweise lückenlose Abbildung der gesamten Umgebung um das Fahrzeug zum aktuellen Zeitpunkt ermöglicht und eine Überlagerung von Overlay-Strukturen für den gesamten Rundumsicht-Sichtbereich. Provision is preferably also made for the surroundings to be depicted within an all-round vision area in the all-round vision image, with the all-round vision region being larger than the vision regions of the individual carcasses. ras, with a viewing angle of the all-round view area being 360°, and with the all-round view image being composed of at least two individual images recorded approximately at the same time by different cameras. This enables a preferably complete imaging of the entire environment around the vehicle at the current point in time and a superimposition of overlay structures for the entire all-round visibility field of view.
Vorzugsweise ist weiterhin vorgesehen, dass auf der Anzeigeeinrichtung als weitere Overlay-Struktur dem Fahrzeug zugeordnete Isolinien dargestellt werden, wobei die Isolinien in festgelegten Iso-Abständen zu einer Fahrzeugaußenseite des eigenen Fahrzeuges angezeigt werden. Damit kann auch das Fahrzeug selbst als Objekt angesehen werden, dem Overlay-Strukturen zugeordnet sind, anhand derer sich der Betrachter orientieren kann. Die Position der Isolinien ist dabei abhängig von den räumlichen Informationen, die über die Einzelbilder ermittelt werden. Die Isolinien können beispielsweise in Intervallen von 1 m um das eigene Fahrzeug dargestellt werden. In Abhängigkeit des Iso- Abstandes können die Overlay-Strukturen auch farblich mit Farbabstufungen kodiert werden, so dass näher am Fahrzeug liegende Iso-Linien rot und weiter weg liegende Isolinien grün dargestellt werden mit entsprechendem Farbverlauf für dazwischen liegende Isolinien. Auch die Transparenz der Isolinien kann in Abhängigkeit des Iso-Abstandes variieren, um dem Betrachter die Abstände zum Fahrzeug in einfacher Weise kenntlich zu machen. Provision is preferably also made for isolines assigned to the vehicle to be displayed on the display device as a further overlay structure, with the isolines being displayed at fixed iso-distances from a vehicle exterior of one's own vehicle. The vehicle itself can thus also be viewed as an object to which overlay structures are assigned, which the viewer can use to orientate himself. The position of the isolines depends on the spatial information that is determined via the individual images. For example, the isolines can be displayed at intervals of 1 m around the host vehicle. Depending on the iso-distance, the overlay structures can also be color-coded with color gradations, so that iso-lines closer to the vehicle are shown in red and iso-lines further away are shown in green, with a corresponding color gradient for iso-lines in between. The transparency of the isolines can also vary depending on the iso distance in order to make the distances to the vehicle easily recognizable to the viewer.
Ein erfindungsgemäßes Fahrzeug, in dem das erfindungsgemäße Verfahren durchführbar ist, weist demnach mindestens zwei Kameras auf, wobei jede Kamera einen anderen Sichtbereich aufweist, wobei sich Sichtbereiche von benachbarten Kameras zumindest bereichsweise, insbesondere randseitig, überlappen. Weiterhin ist in dem Fahrzeug eine Anzeigeeinrichtung sowie eine erfindungsgemäße Verarbeitungseinheit vorgesehen, wobei die Anzeigeeinrichtung ausgebildet ist, ein erstelltes Rundumsicht-Bild, enthaltend mindestens ein Objekt, und mindestens eine erzeugte Overlay-Struktur - als Teil des Rundumsicht-Bildes oder als separates Overlay-Bild - derartig darzustellen, dass die mindestens eine Overlay-Struktur auf und/oder benachbart zu dem jeweils zugeordneten Objekt angezeigt wird. A vehicle according to the invention, in which the method according to the invention can be carried out, therefore has at least two cameras, each camera having a different field of view, with the fields of view of adjacent cameras overlapping at least partially, in particular at the edges. Furthermore, a display device and a processing unit according to the invention are provided in the vehicle, the display device being designed to display a created all-round view image containing at least one object and at least one generated overlay structure—as part of the all-round view image or as a separate overlay image - to represent in such a way that the at least one overlay structure is displayed on and/or adjacent to the respectively assigned object.
Vorzugsweise ist dabei vorgesehen, dass jede einzelne Kamera einen Sichtbereich mit einem Sichtwinkel von größer gleich 120°, insbesondere größer gleich 170°, aufweist, wobei die Kamera beispielsweise als Fisheye-Kamera ausgebildet ist, die an mindestens zwei Seiten des Fahrzeuges ausgewählt aus der Gruppe bestehend aus einer Vorderseite, einer Rückseite oder mindestens einer Längsseite, angeordnet ist. Mit derartigen Anordnungen ist bei entsprechendem Sichtwinkel eine nahezu lückenlose Aufnahme der Umgebung möglich, um diese in einer Vogelperspektive darzustellen. Die einzelnen Kameras sind dazu vorzugsweise auf einen Nahbereich der Umgebung, d.h. auf den Boden ausgerichtet, um eine Darstellung in Vogelperspektive zu ermöglichen. It is preferably provided that each individual camera has a field of vision with a viewing angle of greater than or equal to 120°, in particular greater than or equal to 170°, the camera being designed, for example, as a fisheye camera that is selected from the group on at least two sides of the vehicle consisting of a front, a back or at least one long side. With such arrangements, an almost complete recording of the surroundings is possible with a corresponding viewing angle, in order to present them in a bird's-eye view. For this purpose, the individual cameras are preferably aimed at a close-up area of the environment, i.e. at the ground, in order to enable a bird's-eye view.
Die Erfindung wird im Folgenden anhand eines Ausführungsbeispiels näher erläutert. Es zeigen: The invention is explained in more detail below using an exemplary embodiment. Show it:
Fig. 1 eine schematische eines Fahrzeuges zur Durchführung des erfindungsgemäßen Verfahrens; 1 shows a schematic of a vehicle for carrying out the method according to the invention;
Fig. 2 eine Detailansicht der aufgenommenen Einzelbilder; 2 shows a detailed view of the recorded individual images;
Fig. 2a eine Detailansicht eines in zwei Einzelbildern einer einzigen Kamera abgebildeten Objektes; 2a shows a detailed view of an object imaged in two individual images from a single camera;
Fig. 2b eine Detailansicht einer Anzeigeeinrichtung in dem Fahrzeug gemäß Fig. 1 ; und FIG. 2b shows a detailed view of a display device in the vehicle according to FIG. 1 ; and
Fig. 3 eine Detailansicht der auf der Anzeigeeinrichtung angezeigten Umgebung. In Figur 1 ist schematisch ein Fahrzeug 1 , insbesondere ein Nutzfahrzeug, dargestellt, das gemäß der gezeigten Ausführungsform an einer Vorderseite 2a, beispielsweise im Dachhimmel, eine Front-Kamera 3a und an einer Rückseite 2b eine Rückraum-Kamera 3b aufweist. Weiterhin sind an Längsseiten 2c des Fahrzeuges 1 , beispielsweise an den Spiegeln, Seiten-Kameras 3c angeordnet. Es können auch weitere nicht dargestellte Kameras 3 im Fahrzeug 1 vorgesehen sein, um eine Umgebung U, insbesondere einen Nahbereich N (Umgebung bis zu 10m vom Fahrzeug 1 entfernt) zu erfassen. 3 shows a detailed view of the environment displayed on the display device. FIG. 1 shows a vehicle 1, in particular a commercial vehicle, which, according to the embodiment shown, has a front camera 3a on a front side 2a, for example in the roof liner, and a rear camera 3b on a rear side 2b. Furthermore, side cameras 3c are arranged on the longitudinal sides 2c of the vehicle 1, for example on the mirrors. Additional cameras 3 (not shown) can also be provided in the vehicle 1 in order to capture an environment U, in particular a close-up area N (environment up to 10 m away from the vehicle 1).
Jede Kamera 3 weist einen Sichtbereich 4 auf, wobei ein Front- Sichtbereich 4a der Front-Kamera 3a nach vom, ein Rückraum-Sichtbereich 4b der Rückraum-Kamera 3b nach hinten und ein Seiten-Sichtbereich 4c der Seiten-Kameras 3c zur jeweiligen Seite des Fahrzeuges 1 ausgerichtet sind. Um den relevanten Teil der Umgebung U, insbesondere den Nahbereich N, erfassen zu können, sind die Kameras 3 zum Boden hin ausgerichtet, auf dem sich das Fahrzeug 1 bewegt. Each camera 3 has a field of vision 4, with a front field of vision 4a of the front camera 3a looking forward, a rear field of vision 4b of the rear field camera 3b looking backward and a side field of vision 4c of the side cameras 3c to the respective side of the Vehicle 1 are aligned. In order to be able to capture the relevant part of the environment U, in particular the close-up area N, the cameras 3 are aligned towards the ground on which the vehicle 1 is moving.
Die Anzahl und die Position der Kameras 3 ist vorzugsweise derartig gewählt, dass sich die Sichtbereiche 4 benachbarter Kameras 3 im Nahbereich N überschneiden, so dass alle Sichtbereiche 4 zusammen den Nahbereich N lückenlos und damit vollflächig abdecken können. Die Kameras 3 können dazu jeweils z.B. als Fisheye-Kameras ausgeführt sein, die jeweils einen Sichtbereich 4 mit einem Sichtwinkel Wvon gleich oder größer 170° abdecken können. The number and the position of the cameras 3 is preferably chosen such that the viewing areas 4 of adjacent cameras 3 overlap in the close-up area N, so that all viewing areas 4 together can cover the close-up area N without gaps and thus over the entire area. For this purpose, the cameras 3 can each be designed, for example, as fisheye cameras, which can each cover a field of view 4 with a viewing angle W of equal to or greater than 170°.
Jede Kamera 3 gibt jeweils Bildsignale SB aus, die die auf dem Sensor der jeweiligen Kamera 3 abgebildete Umgebung U im Sichtbereich 4 charakterisieren. Die Bildsignale SB werden an eine Verarbeitungseinheit 6 ausgegeben, wobei die Verarbeitungseinheit 6 ausgebildet ist, anhand der Bildsignale SB für jede Kamera 3 Einzelbilder EBk (laufender Index k) zu generieren. Das k-te Einzelbild EBk weist dabei gemäß Fig. 2 eine Anzahl Ni von Einzelbild- Bildpunkten EBkPi (laufender Index i von 0 bis Ni) auf, auf denen die Umgebung U abgebildet ist. Bestimmten Einzelbild-Bildpunkten EBkPi sind dabei ge- mäß Fig. 2a Objektpunkte PPn (laufender Index n) zugeordnet, die zu einem Objekt 0 in der Umgebung U gehören. Each camera 3 outputs image signals SB that characterize the surroundings U in the field of view 4 that are imaged on the sensor of the respective camera 3 . The image signals SB are output to a processing unit 6, the processing unit 6 being designed to generate 3 individual images EBk (running index k) for each camera on the basis of the image signals SB. According to FIG. 2, the kth individual image EBk has a number Ni of individual image pixels EBkPi (running index i from 0 to Ni) on which the surroundings U are imaged. Certain single image pixels EBkPi are assigned to object points PPn (running index n) which belong to an object 0 in the environment U according to FIG.
Aus den Einzelbildern EBk unterschiedlicher Kameras 3 wird in der Verarbeitungseinheit 6 durch Projizieren der Einzelbilder EBk in eine Referenzebene RE, beispielsweise eine horizontale Ebene unter dem Fahrzeug 1 (vgl. eine Ebene parallel zu der durch xO und yO in Fig. 2a aufgespannten Ebene), durch eine perspektivische Transformation, z.B. in Abhängigkeit einer Homografie- matrix, mittels eines Rundumsicht-Algorithmus A1 ein Rundumsicht-Bild RB mit einer Anzahl Np an Rundumsichtbild-Bildpunkten RBPp (laufender Index p von 0 bis Np) erstellt. In dem Rundumsicht-Bild RB ist die Umgebung U um das Fahrzeug 1 zumindest im Nahbereich N zu allen Seiten hin lückenlos abgebildet (vgl. Fig. 3), was einem Sichtwinkel W von 360° entspricht. Daher ergibt sich für das Rundumsicht-Bild RB ein Rundumsicht-Sichtbereich 4R, der größer ist als die einzelnen Sichtbereiche 4 der Kameras 3. Dieses Rundumsicht-Bild RB des Nahbereiches N kann einem Insassen, beispielsweise dem Fahrer des Fahrzeuges 1 , auf einer Anzeigeeinrichtung 7 ausgegeben werden, so dass sich der Fahrer beispielsweise bei einem Parkvorgang oder einem Rangiervorgang daran orientieren kann. Die Umgebung U kann dem Betrachter dadurch in einer Vogelperspektive dargestellt werden. In the processing unit 6, the individual images EBk from different cameras 3 are converted by projecting the individual images EBk into a reference plane RE, for example a horizontal plane under the vehicle 1 (cf. a plane parallel to the plane spanned by xO and yO in FIG. 2a), an all-round view image RB with a number Np of all-round view image pixels RBPp (running index p from 0 to Np) is created by a perspective transformation, eg as a function of a homography matrix, using an all-round view algorithm A1. In the all-round view image RB, the surroundings U around the vehicle 1 are displayed without gaps on all sides, at least in the close-up range N (cf. FIG. 3), which corresponds to a viewing angle W of 360°. Therefore, the all-round view image RB results in an all-round view field of view 4R, which is larger than the individual fields of view 4 of the cameras 3. This all-round view image RB of the close-up area N can be shown to an occupant, for example the driver of the vehicle 1, on a display device 7 be issued, so that the driver can orientate himself, for example, when parking or maneuvering. The environment U can be presented to the viewer in a bird's-eye view.
Die Anzeigeeinrichtung 7 weist dabei gemäß Fig. 2b eine Anzahl Nm an Anzeigepixeln APm (laufender Index m von 0 bis Nm) auf, wobei jeder Rundumsichtbild-Bildpunkt RBPp auf einem bestimmten Anzeigepixel APm der Anzeigeeinrichtung 7 dargestellt wird, so dass sich das für den Betrachter auf der Anzeigeeinrichtung 7 sichtbare Rundumsicht-Bild RB ergibt. Eine dynamische Untermenge der Anzeigepixel APm sind Objektpixel OAPq (laufender Index q), auf denen ein Objekt O aus der Umgebung U dargestellt wird (lediglich schematisch in Fig. 2b). Den Objektpixeln OAPq sind also Rundumsichtbild-Bildpunkte RBPp zugeordnet, auf denen ein bestimmtes Objekt O aus der Umgebung U bzw. ein bestimmter Objekt-Punkt PPn abgebildet wird. Bei einer derartigen Darstellung kann es aufgrund der Anwendung des Rundumsicht-Algorithmus A1 dazu kommen, dass an den Bildrändern des Rundumsicht-Bildes RB Verzerrungen entstehen. Um dem zu begegnen, ist erfindungsgemäß vorgesehen, dass dem erstellten Rundumsicht-Bild RB weitere Informationen überlagert werden, die sich aus Tiefeninformationen TI zu den abgebildeten Objekten 0 ergeben. According to Fig. 2b, the display device 7 has a number Nm of display pixels APm (running index m from 0 to Nm), with each all-round view image pixel RBPp being displayed on a specific display pixel APm of the display device 7, so that the viewer All-round view image RB visible on the display device 7 results. A dynamic subset of the display pixels APm are object pixels OAPq (running index q), on which an object O from the environment U is displayed (only schematically in FIG. 2b). All-round view image pixels RBPp, on which a specific object O from the environment U or a specific object point PPn is imaged, are therefore assigned to the object pixels OAPq. With such a display, the application of the all-round view algorithm A1 can result in distortions occurring at the image edges of the all-round view image RB. In order to counteract this, it is provided according to the invention that further information, which results from depth information TI for the objects 0 shown, is superimposed on the created all-round view image RB.
Die Tiefeninformationen TI werden dabei mit dem sog. Structure-from- Motion (SfM) Verfahren aus mehreren Einzelbildern EBk einer einzelnen Kamera 3 gewonnen. Das Extrahieren von Tiefeninformationen TI erfolgt also Kameraweise für jede Kamera 3 einzeln. Bei dem SfM-Verfahren wird das betreffende dreidimensionale Objekt 0 in der Umgebung U mit seinen Objektpunkten PPn von der jeweiligen Kamera 3 von mindestens zwei unterschiedlichen Standpunkten SP1 , SP2 aus aufgenommen, wie in Fig. 2a dargestellt. Durch Triangulation T können anschließend die Tiefeninformationen TI bezüglich des jeweiligen dreidimensionalen Objektes 0 erhalten werden: The depth information TI is obtained from a number of individual images EBk from a single camera 3 using the so-called Structure-from-Motion (SfM) method. Depth information TI is therefore extracted camera by camera for each camera 3 individually. In the SfM method, the relevant three-dimensional object 0 in the environment U with its object points PPn is recorded by the respective camera 3 from at least two different viewpoints SP1, SP2, as shown in FIG. 2a. The depth information TI relating to the respective three-dimensional object 0 can then be obtained by triangulation T:
Dazu werden Bildkoordinaten xB, yB zu mindestens einem ersten Einzelbild-Bildpunkt EB1 P1 in einem ersten Einzelbild EB1 , z.B. der Front-Kamera 3a, und mindestens einem ersten Einzelbild-Bildpunkt EB2P1 in einem zweiten Einzelbild EB2 ebenfalls der Front-Kamera 3a bestimmt. Beide Einzelbilder EB2 werden von der Front-Kamera 3a an unterschiedlichen Standpunkten SP1 , SP2 aufgenommen, d.h. zwischen den Einzelbildern EB1 , EB2 bewegt sich das Fahrzeug 1 bzw. die Front-Kamera 3a um eine Basislänge L. Die beiden ersten Einzelbild-Bildpunkte EB1 P1 , EB2P1 werden in den jeweiligen Einzelbildern EB1 , EB2 derartig gewählt, dass sie demselben Objektpunkt PPn auf dem jeweils abgebildeten dreidimensionalen Objekt 0 zugeordnet sind. For this purpose, image coordinates xB, yB are determined for at least one first single-image pixel EB1 P1 in a first single image EB1, e.g. of the front camera 3a, and at least one first single-image pixel EB2P1 in a second single image EB2, also of the front camera 3a. Both individual images EB2 are recorded by the front camera 3a at different positions SP1, SP2, ie the vehicle 1 or the front camera 3a moves by a base length L between the individual images EB1, EB2. The first two individual image pixels EB1 P1 , EB2P1 are selected in the respective individual images EB1, EB2 in such a way that they are assigned to the same object point PPn on the three-dimensional object 0 that is depicted in each case.
Auf diese Weise können für ein oder auch mehrere Objekte 0 in der Umgebung U jeweils ein oder mehrere Paare von Einzelbild-Bildpunkten EB1 Pi, EB2Pi für ein oder auch mehrere Objektpunkte PPn ermittelt werden. Um den Prozess zu vereinfachen, können eine gewisse Anzahl an Einzelbild- Bildpunkten EB1 Pi, EB2Pi im jeweiligen Einzelbild EB1 , EB2 in einem Merkmalspunkt MP1 , MP2 zusammengefasst werden (s. Fig. 2), wobei die zusammenzufassenden Einzelbild-Bildpunkte EB1 Pi, EB2Pi derartig gewählt werden, dass der jeweilige Merkmalspunkt MP1 , MP2 einem bestimmten eindeutig lokalisierbaren Merkmal M an dem dreidimensionalen Objekt 0 zugeordnet ist. Bei dem Merkmal M kann es sich beispielsweise um eine Ecke ME oder eine Außenkante MK am dreidimensionalen Objekt 0 handeln (vgl. Fig. 2a). In this way, one or more pairs of individual image pixels EB1Pi, EB2Pi for one or more object points PPn can be determined for one or more objects 0 in the environment U. To simplify the process, a certain number of frame Pixels EB1 Pi, EB2Pi in the respective individual image EB1, EB2 are combined in a feature point MP1, MP2 (see Fig. 2), the individual image pixels EB1 Pi, EB2Pi to be combined being selected in such a way that the respective feature point MP1, MP2 has a specific clearly localizable feature M is assigned to the three-dimensional object 0. The feature M can be, for example, a corner ME or an outer edge MK on the three-dimensional object 0 (cf. FIG. 2a).
In einer Näherung können nachfolgend aus den für das jeweilige Objekt 0 ermittelten Bildkoordinaten xB, yB der Einzelbild-Bildpunkte EB1 Pi, EB2Pi bzw. der Merkmalspunkte MP1 , MP2 durch Triangulation T die absoluten, tatsächlichen Objektkoordinaten xO, yO, zO (Weltkoordinaten) des dreidimensionalen Objektes 0 bzw. des Objektpunkts PPj bzw. des Merkmals M berechnet bzw. abgeschätzt werden. Um die Triangulation T ausführen zu können, wird auf eine entsprechend ermittelte Basislänge L zwischen den Standpunkten SP1 , SP2 der Front-Kamera 3a zurückgegriffen. In an approximation, the absolute, actual object coordinates xO, yO, zO (world coordinates) of the three-dimensional Object 0 or the object point PPj or the feature M are calculated or estimated. In order to be able to carry out the triangulation T, a correspondingly determined base length L between the positions SP1, SP2 of the front camera 3a is used.
Aus den daraus ermittelten Objektkoordinaten xO, yO, zO können aus geometrischen Betrachtungen anschließend sowohl eine Position als auch eine Orientierung, d.h. eine Pose, des Fahrzeuges 1 relativ zum jeweiligen dreidimensionalen Objekt 0 ermittelt werden, wenn die Triangulation T für eine ausreichende Anzahl an Objektpunkten PPi bzw. Merkmalen M eines Objektes 0 durchgeführt wurde. Von der Verarbeitungseinheit 6 kann basierend darauf auch eine Objektform FO und/oder eine Objektkontur CO zumindest abgeschätzt werden, wenn die exakten Objektkoordinaten xO, yO, zO von mehreren Objektpunkten PPj bzw. Merkmalen M eines Objekts 0 bekannt sind. Die Objektform FO und/oder die Objektkontur CO kann für die spätere Verarbeitung einem Deep-Learning-Algorithmus A2 zugeführt werden. From the object coordinates xO, yO, zO determined from this, both a position and an orientation, ie a pose, of the vehicle 1 relative to the respective three-dimensional object 0 can then be determined from geometric considerations if the triangulation T for a sufficient number of object points PPi or characteristics M of an object 0 was carried out. Based on this, the processing unit 6 can also at least estimate an object shape FO and/or an object contour CO if the exact object coordinates xO, yO, zO of a plurality of object points PPj or features M of an object 0 are known. The object shape FO and/or the object contour CO can be supplied to a deep learning algorithm A2 for later processing.
In der beschriebenen Weise können auch von jeder anderen Kamera 3 im Fahrzeug 1 Objekte 0 und deren Objektkoordinaten xO, yO, zO erfasst und darüber deren Position und Orientierung im Raum ermittelt werden. llm die Tiefeninformationen TI noch genauer zu ermitteln, kann ergänzend vorgesehen sein, dass mit der jeweiligen Kamera 3 mehr als zwei Einzelbilder EB1 , EB2 aufgenommen und durch Triangulation T wie oben beschrieben ausgewertet werden und/oder ergänzend eine Bündelausgleichung durchgeführt wird. In the manner described, objects 0 and their object coordinates xO, yO, zO can also be detected by any other camera 3 in the vehicle 1 and their position and orientation in space can be determined via this. In order to determine the depth information TI even more precisely, it can additionally be provided that more than two individual images EB1, EB2 are recorded with the respective camera 3 and evaluated by triangulation T as described above and/or a bundle adjustment is additionally carried out.
Wie bereits beschrieben, ist das Objekt 0 für das SfM-Verfahren aus mindestens zwei unterschiedlichen Standpunkten SP1 , SP2 von der jeweiligen Kamera 3 zu betrachten, wie schematisch in Fig. 2a dargestellt. Dazu ist die jeweilige Kamera 3 kontrolliert in die unterschiedlichen Standpunkte SP1 , SP2 zu bewegen. Anhand von Odometrie-Daten OD kann dabei ermittelt werden, welche Basislänge L sich zwischen den Standpunkten SP1 , SP2 aus dieser Bewegung ergibt. Dazu können unterschiedliche Methoden zur Anwendung kommen: As already described, the object 0 for the SfM method can be viewed from at least two different viewpoints SP1, SP2 by the respective camera 3, as shown schematically in FIG. 2a. For this purpose, the respective camera 3 is to be moved into the different positions SP1, SP2 in a controlled manner. Based on odometry data OD, it can be determined which base length L results between the positions SP1, SP2 from this movement. Different methods can be used for this:
Ist das gesamte Fahrzeug 1 in Bewegung, so ergibt sich bereits daraus eine Bewegung der jeweiligen Kamera 3. Darunter ist zu verstehen, dass das Fahrzeug 1 in seiner Gesamtheit aktiv, beispielsweise durch das Antriebssystem, oder passiv, beispielsweise durch ein Gefälle, in Bewegung versetzt wird. Werden während dieser Bewegung von der jeweiligen Kamera 3 mindestens zwei Einzelbilder EB1 , EB2 innerhalb eines zeitlichen Versatzes aufgenommen, lässt sich mithilfe von Odometrie-Daten OD, aus denen sich die Fahrzeugbewegung und damit auch die Kamerabewegung ableiten lässt, die Basislänge L ermitteln. Durch Odometrie werden also die beiden den Einzelbildern EB1 , EB2 zugeordneten Standpunkte SP1 , SP2 ermittelt. If the entire vehicle 1 is in motion, this already results in a movement of the respective camera 3. This means that the vehicle 1 is actively set in motion in its entirety, for example by the drive system, or passively, for example by a slope will. If at least two individual images EB1, EB2 are recorded by the respective camera 3 during this movement within a time offset, the base length L can be determined using odometry data OD, from which the vehicle movement and thus also the camera movement can be derived. The two positions SP1, SP2 assigned to the individual images EB1, EB2 are thus determined by odometry.
Als Odometrie-Daten OD können beispielsweise Raddrehzahl-Signale S13 von aktiven und/oder passiven Raddrehzahlsensoren 13 an den Rädern des Fahrzeuges 1 verwendet werden. Aus diesen kann in Abhängigkeit des zeitlichen Versatzes ermittelt werden, wie weit sich das Fahrzeug 1 bzw. die jeweilige Kamera 3 zwischen den Standpunkten SP1 , SP2 bewegt hat, woraus die Basislänge L folgt. Um die odometrische Bestimmung der Basislänge L bei einer Bewegung des Fahrzeuges 1 genauer zu machen, kann auf weitere im Fahrzeug 1 verfügbare Odometrie-Daten OD zurückgegriffen werden. Beispielsweise kann auf einen Lenkwinkel LW und/oder eine Gierrate G, die entsprechend sensorisch oder analytisch bestimmt werden, zurückgegriffen werden, um auch die Drehbewegung des Fahrzeuges 4 zu berücksichtigen. For example, wheel speed signals S13 from active and/or passive wheel speed sensors 13 on the wheels of vehicle 1 can be used as odometry data OD. Depending on the time offset, these can be used to determine how far the vehicle 1 or the respective camera 3 has moved between the positions SP1, SP2, from which the Base length L follows. In order to make the odometric determination of the base length L more precise when the vehicle 1 is moving, further odometry data OD available in the vehicle 1 can be accessed. For example, a steering angle LW and/or a yaw rate G, which are correspondingly determined by sensors or analytically, can be used in order to also take into account the rotational movement of the vehicle 4 .
Es ist aber nicht zwangsläufig nur auf die Fahrzeug-Odometrie zurückzugreifen, d.h. die Bewertung der Fahrzeugbewegung anhand von Bewegungssensoren am Fahrzeug 1. Ergänzend oder alternativ kann auch auf eine visuelle Odometrie zurückgegriffen werden. Bei der visuellen Odometrie kann aus den Bildsignalen SB der jeweiligen Kamera 3 bzw. aus Informationen in den erfassten Einzelbildern EB1 , EB2 eine Kameraposition fortlaufend ermittelt werden, insofern zumindest zu Beginn z.B. Objektkoordinaten xO, yO, zO eines bestimmten Objektpunktes PPn bekannt sind. Die Odometrie-Daten OD können also auch eine Abhängigkeit von der derartig ermittelten Kameraposition enthalten, da daraus die Fahrzeugbewegung zwischen den beiden Standpunkten SP1 , SP2 bzw. unmittelbar auch die Basislänge L abgeleitet werden kann. However, it is not necessary to only use vehicle odometry, i.e. the evaluation of the vehicle movement using motion sensors on vehicle 1. In addition or as an alternative, visual odometry can also be used. In visual odometry, a camera position can be continuously determined from the image signals SB of the respective camera 3 or from information in the captured individual images EB1, EB2, insofar as object coordinates xO, yO, zO of a specific object point PPn, for example, are known at least at the beginning. The odometry data OD can therefore also contain a dependency on the camera position determined in this way, since the vehicle movement between the two positions SP1, SP2 or directly also the base length L can be derived from this.
Grundsätzlich kann aber auch eine aktive Verstellung der Kamera 3 vorgesehen sein, ohne den Bewegungszustand des gesamten Fahrzeuges 1 zu verändern. Demnach sind jegliche Bewegungen der jeweiligen Kamera 3 möglich, um diese kontrolliert und messbar in unterschiedliche Standpunkte SP1 , SP2 zu bringen. In principle, however, an active adjustment of the camera 3 can also be provided without changing the state of motion of the entire vehicle 1 . Accordingly, any movements of the respective camera 3 are possible in order to bring them into different positions SP1, SP2 in a controlled and measurable manner.
In Abhängigkeit der Tiefeninformationen TI, die durch das SfM-Verfahren zu einem bestimmten Objekt 0 ermittelt werden konnten, können dem Rund- umsicht-Bild RB nachfolgend wie in Fig. 3 dargestellt Overlay-Strukturen 20 überlagert werden. Die Überlagerung kann dabei derartig erfolgen, dass der Anzeigeeinrichtung 7 über ein Rundumsicht-Bild-Signal SRB das Rundumsicht- Bild RB und über ein Overlay-Signal SO ein zu überlagerndes Overlay-Bild OB mit den jeweiligen Overlay-Strukturen 20 übermittelt wird. Die Anzeigeeinrich- tung 7 stellt dann an den entsprechenden Anzeigepixel APm beide Bilder RB, OB dar, beispielsweise durch Pixeladdition oder Pixelmultiplikation oder einer beliebigen anderen Pixeloperation. Alternativ kann das Rundumsicht-Bild RB in der Verarbeitungseinheit 6 an den entsprechenden Rundumsicht-Bildpunkten RBPp auch direkt verändert bzw. angepasst werden, so dass der Anzeigeeinrichtung 7 über das Rundumsicht-Bild-Signal SRB ein Rundumsicht-Bild RB, das die Overlay-Strukturen 20 beinhaltet, zur Anzeige übermittelt wird. Depending on the depth information TI, which could be determined by the SfM method for a specific object 0, overlay structures 20 can subsequently be superimposed on the all-round view image RB, as shown in FIG. The superimposition can take place in such a way that the display device 7 is transmitted the all-round view image RB via an all-round view image signal SRB and an overlay image OB to be superimposed with the respective overlay structures 20 is transmitted via an overlay signal SO. The display device Device 7 then displays both images RB, OB on the corresponding display pixels APm, for example by pixel addition or pixel multiplication or any other pixel operation. Alternatively, the all-round view image RB can also be changed or adjusted directly in the processing unit 6 at the corresponding all-round view pixels RBPp, so that the display device 7 can use the all-round view image signal SRB to show an all-round view image RB that contains the overlay structures 20 includes, is transmitted for display.
Die zusätzlichen Overlay-Strukturen 20 sind dabei einem bestimmten Objekt O in der Umgebung U eindeutig zugeordnet. Dadurch können dem Betrachter zu dem jeweiligen Objekt O zusätzliche Informationen präsentiert werden, was die Orientierung in der Umgebung U anhand der Anzeige komfortabler macht. Die Overlay-Struktur 20 kann dazu beispielsweise ein Balken 20a und/oder ein Polygon 20b und/oder ein Text 20c sein, die ergänzend in Abhängigkeit der jeweils zugeordneten Tiefeninformation TI kodiert sein können. In this case, the additional overlay structures 20 are uniquely assigned to a specific object O in the environment U. As a result, the observer can be presented with additional information about the respective object O, which makes orientation in the area U based on the display more convenient. For this purpose, the overlay structure 20 can be, for example, a bar 20a and/or a polygon 20b and/or a text 20c, which can additionally be encoded depending on the respectively associated depth information TI.
Die Überlagerung erfolgt derartig, dass die Overlay-Struktur 20 auf oder benachbart zu den Objektpixeln OAPq der Anzeigeeinrichtung 7 erscheint, die dem Objekt O zugeordnet sind. Die jeweiligen Objektpixel OAPq können über den Rundumsicht-Algorithmus A1 dynamisch von der Verarbeitungseinheit 6 identifiziert werden. Basierend darauf kann das Overlay-Bild OB erstellt werden bzw. können die Rundumsicht-Bildpunkte RBPp des Rundumsicht-Bildes RB direkt verändert bzw. angepasst werden, so dass die jeweilige Overlay-Struktur 20 auf oder benachbart zu dem jeweiligen Objekt O auf der Anzeigeeinrichtung 7 erscheint. The superimposition takes place in such a way that the overlay structure 20 appears on or adjacent to the object pixels OAPq of the display device 7 which are assigned to the object O. FIG. The respective object pixels OAPq can be dynamically identified by the processing unit 6 via the all-round view algorithm A1. Based on this, the overlay image OB can be created or the all-round view pixels RBPp of the all-round view image RB can be changed or adjusted directly, so that the respective overlay structure 20 is on or adjacent to the respective object O on the display device 7 appears.
Beispielsweise kann ein Balken 20a auf den Anzeigepixeln APm der Anzeigeeinrichtung 7 dargestellt werden, die auf einer oder benachbart zu einer Außenkante MK des jeweiligen Objekts O liegt, die dem eigenen Fahrzeug 1 am nächsten gelegen ist. Die Ausrichtung des Balkens 20a kann derartig gewählt werden, dass der Balken 20a senkrecht zu einer Objekt-Normalen NO liegt, wie in Fig. 3 dargestellt, so dass der Balken 20a in jedem Fall eine äußere Begrenzung des Objektes 0 angibt, wenn das Objekt 0 beispielsweise keine geradlinige Außenkante MK aufweist. Die Objekt-Normale NO kann aus den Tiefeninformationen TI zu diesem Objekt, d.h. aus der Position und der Orientierung, abgeschätzt werden, die aus dem SfM-Verfahren folgt. For example, a bar 20a can be displayed on the display pixels APm of the display device 7 that is located on or adjacent to an outer edge MK of the respective object O that is closest to the host vehicle 1 . The alignment of the bar 20a can be chosen such that the bar 20a is perpendicular to an object normal NE, as shown in FIG Delimitation of the object 0 indicates if the object 0 has no straight outer edge MK, for example. The object normal NO can be estimated from the depth information TI on this object, ie from the position and the orientation, which follows from the SfM method.
Um die Position eines dem Objekt 0 zugeordneten Balkens 20a auf der Anzeigeeinrichtung 7 hervorzuheben, können die Objektpixel OAPq des Objektes O, dem auch der Balken 20a zugeordnet ist, in einer festgelegten Farbe F eingefärbt werden. Dadurch wird das Objekt O selbst deutlicher dargestellt, so dass mögliche Verzerrungen bei der Darstellung des Objektes O weniger wahrgenommen werden. Dem Rundumsicht-Bild RB wird also im Bereich der Objektpixel OAPq als weitere Overlay-Struktur 20 ein Polygon 20b mit der Objektform OF bzw. der Objekt-Kontur OC in einer bestimmten Farbe F überlagert. Kann die Objektform OF bzw. die Objekt-Kontur OC in dem SfM-Verfahren nicht eindeutig bestimmt werden, so kann auch lediglich ein Rechteck für das Objekt O angenommen werden, das dann vom Fahrzeug 1 aus gesehen „hinter“ dem Balken 20a verläuft. Die weitere Overlay-Struktur 20 ist in dem Fall ein Polygon 20b mit vier Ecken. In order to emphasize the position of a bar 20a assigned to the object 0 on the display device 7, the object pixels OAPq of the object O, to which the bar 20a is also assigned, can be colored in a fixed color F. As a result, the object O itself is displayed more clearly, so that possible distortions in the display of the object O are perceived less. A polygon 20b with the object shape OF or the object contour OC in a specific color F is thus superimposed as a further overlay structure 20 on the all-round view image RB in the area of the object pixels OAPq. If the object shape OF or the object contour OC cannot be clearly determined in the SfM method, only a rectangle can be assumed for the object O, which then runs “behind” the bar 20a as seen from the vehicle 1 . In this case, the further overlay structure 20 is a polygon 20b with four corners.
Als Farbe F kann beispielsweise Schwarz gewählt werden. Die Farbe F kann aber auch in Abhängigkeit eines Objekt-Abstandes OA zum jeweiligen Objekt O gewählt werden. Auch der Balken 20a selbst kann farblich in Abhängigkeit des Objekt-Abstandes OA zum jeweiligen Objekt O kodiert sein. Der Objekt-Abstand OA zwischen dem Fahrzeug 1 und dem Objekt O folgt dabei ebenfalls aus den über das SfM-Verfahren gewonnenen Tiefeninformationen TI zu diesem Objekt, d.h. aus der Position und der Orientierung. Black, for example, can be selected as the color F. However, the color F can also be selected as a function of an object distance OA from the respective object O. The bar 20a itself can also be color-coded depending on the object distance OA from the respective object O. The object distance OA between the vehicle 1 and the object O also follows from the depth information TI on this object obtained via the SfM method, i.e. from the position and the orientation.
Wird in dem SfM-Verfahren ein Objekt-Abstand OA von unter 1 m ermittelt, so kann die Farbe F der jeweiligen Overlay-Struktur 20, d.h. des Balkens 20a und/oder des Polygons 20b, beispielsweise in einer Warnfarbe, insbesondere in Rot, dargestellt werden. Liegt der Objekt-Abstand OA des Objektes O in einem Bereich zwischen 1 m und 5m kann Gelb als Farbe F für die diesem Objekt O zugeordnete Overlay-Struktur 20 verwendet werden. Bei Objekt-Abständen OA von größer als 5m kann Grün als Farbe F vorgesehen sein. Auf diese Weise kann dem Betrachter in deutlicher Weise angezeigt werden, welche Gefahr von dem jeweiligen Objekt O ausgeht. Da die Tiefeninformationen TI aus den Einzelbildern EBk gewonnen werden, haben die Verzerrungen aus dem Rundumsicht-Algorithmus A1 auf die Overlay-Strukturen 20 keinen Einfluss und können daher ausgehend vom eigenen Fahrzeug 1 an der korrekten Position auf der Anzeigeeinrichtung 7 dargestellt werden. If an object distance OA of less than 1 m is determined in the SfM method, the color F of the respective overlay structure 20, ie the bar 20a and/or the polygon 20b, can be displayed in a warning color, in particular red, for example will. If the object distance OA of the object O is in a range between 1 m and 5 m, yellow can be used as the color F for this object O associated overlay structure 20 can be used. In the case of object distances OA greater than 5 m, green can be provided as the color F. In this way, the danger emanating from the respective object O can be shown to the observer in a clear manner. Since the depth information TI is obtained from the individual images EBk, the distortions from the all-round view algorithm A1 have no influence on the overlay structures 20 and can therefore be displayed at the correct position on the display device 7 starting from the host vehicle 1 .
Weiterhin kann die jeweilige Overlay-Struktur 20 auf der Anzeigeeinrichtung 7 undurchsichtig oder zumindest teilweise durchsichtig angezeigt werden, so dass die mindestens eine Overlay-Struktur 20 das Rundumsicht-Bild RB auf und/oder benachbart zu dem jeweils zugeordneten Objekt O vollständig oder zumindest teilweise, in Bezug auf die Transparenz, abdeckt. Furthermore, the respective overlay structure 20 can be displayed opaquely or at least partially transparently on the display device 7, so that the at least one overlay structure 20 completely or at least partially shows the all-round view image RB on and/or adjacent to the respectively assigned object O in terms of transparency.
Ergänzend kann die Farbe F der Overlay-Struktur 20 in Abhängigkeit eines Bewegungsindikators B gewählt werden. So kann anhand des SfM-Verfahrens wie beschrieben eine Objekt-Kontur OC und/oder eine Objekt-Form OF für das jeweils erkannte Objekt O ermittelt werden. Aus dem SfM-Verfahren kann jedoch kein unmittelbarer Rückschluss auf eine Dynamik des Objektes O gezogen werden. Wird die Objekt-Kontur OC und/oder die Objekt-Form OF aber einem Deep-Learning-Algorithmus A2 in der Verarbeitungseinheit 6 zugeführt, kann zumindest eine Klassifizierung des Objektes O stattfinden, aus der dann auf die mögliche Dynamik des Objektes O geschlossen werden kann. In addition, the color F of the overlay structure 20 can be selected as a function of a movement indicator B. As described, an object contour OC and/or an object shape OF for the respectively detected object O can be determined using the SfM method. However, no direct conclusions about the dynamics of the object O can be drawn from the SfM method. However, if the object contour OC and/or the object shape OF is supplied to a deep learning algorithm A2 in the processing unit 6, at least one classification of the object O can take place, from which the possible dynamics of the object O can then be inferred .
Dabei kann die Objekt-Kontur OC und/oder die Objekt-Form OF des jeweiligen Objektes O mit bekannten Objekten verglichen werden. Diese können in einer Datenbank, die z.B. in einem fahrzeugfesten Speicher abgespeichert ist oder die über eine mobile Datenverbindung vom Fahrzeug 1 aus zugänglich ist, hinterlegt sein. Anhand der Einträge von bekannten Objekten in der Datenbank kann festgestellt werden, ob es sich bei dem erfassten Objekt O um eine Person oder ein Gebäude oder ein Fahrzeug o.ä. handelt. Jedem erfassten Objekt 0 kann darüber ein in der Datenbank abgelegter Bewegungsindikator B zugeordnet werden, der angibt, ob und wie sich das Objekt 0 normalerweise in der Umgebung U bewegt. Daraus kann geschlussfolgert werden, ob eine erhöhte Aufmerksamkeit gegenüber dem Objekt 0, z.B. bei Personen, geboten ist. Entsprechend kann die Overlay-Struktur 20, z.B. der Balken 20a und/oder das Polygon 20b oder eine weitere Overlay-Struktur 20, entsprechend dem Bewegungsindikator B kodiert werden, beispielsweise farblich. Ergänzend kann als weitere Overlay-Struktur 20 ein Text 20c, beispielsweise in Form eines „!“ (Ausrufezeichens), etc. eingeblendet werden. The object contour OC and/or the object shape OF of the respective object O can be compared with known objects. These can be stored in a database, which is stored, for example, in a memory fixed to the vehicle or which can be accessed from vehicle 1 via a mobile data connection. Based on the entries of known objects in the database, it can be determined whether the detected object O is a person or a building or a vehicle or the like. Each detected object 0 can be assigned a movement indicator B stored in the database, which indicates whether and how the object 0 normally moves in the environment U. From this it can be concluded whether increased attention to the object 0, eg in the case of people, is required. Correspondingly, the overlay structure 20, for example the bar 20a and/or the polygon 20b or another overlay structure 20, can be coded according to the movement indicator B, for example in color. In addition, a text 20c, for example in the form of an “!” (exclamation mark), etc., can be superimposed as a further overlay structure 20.
Der Bewegungsindikator B eines Objektes O kann allerdings auch dadurch abgeschätzt werden, dass Einzelbild-Bildpunkte EBkPi, die einem Objektpunkt PPn in der Umgebung U zugeordnet sind, zeitlich verfolgt werden. Dies kann beispielsweise durch das pixelweise Bilden einer Differenz von aufeinanderfolgenden Einzelbildern EBk erfolgen. Daraus kann ebenfalls auf eine Bewegung des jeweiligen Objektes O geschlossen werden. However, the movement indicator B of an object O can also be estimated by chronologically tracking individual image pixels EBkPi, which are assigned to an object point PPn in the environment U. This can be done, for example, by forming a difference between successive individual images EBk pixel by pixel. A movement of the respective object O can also be inferred from this.
Weiterhin können als Overlay-Strukturen 20 Isolinien 20d (s. Fig. 3) überlagert werden, welche jeweils einen festen Iso-Abstand AI zu einer Fahrzeugaußenseite 1 a kennzeichnen. Furthermore, isolines 20d (see FIG. 3) can be superimposed as overlay structures 20, each of which characterizes a fixed iso-distance A1 to a vehicle exterior 1a.
Bezugszeichenliste (Bestandteil der Beschreibung) List of reference symbols (part of the description)
1 Fahrzeug 1 vehicle
1a Fahrzeugaußenseite 1a vehicle exterior
2a Vorderseite 2a front
2b Rückseite 2b back
2c Längsseite 2c long side
3 Kamera 3 camera
3a Front-Kamera 3a front camera
3b Rückraum-Kamera 3b rear camera
3c Seitenkamera 3c side camera
4 Sichtbereich 4 viewing area
4a Front-Sichtbereich 4a Front viewing area
4b Rückraum-Sichtbereich 4b rear view area
4c Seiten-Sichtbereich 4c side viewing area
4R Rundumsicht-Sichtbereich 4R all-round vision field of view
6 Verarbeitungseinheit 6 processing unit
7 Anzeigeeinrichtung 7 display device
13 Raddrehzahlsensor 13 wheel speed sensor
20 Overlay-Struktur 20 overlay structure
20a Balken 20a bar
20b Polygon 20b polygon
20c Text 20c text
20d Isolinie 20d isoline
A1 Rundumsicht-Algorithmus A1 surround view algorithm
A2 Deep-Learning-Algorithmus A2 deep learning algorithm
AI Iso-Abstand AI Iso distance
APm m. Anzeigepixel APm w. display pixel
B Bewegungsindikator B Movement indicator
EBk k. Einzelbild der Kamera 3 EBk k. Still image of the camera 3
EBkPi i. Einzelbild-Bildpunkt des k. Einzelbildes EBkEBkPi i. Frame pixel of the k. frame EBk
F Farbe G Gierrate F color G yaw rate
L Basislänge L base length
LW Lenkwinkel LW steering angle
M Merkmal M feature
ME Ecke ME corner
MK Außenkante MK outer edge
MP1 Merkmalspunkt im ersten Einzelbild E1 MP1 feature point in the first frame E1
MP2 Merkmalspunkt im zweiten Einzelbild E2 MP2 feature point in second frame E2
N Nahbereich N close range
Ni Anzahl von Einzelbild-Bildpunkten EBkPi Ni Number of frame pixels EBkPi
Nm Anzahl an Anzeigepixeln APm Nm Number of display pixels APm
Np Anzahl von Rundumsichtbild-Bildpunkten RBPpNp number of surround view image pixels RBPp
0 Objekt 0 object
OAPq q. Objektpixel OAPq q. object pixel
OA Objekt-Abstand OA object distance
OB Overlay-Bild OB overlay image
OC Objekt-Kontur OC object contour
OD Odometrie-Daten OD odometry data
OF Objekt-Form OF object form
ON Objekt-Normale ON object normal
PPn n. Objektpunkt eines Objektes 0 PPn n. object point of an object 0
RB Rundumsicht-Bild RB all-round view image
RBPp p. Rundumsichtbild-Bildpunkt RBPp p. Surround view image pixel
RE Referenzebene RE reference plane
S13 Raddrehzahlsignal S13 wheel speed signal
SB Bildsignal SB image signal
SO Overlay-Signal SO overlay signal
SP1 , SP2 Standpunkt der Kamera 3 SP1 , SP2 Camera point of view 3
SRB Rundumsicht-Bild-Signal SRB surround view image signal
TI Tiefeninformation TI depth information
T Triangulation T triangulation
U Umgebung xB, yB Bildkoordinaten xO, yO, zO Objektkoordinaten i, k, m, n, p, q Index U environment xB, yB image coordinates xO, yO, zO object coordinates i, k, m, n, p, q index

Claims

- 25 - Patentansprüche - 25 - Claims
1. Verfahren zum Anzeigen einer Umgebung (U) eines Fahrzeuges (1 ), insbesondere Nutzfahrzeuges, auf einer Anzeigeeinrichtung (7), mit mindestens den folgenden Schritten: 1. A method for displaying an environment (U) of a vehicle (1), in particular a commercial vehicle, on a display device (7), with at least the following steps:
- Aufnehmen der Umgebung (U) mit mindestens zwei Kameras (3), wobei jede Kamera (3) einen anderen Sichtbereich (4) aufweist, wobei sich Sichtbereiche (4) von benachbarten Kameras (3) zumindest bereichsweise überlappen; - Recording the surroundings (U) with at least two cameras (3), each camera (3) having a different field of view (4), with fields of view (4) of adjacent cameras (3) overlapping at least in certain areas;
- Erstellen eines Rundumsicht-Bildes (RB) aus mindestens zwei Einzelbildern (EBk), wobei jedes Einzelbild (EBk) von einer anderen Kamera (3) aufgenommen ist und die Einzelbilder (EBk) zum Erstellen des Rundumsicht-Bildes (RB) in eine Referenzebene (RE) projiziert werden; - Creating an all-round view image (RB) from at least two individual images (EBk), each individual image (EBk) being recorded by a different camera (3) and the individual images (EBk) for creating the all-round view image (RB) in a reference plane (RE) to be projected;
- Ermitteln von Tiefeninformationen (TI) von mindestens einem Objekt (0) in der aufgenommenen Umgebung (U), wobei die Tiefeninformationen (TI) durch Triangulation (T) aus mindestens zwei unterschiedlichen Einzelbildern (EBk) derselben Kamera (3) ermittelt werden, wobei das mindestens eine Objekt (O) in den mindestens zwei unterschiedlichen Einzelbildern (EBk) abgebildet ist; und - Determining depth information (TI) of at least one object (0) in the recorded environment (U), the depth information (TI) being determined by triangulation (T) from at least two different individual images (EBk) of the same camera (3), wherein the at least one object (O) is imaged in the at least two different individual images (EBk); and
- Erzeugen mindestens einer Overlay-Struktur (20) in Abhängigkeit der ermittelten Tiefeninformationen (TI), wobei jede Overlay-Struktur (20) einem abgebildeten Objekt (O) eindeutig zugeordnet ist; und - Generating at least one overlay structure (20) as a function of the depth information (TI) determined, each overlay structure (20) being uniquely associated with an imaged object (O); and
- Darstellen des erstellten Rundumsicht-Bildes (RB) enthaltend das mindestens eine Objekt (0) und der mindestens einen erzeugten Overlay-Struktur (20) auf der Anzeigeeinrichtung (7) derartig, dass die mindestens eine Overlay-Struktur (20) auf und/oder benachbart zu dem jeweils zugeordneten Objekt (0) angezeigt wird. - Displaying the created all-round view image (RB) containing the at least one object (0) and the at least one generated overlay structure (20) on the display device (7) in such a way that the at least one overlay structure (20) is on and/or or is displayed adjacent to the respectively assigned object (0).
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass auf der Anzeigeeinrichtung (7) als Overlay-Struktur (20) ein Balken (20a) und/oder ein Polygon (20b) und/oder ein Text (20c) auf und/oder benachbart zu dem jeweils zugeordneten Objekt (O) angezeigt wird. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass der Balken (20a) auf einer und/oder benachbart zu einer Außenkante (MK) des jeweils zugeordneten Objekts (0) auf der Anzeigeeinrichtung (7) angezeigt wird, wobei der Balken (20a) vorzugsweise senkrecht zu einer Objekt-Normalen (NO) des jeweils zugeordneten Objektes (O) liegt, wobei die Objekt- Normale (NO) aus den Tiefeninformationen (TI) gewonnen wird. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass auf der Anzeigeeinrichtung (7) als Overlay-Struktur (20) ein Polygon (20b) derartig abgebildet wird, dass das Polygon (20b) das jeweils zugeordnete Objekt (O) zumindest teilweise, vorzugsweise vollständig überspannt. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die mindestens eine Overlay-Struktur (20) auf der Anzeigeeinrichtung (7) in einer vorab festgelegten Farbe (F) angezeigt wird oder in einer Farbe (F), die von der ermittelten Tiefeninformation (TI) bezüglich des jeweils zugeordneten Objektes (O) abhängig ist. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Farbe (F) der mindestens einen Overlay-Struktur (20) abhängig von einem Objekt- Abstand (OA) zwischen dem Fahrzeug (1 ) und dem jeweils zugeordneten Objekt (O) ist, wobei der Objekt-Abstand (OA) aus den ermittelten Tiefeninformationen (TI) bezüglich des jeweils zugeordneten Objektes (0) gewonnen wird. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass die Farbe (F) und/oder die Art der Overlay-Struktur (20) für das jeweilige Objekt (0) abhängig von einem dem Objekt (0) zugeordneten Bewegungsindikator (B) ist, wobei der Bewegungsindikator (B) angibt, ob sich das Objekt (0) bewegen kann oder dauerhaft stationär ist, wobei der Bewegungsindikator (B) aus den ermittelten Tiefeninformationen (TI) bezüglich des jeweils zugeordneten Objektes (0) gewonnen wird. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass aus den Tiefeninformationen (TI) eine Objekt-Kontur (OC) und/oder eine Objekt-Form (OF) des jeweils zugeordneten Objektes (0) ermittelt wird und aus der Objekt-Kontur (OC) und/oder der Objekt-Form (OF) über einen Deep- Learning-Algorithmus (A2) durch Vergleich mit bekannten Objekt-Konturen (OC) und/oder Objekt-Formen (OF) ein Bewegungsindikator (B) für das betreffende Objekt (O) abgeleitet wird. Verfahren nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass in den Einzelbildern (EBk) abgebildete Objektpunkte (PPn) auf dem Objekt (O) zeitlich verfolgt werden, um den Bewegungsindikator (B) für das betreffende Objekt (O) abzuleiten. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die mindestens eine Overlay-Struktur (20) auf der Anzeigeeinrichtung (7) undurchsichtig oder zumindest teilweise durchsichtig angezeigt wird, so dass die mindestens eine Overlay-Struktur (20) das Rund- umsicht-Bild (RB) auf und/oder benachbart zu dem jeweils zugeordneten Objekt (O) vollständig oder zumindest teilweise abdeckt. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Anzeigeeinrichtung (7) Anzeigepixel (APm) aufweist, wobei Rundumsicht-Bildpunkte (RBPp) des Rundumsicht-Bildes (RB) auf den Anzeigepixeln (APm) der Anzeigeeinrichtung (7) angezeigt werden, wobei ein in dem Rundumsicht-Bild (RB) enthaltenes Objekt (O) auf Objektpixeln (OAPq) dargestellt wird, wobei die Objektpixel (AWPq) eine Untermenge der Anzeigepixel (APm) sind, wobei die dem jeweiligen Objekt (0) zugeordnete Overlay-Struktur (20) auf und/oder benachbart zu den jeweiligen Objektpixeln (OAPq) auf der Anzeigeeinrichtung (7) angezeigt wird. - 28 - Verfahren nach Anspruch 11 , dadurch gekennzeichnet, dass dem Rund- umsicht-Bild (RB) mit dem mindestens einen Objekt (0) auf der Anzeigeeinrichtung (7) ein Overlay-Bild (OB) mit mindestens einer Overlay-Struktur (20) derartig überlagert wird, dass die dem jeweiligen Objekt (O) zugeordnete Overlay-Struktur (20) auf und/oder benachbart zu den jeweiligen Objektpixeln (OAPq) auf der Anzeigeeinrichtung (7) angezeigt wird. Verfahren nach Anspruch 11 oder 12, dadurch gekennzeichnet, dass das Rundumsicht-Bild (RB) die mindestens eine Overlay-Struktur (20) beinhaltet, wobei das Rundumsicht-Bild (RB) dazu an und/oder benachbart zu den Rundumsicht-Bildpunkten (RBPp), auf denen ein Objekt (O) abgebildet ist, derartig angepasst wird, dass die dem jeweiligen Objekt (O) zugeordnete Overlay-Struktur (20) auf und/oder benachbart zu den jeweiligen Objektpixeln (OAPq) auf der Anzeigeeinrichtung (7) angezeigt wird. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die mindestens zwei Einzelbilder (EBk), aus denen durch Triangulation (T) die Tiefeninformationen (TI) ermittelt werden, von mindestens zwei unterschiedlichen Standpunkten (SP1 , SP2) aus von derselben Kamera (3) aufgenommen werden, wobei die Tiefeninformationen (TI) durch Triangulation (T) in Abhängigkeit einer Basislänge (L) zwischen den mindestens zwei Standpunkten (SP1 , SP2) ermittelt werden. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Umgebung (U) innerhalb eines Rundumsicht-Bereiches (4R) in dem Rundumsicht-Bild (RB) abgebildet wird, wobei der Rundumsicht-Bereich (4R) größer ist als die Sichtbereiche (4) der einzelnen Kameras (3), wobei ein Sichtwinkel (W) des Rundumsicht-Bereiches (4R) 360° beträgt, und wobei das Rundumsicht-Bild (RB) aus mindestens zwei in etwa zeitgleich aufgenommenen Einzelbildern (EBk) von unterschiedlichen Kameras (3) zusammengestellt ist. - 29 - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass auf der Anzeigeeinrichtung (7) als Overlay-Struktur (20) dem Fahrzeug (1 ) zugeordnete Isolinien (20d) dargestellt werden, wobei die Isolinien (20d) in festgelegten Iso-Abständen (AI) zu einer Fahrzeugaußenseite (1a) des eigenen Fahrzeuges (1 ) angezeigt werden. Verarbeitungseinheit (6) zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche. Fahrzeug (1 ) mit mindestens zwei Kameras (3), wobei jede Kamera (3) einen anderen Sichtbereich (4) aufweist, wobei sich Sichtbereiche (4) von benachbarten Kameras (3) zumindest bereichsweise überlappen, einer Anzeigeeinrichtung (7) sowie einer Verarbeitungseinheit (6) nach Anspruch 17, wobei die Anzeigeeinrichtung (7) ausgebildet ist, ein erstelltes Rund- umsicht-Bild (RB), enthaltend mindestens ein Objekt (O), und mindestens eine erzeugte Overlay-Struktur (20) derartig darzustellen, dass die mindestens eine Overlay-Struktur (20) auf und/oder benachbart zu dem jeweils zugeordneten Objekt (O) angezeigt wird. Fahrzeug (1 ) nach Anspruch 18, dadurch gekennzeichnet, dass jede einzelne Kamera (3) einen Sichtbereich (4) mit einem Sichtwinkel (W) von größer gleich 120°, insbesondere größer gleich 170°, aufweist. 2. The method according to claim 1, characterized in that on the display device (7) as an overlay structure (20) a bar (20a) and / or a polygon (20b) and / or text (20c) on and / or adjacent for the assigned object (O) is displayed. Method according to Claim 2, characterized in that the bar (20a) is displayed on and/or adjacent to an outer edge (MK) of the respectively assigned object (0) on the display device (7), the bar (20a) preferably being vertical lies to an object normal (NO) of the respectively associated object (O), the object normal (NO) being obtained from the depth information (TI). Method according to Claim 2 or 3, characterized in that a polygon (20b) is displayed on the display device (7) as an overlay structure (20) in such a way that the polygon (20b) at least partially, preferably completely covered. Method according to one of the preceding claims, characterized in that the at least one overlay structure (20) is displayed on the display device (7) in a predefined color (F) or in a color (F) which is determined by the determined depth information ( TI) is dependent on the respectively assigned object (O). The method according to claim 5, characterized in that the color (F) of the at least one overlay structure (20) depends on an object distance (OA) between the vehicle (1) and the respectively associated object (O), wherein the Object distance (OA) from the determined depth information (TI) with respect to the respectively associated object (0) is obtained. Method according to Claim 5 or 6, characterized in that the color (F) and/or the type of overlay structure (20) for the respective object (0) depends on a movement indicator (B) assigned to the object (0), the movement indicator (B) indicating whether the object (0) can move or is permanently stationary, the movement indicator (B) being obtained from the determined depth information (TI) with regard to the respectively assigned object (0). Method according to Claim 7, characterized in that an object contour (OC) and/or an object shape (OF) of the respectively assigned object (0) is determined from the depth information (TI) and from the object contour (OC) and/or the object shape (OF) via a deep learning algorithm (A2) by comparison with known object contours (OC) and/or object shapes (OF) a movement indicator (B) for the object in question (O ) is derived. Method according to Claim 7 or 8, characterized in that object points (PPn) on the object (O) depicted in the individual images (EBk) are tracked over time in order to derive the movement indicator (B) for the relevant object (O). Method according to one of the preceding claims, characterized in that the at least one overlay structure (20) on the display device (7) is displayed opaque or at least partially transparent, so that the at least one overlay structure (20) the all-round view Image (RB) on and/or adjacent to the respective associated object (O) completely or at least partially covers. Method according to one of the preceding claims, characterized in that the display device (7) has display pixels (APm), all-round view pixels (RBPp) of the all-round view image (RB) being displayed on the display pixels (APm) of the display device (7), wherein an object (O) contained in the all-round view image (RB) is displayed on object pixels (OAPq), the object pixels (AWPq) being a subset of the display pixels (APm), the overlay structure assigned to the respective object (0). (20) is displayed on and/or adjacent to the respective object pixels (OAPq) on the display device (7). - 28 - Method according to claim 11, characterized in that the all-round view image (RB) with the at least one object (0) on the display device (7) has an overlay image (OB) with at least one overlay structure (20 ) is superimposed in such a way that the overlay structure (20) assigned to the respective object (O) is displayed on and/or adjacent to the respective object pixels (OAPq) on the display device (7). Method according to Claim 11 or 12, characterized in that the all-round view image (RB) contains the at least one overlay structure (20), the all-round view image (RB) being at and/or adjacent to the all-round view pixels (RBPp ), on which an object (O) is depicted, is adjusted in such a way that the overlay structure (20) assigned to the respective object (O) is displayed on and/or adjacent to the respective object pixels (OAPq) on the display device (7). will. Method according to one of the preceding claims, characterized in that the at least two individual images (EBk), from which the depth information (TI) is determined by triangulation (T), from at least two different points of view (SP1, SP2) from the same camera (3 ) are recorded, the depth information (TI) being determined by triangulation (T) as a function of a base length (L) between the at least two positions (SP1, SP2). Method according to one of the preceding claims, characterized in that the surroundings (U) are mapped within an all-round vision area (4R) in the all-round vision image (RB), the all-round vision region (4R) being larger than the vision regions (4 ) of the individual cameras (3), with a viewing angle (W) of the all-round view area (4R) being 360°, and with the all-round view image (RB) consisting of at least two individual images (EBk) recorded at approximately the same time by different cameras (3 ) is compiled. - 29 - Method according to one of the preceding claims, characterized in that isolines (20d) assigned to the vehicle (1) are displayed on the display device (7) as an overlay structure (20), the isolines (20d) being in defined iso Distances (AI) to a vehicle outside (1a) of your own vehicle (1) are displayed. Processing unit (6) for carrying out a method according to one of the preceding claims. Vehicle (1) with at least two cameras (3), each camera (3) having a different field of view (4), with fields of view (4) from adjacent cameras (3) overlapping at least in certain areas, a display device (7) and a processing unit (6) according to claim 17, wherein the display device (7) is designed to display a created all-round view image (RB) containing at least one object (O) and at least one generated overlay structure (20) in such a way that the at least one overlay structure (20) is displayed on and/or adjacent to the respectively associated object (O). Vehicle (1) according to Claim 18, characterized in that each individual camera (3) has a field of vision (4) with a viewing angle (W) of greater than or equal to 120°, in particular greater than or equal to 170°.
EP21769721.8A 2020-09-02 2021-08-31 Method for displaying the surroundings of a vehicle on a display device, processing unit, and vehicle Pending EP4208372A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020122908.9A DE102020122908A1 (en) 2020-09-02 2020-09-02 Method for displaying surroundings of a vehicle on a display device, processing unit and vehicle
PCT/EP2021/073924 WO2022049040A1 (en) 2020-09-02 2021-08-31 Method for displaying the surroundings of a vehicle on a display device, processing unit, and vehicle

Publications (1)

Publication Number Publication Date
EP4208372A1 true EP4208372A1 (en) 2023-07-12

Family

ID=77739074

Family Applications (1)

Application Number Title Priority Date Filing Date
EP21769721.8A Pending EP4208372A1 (en) 2020-09-02 2021-08-31 Method for displaying the surroundings of a vehicle on a display device, processing unit, and vehicle

Country Status (5)

Country Link
US (1) US20230226977A1 (en)
EP (1) EP4208372A1 (en)
CN (1) CN115968485A (en)
DE (1) DE102020122908A1 (en)
WO (1) WO2022049040A1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10035223A1 (en) 2000-07-20 2002-01-31 Daimler Chrysler Ag Device and method for monitoring the surroundings of an object
US20150286878A1 (en) 2014-04-08 2015-10-08 Bendix Commercial Vehicle Systems Llc Generating an Image of the Surroundings of an Articulated Vehicle
DE102017108254B4 (en) 2016-04-19 2019-10-02 GM Global Technology Operations LLC All-round camera system for object recognition and tracking and method for equipping a vehicle with a panoramic camera system
EP3293700B1 (en) 2016-09-09 2019-11-13 Panasonic Automotive & Industrial Systems Europe GmbH 3d reconstruction for vehicle
DE102016223388A1 (en) * 2016-11-25 2018-05-30 Conti Temic Microelectronic Gmbh IMAGE PROCESSING SYSTEM AND IMAGE PROCESSING METHOD
DE102018100909A1 (en) 2018-01-17 2019-07-18 Connaught Electronics Ltd. Method of reconstructing images of a scene taken by a multifocal camera system

Also Published As

Publication number Publication date
WO2022049040A1 (en) 2022-03-10
CN115968485A (en) 2023-04-14
DE102020122908A1 (en) 2022-03-03
US20230226977A1 (en) 2023-07-20

Similar Documents

Publication Publication Date Title
DE102006003538B3 (en) Image acquisitions merging method for bird`s eye perspective, involves selecting image sections such that shadowing effects produced by moved objects are projected during transition in overall image from image section to other section
DE102014107158B4 (en) Improved top-down imaging in a front curb visualization system
DE102014107156B4 (en) System and method for providing improved perspective imaging in a front curb visualization system
DE102014107155B4 (en) Improved front curb visualization system
DE102013209415B4 (en) Dynamic clue overlay with image cropping
EP1875442B1 (en) Method for graphically representing the surroundings of a motor vehicle
EP2805183B1 (en) Method and device for visualizing the surroundings of a vehicle
WO2016162245A1 (en) Method for displaying an area surrounding a vehicle
DE112016001150T5 (en) ESTIMATION OF EXTRINSIC CAMERA PARAMETERS ON THE BASIS OF IMAGES
WO2014094941A1 (en) Motor vehicle having a camera monitoring system
WO2013087362A1 (en) Method for improving the object detection in multicamera systems
DE102018108751B4 (en) Method, system and device for obtaining 3D information from objects
DE102018100909A1 (en) Method of reconstructing images of a scene taken by a multifocal camera system
DE102010051204A1 (en) Method for displaying obstacle for vehicle, involves detecting area surrounding vehicle with camera system, and detecting obstacles with sensor element independent of camera system
DE102013220477A1 (en) Method for correcting a pictorial representation of a vehicle environment
DE102019105630B4 (en) Display control device, vehicle surroundings display system and computer program
WO2017198429A1 (en) Ascertainment of vehicle environment data
DE102006037600B4 (en) Method for the resolution-dependent representation of the environment of a motor vehicle
DE102020127278A1 (en) Around-View Synthesis System and Process
EP3292535B1 (en) Method for producing an overall image of a vehicle environment of a vehicle and corresponding device
DE102016208370A1 (en) Method for determining data representing an environment below a vehicle
WO2022049040A1 (en) Method for displaying the surroundings of a vehicle on a display device, processing unit, and vehicle
DE112018005744T5 (en) OPERATOR ASSISTANCE VIEWING SYSTEM
DE102020107949A1 (en) Field of view assist image generation apparatus and image conversion method
WO2024132701A1 (en) Method for displaying an extended view of surroundings of a vehicle, computer program, computing device and vehicle

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20230403

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)