EP4222705A1 - Method for capturing three-dimensional images with the aid of a stereo camera having two cameras, method for producing a redundant image of a measurement object, and device for carrying out the methods - Google Patents

Method for capturing three-dimensional images with the aid of a stereo camera having two cameras, method for producing a redundant image of a measurement object, and device for carrying out the methods

Info

Publication number
EP4222705A1
EP4222705A1 EP21785832.3A EP21785832A EP4222705A1 EP 4222705 A1 EP4222705 A1 EP 4222705A1 EP 21785832 A EP21785832 A EP 21785832A EP 4222705 A1 EP4222705 A1 EP 4222705A1
Authority
EP
European Patent Office
Prior art keywords
cameras
camera
scenery
calibration
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP21785832.3A
Other languages
German (de)
French (fr)
Inventor
Jens Schick
Michael Scharrer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tripleye GmbH
Original Assignee
Tripleye GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tripleye GmbH filed Critical Tripleye GmbH
Publication of EP4222705A1 publication Critical patent/EP4222705A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • the invention relates to a method for spatial image acquisition using a stereo camera having two cameras. Furthermore, the invention relates to a method for generating a redundant image of a measurement object and a device for carrying out this method.
  • An object detection device is known from WO 2013/020872 A1 and the references given there.
  • this object is achieved by a method having the features specified in claim 1 .
  • Positional deviations between signatures of scenery objects which result due to positional or positional deviations of the cameras, can be precisely recognized and compensated for with this method.
  • Scenery objects can be comparatively small objects whose images are, for example, only individual pixels or less than ten pixels of the respective camera.
  • the scenery objects can also be larger and encompass entire image areas.
  • Examples of such larger scenery objects are individual vehicle components or vehicle sections or the entire vehicle in the example of vehicle image acquisition.
  • Examples of characteristic positional deviations that are determined in the image acquisition method are a deviation or a distance of an imaging position of the imaging of scenery objects from an epipolar line of the respective camera.
  • a positional deviation of the respective imaging position of a scenery object along the epipolar line can also be considered in the determination method. These positional deviations are also referred to below as vertical disparity and horizontal disparity.
  • positional deviation tolerance value When filtering the positional deviations, it can simply be checked whether the positional deviations are smaller than a specified positional deviation tolerance value.
  • the specification of the position deviation tolerance value is fluid and can take place until the number of selected signature pairs is less than the specified limit value.
  • Each of the cameras can in turn be constructed as a system of several cameras assigned to one another.
  • One of these associated cameras can be a fisheye camera.
  • the focal length of such a fisheye camera can be less than 20 mm.
  • Another of these associated cameras may be a telephoto camera with a telephoto lens with a focal length of at least 80mm.
  • the respective vertical disparity for all signature pairs can be summed up squared and state variables of the stereo camera can be varied until this squared sum is minimized.
  • a positional deviation tolerance value in the form of a specification of a squared sum of the vertical disparity or also a standard deviation of the vertical disparity can be used as a termination criterion for reducing the number of selected signature pairs to less than a specified limit value.
  • relative movements between the cameras can be taken into account in the image acquisition method.
  • One about determining the characteristic positional deviations associated signature pairs occurring relative position estimation of the cameras to each other can be done asynchronously to the triangulation calculation.
  • a position correction of a relative position of the cameras to one another can also be carried out immediately before each triangulation calculation.
  • reliable stereo measurements can be carried out even when using image acquisition devices in which the position of the cameras relative to one another is constantly changing.
  • Such a position correction based in particular on an estimation of the relative position of the camera can be carried out using data from inertial measuring units to which the cameras are permanently connected. In particular, the use of camera measuring devices with a very large distance between the cameras (long baseline stereoscopy) is possible.
  • an optical distance measurement is carried out by measuring angles within triangles defined within the framework of the method. These can each be formed by one of the two cameras and two pixels or by the two cameras and one pixel.
  • those signature pairs can be selected which have a higher probability of belonging to the same scenery object of the three-dimensional scenery.
  • the filtering of the positional deviations for the selection of assigned signature pairs can be done according to claim 2 with a filter algorithm.
  • a measure of the respective positional deviation that can be used for filtering is, for example, the horizontal disparity and/or the vertical disparity.
  • the angle correction values are angles that are characteristic of the relative positional relationship of the cameras to one another, for example a tilting of a baseline plane, a baseline tilting, a relative tilting of the camera image recording directions or a tilting of camera coordinate axes to one another.
  • the determination method according to claim 6 leads to particularly precise 3D data values.
  • the method according to claim 7 allows the inclusion of instantaneous changes in the position of the cameras relative to one another, for example due to vibrations.
  • This data collection then takes place in real time.
  • a time constant of this data acquisition can be less than 500 ms and in particular can be less than 100 ms.
  • the data recorded by the inertial measuring units can provide raw information for a necessary correction of the relative position of the cameras to one another, which is then optimized by the image recording.
  • a corresponding position change detection can also be used to calibrate the positions of the cameras relative to one another. This can be done in particular before carrying out the respective triangulation step when carrying out the image acquisition method.
  • a further object of the invention is to improve the data acquisition security when imaging a measurement object.
  • this object is achieved by a method having the features specified in claim 8 .
  • the various cameras that are provided, for example, in a camera system to enable the autonomous method, with one another for redundant imaging of a measurement object.
  • the cameras are linked accordingly so that the recording results of a pair of cameras can be compared and checked using a third camera.
  • detection errors can be detected and genuine redundancy can even be generated by comparing three independent detection results with one another, with the detection data being qualified as correct if at least two of the three detection results match one another.
  • the measurement object can be arbitrary, as long as the measurement object has textures or structures and contains depth information about them.
  • the advantages of a device according to claims 9 and 10 correspond to those which have already been explained above in connection with the methods.
  • the device can have at least one camera permanently connected to an inertial measuring unit.
  • the three cameras can be arranged in the form of a triangle, in particular in the form of an isosceles triangle.
  • An arrangement according to claim 11 with six cameras leads to an even better imaging redundancy.
  • the six cameras can be arranged in the form of a hexagon, in particular in the form of a regular hexagon.
  • the cameras can be arranged in the camera arrangement level.
  • an additional remote camera enables a security comparison of the results of the image acquisition by the three cameras arranged adjacent to one another.
  • the three cameras arranged adjacent to one another can be arranged in the camera arrangement plane.
  • a distance factor to characterize the distance of the remote camera compared to the distances of the adjacent cameras can be greater than 2, can be greater than 3, can be greater than 4, can be greater than 5 and can also be 10, for example.
  • This distance factor can be selected so that the adjacent cameras cover a close-up area up to a close-up range limit, and adding the remotely arranged camera from this close-up range limit then covers a far range of the field of view of the cameras.
  • An arrangement according to claim 13 simplifies the comparison of the triangulation measurements.
  • the connection of at least one of the cameras to an inertial measuring unit also enables an acceleration measurement of the respective camera and a corresponding evaluation of recorded acceleration values.
  • FIG. 1 shows a top view of a device for calibrating a spatial position of a center of an entrance pupil of a camera, with an additional calibration surface being shown both in a neutral position outside a camera field of view and in an operating position in the camera field of view;
  • FIG. 2 shows a view from direction II in FIG. 1 with additional calibration surfaces in the neutral position
  • FIG. 3 shows a schematic representation to clarify positional relationships between components of the calibration device
  • FIG. 4 shows a further detailed view of a movable reference camera of the calibration device including a camera displacement drive for moving the movable reference camera in several translational/rotational degrees of freedom;
  • FIG. 5 shows schematically different alignments of the movable reference camera, namely a total of eight alignment variants
  • 6 shows a calibration panel with a calibration surface, having calibration structures that can be used as the main calibration surface and/or as an additional calibration surface in the calibration device; 7 shows an arrangement of a system for determining relative positions of centers of entrance pupils of at least two cameras, which are mounted on a common support frame, in a view from above;
  • FIG. 8 shows a schematic of two cameras of a stereo camera for three-dimensional image acquisition, with coordinates and position parameters for determining angle correction values of the cameras relative to one another being illustrated;
  • FIG. 9 again schematically shows the two cameras of the stereo camera according to FIG. 8 when capturing scenery objects of a three-dimensional scenery, with positional deviation parameters of characteristic signatures of the images captured by the cameras being highlighted;
  • FIGS. 8 and 9 shows a block diagram to clarify a method for spatial image acquisition using the stereo camera according to FIGS. 8 and 9;
  • 11 shows a device for carrying out a method for generating a redundant image of a measurement object using, for example, two groups of three cameras each assigned to common signal processing;
  • FIG. 12 shows two cameras of a stereo camera for three-dimensional image acquisition in a representation similar to FIG.
  • a calibration device 1 is used to calibrate a spatial position of a center of an entrance pupil of a camera 2 to be calibrated.
  • the camera 2 to be calibrated is arranged within a cuboid assembly volume 3, which is highlighted in FIGS. 1 and 2 by dashed lines.
  • the camera 2 to be calibrated is fixedly mounted within the mounting volume 3 when the calibration method is carried out.
  • a holder 4, which is only indicated in FIG. 1, is used for this purpose.
  • the camera 2 to be calibrated is held with the holder 4 in such a way that it captures a predefined calibration field of view 5, the boundaries of which are shown in dashed lines in the side view of the device 1 according to FIG.
  • the camera 2 to be calibrated can be, for example, a camera for a vehicle that is to be used to provide an “autonomous driving” function.
  • FIGS. 1 to 3 To simplify the description of positional relationships, in particular between cameras of the device 1 and in relation to the field of view 5, an xyz coordinate system is drawn in in each of FIGS. 1 to 3, unless otherwise stated.
  • the x-axis runs perpendicular to the plane of the drawing and into it.
  • the y-axis runs upwards in FIG.
  • the z-axis runs to the right in FIG.
  • the x-axis runs to the right, the y-axis runs upwards and the z-axis runs perpendicular to the plane of the drawing and out of it.
  • An entire field of view of the calibration field of view 5 can, for example, cover a detection angle of 100° in the xz plane. Other detection angles between, for example, 10° and 180° are also possible. In principle, it is also possible to calibrate cameras with a detection angle that is greater than 180°.
  • the holder 4 is fixed to a support frame 6 of the calibration device 1 .
  • the calibration device 1 has at least two and in the embodiment shown a total of four stationary reference cameras 7, 8, 9 and 10 (cf. FIG. 3), of which only two stationary reference cameras, namely the reference cameras 7 and 8, are visible in FIG .
  • the stationary reference cameras 7 to 10 are also mounted on the support frame 6 .
  • the stationary reference cameras 7 to 10 are used to record the calibration field of view 5 from different directions.
  • FIG. 3 shows exemplary dimension parameters that play a role in the calibration device 1.
  • a y-distance between the stationary reference cameras 7 and 8 on the one hand and 9 and 10 on the other is denoted by dyh in FIG.
  • a y-coordinate of the stationary reference cameras 7 and 10 on the one hand and 8 and 9 on the other hand is the same in each case.
  • the calibration device 1 also has at least one stationary main calibration surface, in the exemplary embodiment shown three main calibration surfaces 15, 16 and 17, which are specified by corresponding calibration panels.
  • the main calibration surface 15 extends parallel to the xy plane and at a z coordinate which is greater than z c .
  • the two further lateral main calibration surfaces 16, 17 extend parallel to the yz plane on both sides of the arrangement of the four stationary reference cameras 7 to 10.
  • the main calibration surfaces 15 to 17 are also stationary mounted on the support frame 6.
  • the main calibration surfaces have stationary main calibration structures, examples of which are shown in FIG. In any case, some of these calibration structures are arranged in the calibration field of view 5 .
  • the main calibration structures can have a regular pattern, for example arranged in the form of a grid. Corresponding grid points, which are part of the calibration structures, are shown at 18 in FIG.
  • the calibration structures can have colored pattern elements, as illustrated at 19 in FIG.
  • the calibration structures can have different sizes. In comparison to the raster points 18, pattern elements that are enlarged as the main calibration structures are emphasized at 20 in FIG.
  • the main calibration structures can have encoded pattern elements, for example QR codes 21 (cf. FIG. 6).
  • FIG. 3 shows an example of a tilted arrangement of a main calibration surface 15′, which is at an angle to the xy plane, for example.
  • FIG. 3 shows an external coordinate system XYZ, for example of a production hall in which the calibration device 1 is accommodated.
  • the xyz coordinate system of the calibration device 1 on the one hand and the XYZ coordinate system of the production hall can be tilted relative to one another, as illustrated in FIG. 3 by a tilt angle rot z .
  • the main calibration structures 15 to 17, 15' are therefore in a main calibration structure main plane (xy plane in the arrangement according to FIGS. 1 and 2) and additionally in a main calibration structure angle plane (yz plane in the arrangement according to FIGS. 1 and 2), the main calibration structure main plane xy being arranged at an angle greater than 5°, namely at an angle of 90°, to the main calibration structure angular plane yz.
  • this angle to the main calibration structure angle plane yz can be greater than 10°, can be greater than 20°, can be greater than 30°, can be greater than 45° and can also be greater than 60°. Small angles, for example in the range between 1° and 10°, can be used to approximate a curved calibration structure surface with the main calibration structures.
  • more than two main calibration structure surfaces 15 to 17, 15' can be arranged in different main calibration structure planes.
  • a position of the respective main calibration surface, for example the main calibration surface 15' in comparison to the xyz coordinate system can be defined via a position of a center of the main calibration surface and two tilt angles of the main calibration surface 15' to the xyz coordinates.
  • a further parameter with which the respective main calibration surface 15 to 17 or 15' is characterized is a grid spacing grid of the grid points 18 of the calibration structure, which is illustrated in FIG.
  • the two grid values that are given horizontally and vertically for the main calibration surface 15' in FIG. 6 do not necessarily have to be equal to one another, but they must be firmly specified and known.
  • the positions of the colored pattern elements 19, the enlarged pattern elements 20 and/or the coded pattern elements 21 within the grid of the grid points 18 are also fixed in each case for the main calibration area 15 to 17, 15'. These positional relationships of the various pattern elements 18 to 21 to one another serve to identify the respective main calibration surface, to determine the absolute position of the respective main calibration surface im Space.
  • the enlarged pattern elements 20 can be used to support the respective position determination. Different sizes of the pattern elements 18 to 20 and also the encoded pattern elements 21 enable a calibration measurement in the near and far range as well as a measurement in which the main calibration surfaces 15 to 17, 15' are tilted sharply to the xy plane.
  • the calibration device 1 has at least one and, in the embodiment shown, three additional calibration surfaces 22, 23 and 24 with additional calibration structures 25.
  • the additional calibration surfaces 22 to 24 are realized by shell-shaped calibration panels.
  • the additional calibration structures 25 are arranged on the respective additional calibration area 22 to 24 in the form of a 3 ⁇ 3 grid.
  • the additional calibration structures 25 can in turn each have pattern elements in the manner of the pattern elements 18 to 21 which were explained above in connection with the main calibration areas.
  • the additional calibration surfaces 22 to 24 are mounted together on a movable holding arm 26 .
  • the latter can be pivoted about a pivot axis 28, which runs parallel to the x-direction, via a geared motor 27, ie a calibration surface displacement drive.
  • the additional calibration structures 22 to 24 can be displaced between a neutral position and an operating position via the geared motor 27 .
  • the neutral position of the additional calibration structures 22 to 24 is shown in solid lines in FIGS. 1 and 2, in which these are arranged outside of the calibration field of view 5.
  • An operating position of the holding arm 26 and the additional calibration surfaces 22 to 24 which is swiveled up compared to the neutral position is shown in dashed lines in FIG.
  • the additional calibration surfaces 22 to 24 are arranged in the calibration field of view 5 in the operating position.
  • a central additional calibration structure 25z (cf. also FIG. 3), for example, as shown in FIGS. 1 and 2, lies parallel to the xy plane.
  • the 3 ⁇ 3 grid arrangement of the additional calibration structures 25 is then present in three rows 251, 252 and 25s running along the x-direction and in three columns running parallel to the y-direction.
  • Each adjacent row and each adjacent column of the additional calibration structures 25 are tilted to one another by a tilt angle ⁇ , which can be in the range between 5° and 45°, for example in the range of 30°.
  • this tilting by the tilting angle a is two on top of one another vertical axes. This then results in the shell-shaped basic structure of the respective additional calibration surface 22 to 24.
  • the additional calibration structures 25 are present in a 3D arrangement that deviates from a flat surface.
  • the calibration device 1 also includes an evaluation unit 29 for processing camera data recorded by the camera 2 to be calibrated and the stationary reference cameras 7 to 10 as well as status parameters of the device, i.e. in particular the position of the additional calibration surfaces 22 to 24 and the main calibration surfaces 15 to 17 and of positions and line-of-sight courses of the reference cameras 7 to 10.
  • the evaluation unit 29 can have a memory for image data.
  • the calibration device 1 also includes a movable reference camera 30 which is also used to record the calibration field of view 5 .
  • FIG. 3 illustrates degrees of freedom of movement of the movable reference camera 30, namely two degrees of freedom for tilting and one degree of freedom for translation.
  • Figure 4 shows details of the movable reference camera 30. This can be moved via a camera displacement drive 31 between a first field of view recording position and at least one other field of view recording position, which extends from the first field of view recording position in an image recording direction (cf. the recording direction 32 in Figure 1) differs.
  • the camera displacement drive 31 includes a first pan motor 33, a second pan motor 34 and a linear displacement motor 35.
  • the camera head 36 can be pivoted about an axis parallel to the x-axis via the first pivoting motor 33 .
  • the first swing motor 33 is mounted on a swing member of the second swing motor 34 via another support plate 38 . Pivoting of the camera head 36 about a pivoting axis parallel to the y-axis is possible via the second pivoting motor 34 .
  • the second swivel motor 34 is mounted on a linear displacement unit 40 of the linear displacement motor 35 via a bracket 39 . A linear displacement of the camera head 36 parallel to the x-axis is possible via the linear displacement motor 35 .
  • the camera displacement drive 31 and also the camera head 36 of the reference camera 30 are in signal communication with the evaluation unit 29 .
  • the position of the camera head 36 is transmitted exactly to the evaluation unit 29 as a function of the position of the motors 33 to 35 and also as a function of the installation situation of the camera head 36 with respect to the first swivel motor 33 .
  • the angular position of the camera head 36 that can be predetermined via the first swivel motor 33 is also referred to as the pitch angle.
  • a pitch angle can also be changed via a joint connection of the camera head 36 via a joint axis parallel to the x-axis and a linear drive that can be displaced in the y-direction and has two stops for specifying two different pitch angles, which is connected to the camera head 36.
  • the angular position of the camera head 36 that can be predetermined via the second swivel motor 34 is also referred to as the yaw angle.
  • FIG. 5 illustrates, by way of example, eight variants of positioning of the camera head 36 of the movable reference camera 30 using the three degrees of freedom of movement, which are illustrated in FIG.
  • the image recording direction 32 is shown in broken lines as a function of the respectively set pitch angle ax and yaw angle ay.
  • the camera head In the upper line of FIG. 5, the camera head is at a small x-coordinate x m in .
  • the camera head 36 In the bottom line of FIG. 5, the camera head 36 is located at an x coordinate x max that is larger than this.
  • the eight imaging directions according to FIG. 5 represent different parameter triples (position x; ax; ay) each with two discrete values for each of these three parameters.
  • the movable reference camera 30 can also be dispensed with.
  • the calibration device 1 is used as follows to calibrate a spatial position of a center of an entrance pupil of the camera 2 to be calibrated: First, the camera 2 to be calibrated is held in the mount 4 .
  • the stationary main calibration surfaces 15 to 17 and 15' are then recorded with the camera 2 to be calibrated and the reference cameras 7 to 10 and 30, with the additional calibration surfaces 22 to 24 being in the neutral position.
  • the additional calibration surfaces 22 to 24 are then shifted between the neutral position and the operating position with the calibration surface displacement drive 27 .
  • the additional calibration surfaces 22 to 24 are then recorded with the camera 2 to be calibrated and with the reference cameras 7 to 10 and 30, with the additional calibration structures 25 being in the operating position.
  • the recorded image data of the camera 2 to be calibrated and of the reference cameras 7 to 10 and 30 are then evaluated with the evaluation unit 29 . This evaluation is carried out via a vector analysis of the recorded image data, taking into account the positions of the recorded calibration structures 18 to 21 and 25.
  • the main calibration surfaces 15 to 17, 15' on the one hand and the additional calibration surfaces 22 to 24 on the other hand can be captured with the movable camera 30 in the first field of view recording position and, after moving the movable reference camera 30 with the camera displacement drive 31, in the at least one further field of view recording position, the image data of the movable reference camera 30 in the at least two field of view recording positions also being taken into account when evaluating the recorded image data .
  • a detection order of the calibration areas 15 to 17 and 22 to 24 can be as follows: First, the main calibration areas 15 to 17 are recorded with the movable camera 30 in the first field of view recording position. Then the additional calibration surfaces 22 to 24 are shifted into the operating position and again recorded with the movable reference camera 30 in the first field of view recording position. The movable reference camera 30 is then shifted to the further field of view recording position, with the additional calibration surfaces 22 to 24 remaining in the operating position. The additional calibration surfaces 22 to 24 with the movable reference camera 30 in the further field of view recording position. The additional calibration surfaces 22 to 24 are then shifted to the neutral position and the main calibration surfaces 15 to 17 are further recorded with the movable reference camera in the further field of view recording position.
  • the main calibration surfaces 15 to 17 can also be recorded with the stationary reference cameras 7 to 10 and, insofar as the additional calibration surfaces 22 to 24 are in of the operating position, a detection of these additional calibration surfaces 22 to 24 with the stationary reference cameras 7 to 10.
  • a system 41 for determining relative positions of centers of entrance pupils of at least two cameras 42, 43, 44 to one another, which are mounted on a common support frame 45, is described below with reference to FIG.
  • the cameras 42 to 44 can be calibrated in advance with the help of the calibration device 1 with regard to the position of their respective entrance pupil center.
  • a nominal position of the cameras 42 to 44 relative to the support frame 45 that is to say a target installation position, is known when this relative position determination is carried out using the system 41.
  • the cameras 42 to 44 can be, for example, cameras on a vehicle that are to be used to provide an “autonomous driving” function.
  • the system 41 has several calibration structure support components 46, 47, 48 and 49.
  • the calibration structure support component 46 is a master component for specifying a master coordinate system xyz.
  • the x-axis of this master coordinate system runs to the right in FIG. 7, the y-axis runs upwards and the z-axis runs out of the plane of the drawing perpendicularly.
  • the calibration structure support components 46 to 49 are arranged around the support frame 45 in an operating position of the system 41 such that each of the cameras 42 to 44 captures at least calibration structures of two of the calibration structure support components 46 to 49 .
  • Such an arrangement is not mandatory, it is therefore possible for at least one of the cameras 42 to 44 to record calibration structures of just exactly one of the calibration structure carrier components 46 to 49 .
  • the arrangement of the calibration structure carrier components 46 to 49 is also such that at least one of the calibration structures on exactly one of the calibration structure carrier components 46 to 49 is recorded by two of the cameras 42 to 44 .
  • the support frame 45 can, if necessary, be displaced relative to the calibration structure support components 46 to 49, which do not change their respective positions.
  • Figure 7 illustrates a position example of the support frame 45 with the actual positions of the cameras 42, 43, 44 on the support frame (not shown again) such that a field of view 50 of the camera 42 captures the calibration structures of the calibration structure support components 46 and 47, while the camera 43 with its field of view 51 captures the calibration structures of the calibration structure carrier components 47 and 48 and while the further camera 44 captures the calibration structures of the calibration structure carrier components 48 and 49 with its field of view 52 .
  • a position of the calibration structure carrier components 46 to 49 relative to one another does not have to be strictly defined in advance, but must not change using the system 41 during the position determination method.
  • System 41 also includes an evaluation unit 53 for processing recorded camera data from cameras 42 to 44 and, if applicable, status parameters during position determination, i.e. in particular an identification of the respective support frame 45.
  • system 41 is used as follows:
  • the cameras 42 to 44 are mounted on the common support frame 45 .
  • the calibration structure carrier components 46 to 49 are arranged around the support frame 45 as a group of calibration structure support components. This can also be done in such a way that the group of calibration structure support components 46 to 49 is laid out in a preparatory step and the support frame is then positioned relative to this group.
  • the xyz coordinate system is defined via the alignment of the master component 46 .
  • the other calibration structure support components 47 to 49 do not have to be aligned with this xyz coordinate system.
  • the calibration structure support components 46 to 49 in the field of view of the cameras 42 to 44 are now detected in a predetermined relative position of the support frame 45 to the group of calibration structure support components 46 to 49, for example in the actual position of the cameras 42 to 44 according to Figure 7
  • the image data recorded by the cameras 42 to 44 are then evaluated with the evaluation unit 53 so that the exact positions of the centers of the entrance pupils and also the image recording directions of the cameras 42 to 44 in the coordinate system of the master component 46 are determined.
  • These actual positions are then converted into coordinates of the support frame 45 and compared with the nominal target positions. This can be done as part of a best-fit procedure.
  • the support frame can also be shifted between different camera detection positions in such a way that at least one of the cameras whose relative position is to be determined detects a calibration structure support component that was not previously detected by this camera.
  • This step of detecting and moving the support frame can be repeated until the condition is met for all cameras whose relative positions to one another are to be determined, that each of the cameras detects at least calibration structures of two of the calibration structure support components, with at least one of the Calibration structures is captured by two of the cameras.
  • a method for spatial image acquisition using a stereo camera 55a having two cameras 54, 55 is described below with reference to FIGS.
  • These cameras 54 to 55 can have been calibrated in a preparatory step with the aid of the calibration device 1 and also measured with the aid of the system 41 with regard to their relative position.
  • the cameras 54, 55 are in turn mounted on a support frame.
  • the camera 54 shown on the left in FIG. 8 is used as the master camera to define a master coordinate system xm, ym and zm, where zm is the image recording direction of the master camera 54.
  • the second camera 55 shown on the right in FIG then the slave camera.
  • the master camera 54 is permanently connected to an inertial master measurement unit 56 (IMU), which can be embodied as a yaw rate sensor, in particular in the form of a micro-electro-mechanical system (MEMS).
  • IMU inertial master measurement unit
  • the master measurement unit 56 measures angle changes in a pitch angle daxm, a yaw angle day m and a roll angle daz m of the master camera 54 and thus allows position changes in the master coordinate system xm, ym, zm to be monitored in real time.
  • a time constant of this real-time attitude change detection can be better than 500 ms, can be better than 200 ms and can also be better than 100 ms.
  • the slave camera 55 is also permanently connected to an associated inertial slave measuring unit 57, via which angle changes in a pitch angle dax s , a yaw angle day s and a roll angle daz s of the slave camera 55 can be recorded in real time, so that relative changes in the Slave coordinate system xs, ys, zs to the master coordinate system xm, ym, zm can in turn be detected in real time. Movements of the cameras 54, 55 of the stereo camera 55a relative to one another can be recorded in real time via the measuring units 56, 57 and included in the three-dimensional image recording method. The measuring units 56, 57 can be used to predict a change in the position of the cameras 54, 55 relative to one another.
  • Image processing that takes place as part of the spatial image acquisition can then improve this relative position prediction. Even if, for example, due to a movement of a supporting frame on which the stereo camera 54a is accommodated, the cameras 54, 55 move continuously towards one another on an uneven surface, a stable result of the three-dimensional image acquisition still results.
  • a connecting line between the centers of the entrance pupils of the cameras 54, 55 is denoted by 58 in FIG. 8 and represents the baseline of the stereo camera 55a.
  • angles which are relevant for the positional relationship of the slave camera 55 to the master camera 54, are recorded in the method for spatial image acquisition: the angle by s , ie a tilting of a plane that is perpendicular to the xmzm plane and through which the baseline 58 runs, to the xmym plane about the tilting axis ym; bz s : a tilting of the baseline 58 corresponding to the tilting by s with respect to the xmzm plane about a tilting axis parallel to the slave coordinate axis zs; ax s : a tilting of the slave coordinate axis zs, ie the image recording direction of the slave camera 55, to the xmzm plane about the slave coordinate axis xs; ay s : a tilting of the slave coordinate axis xs relative to the master plane xmym about the slave coordinate axis ys, corresponding to the tilting ax s ,
  • an image of a three-dimensional scenery with scenery objects 59, 60, 61 (cf. FIG. 9) is captured simultaneously with the two cameras 54, 55 of the stereo camera.
  • This image capture of the images 62, 63 takes place simultaneously for both cameras 54, 55 in a capture step 64 (cf. FIG. 10).
  • the image acquisition can be integrated over several acquisition cycles of the inertial measuring unit 56, 57, in particular over a period that corresponds to several time constants of the real-time position change measurement acquisitions.
  • the respective image 62, 63 of the cameras 54 and 55 is shown schematically in FIG.
  • the image of the scenery object 59 is shown in the image 62 of the master camera 54 at 59M, the image of the scenery object 60 at 60M.
  • the imaging of the scenery object 59 is shown in the image 63 of the slave camera 55 at 59s.
  • the depiction of the scenery object 61 is shown in the image 63 of the slave camera 55 at öls.
  • the images 59M, 60M of the master camera 54 are also found in the image 63 of the slave camera 55 at the corresponding x, y coordinates of the image frame.
  • a y-deviation of the imaging positions 59M, 59S is referred to as the disparity perpendicular to the epipolar line of the respective camera or as the vertical disparity VD.
  • an x-deviation of the imaging positions 59M, 59S of the scenery object 59 is referred to as disparity along the epipolar line or as horizontal disparity HD.
  • disparity along the epipolar line or as horizontal disparity HD.
  • projection center an x-deviation of the imaging positions 59M, 59S of the scenery object 59.
  • the two images 60M, 61S show the same signature in images 62, 63, i.e. they are shown with the same image pattern in images 62, 63, but actually come from the two scenery objects 60 and 61, which are different within the spatial scenery.
  • the characteristic signatures of the scenery objects 59 to 61 in the images are now determined separately for each of the two cameras 54, 55 in a determination step 65 (cf. FIG. 10).
  • the signatures determined in step 65 are combined in a signature list and in an association step 66 the signatures of the captured images 62, 63 determined in step 65 are associated in pairs. Identical signatures are therefore associated with one another with regard to the captured scenery objects.
  • the result of the assignment step 66 can be a very large number of assigned signatures, for example several tens of thousands of assigned signatures and correspondingly several tens of thousands of characteristic position deviations that have been determined.
  • characteristic positional deviations of the associated signature pairs from one another are now determined, ie for example the vertical and horizontal disparities VD, HD.
  • the respectively ascertained vertical disparity VD is summed up squarely for all associated signature pairs.
  • VD the respectively ascertained vertical disparity
  • a subsequent filtering step 68 the determined positional deviations are then filtered for the selection of associated signature pairs that have a higher probability of belonging to the same scenery object 59 to 61, using a filter algorithm.
  • the simplest variant of such a filter algorithm is a selection by comparison with a specified tolerance value, with only those signature pairs passing through the filter for which the square sum is smaller than the specified tolerance value.
  • This default tolerance value can, for example, be increased until, as a result of the filtering, the number of selected signature pairs is less than a default limit value.
  • the respective positional deviation VD, HD itself can be used to select associated signature pairs. It is then checked whether the respective positional deviation is below a predetermined threshold.
  • thresholds can be examined. For example, it can be checked for how many signature pairs the vertical disparity is below thresholds Si, S2, S3 and S4, where Si ⁇ S2 ⁇ S3 ⁇ S4. This then results in four lists of respectively accepted signature pair assignments (accepted correspondence) and rejected signature pair assignments (rejected correspondence). It is then examined how the number of the respectively bound accepted correspondences depends on the threshold value. The lowest threshold is used at which the correspondence count value remains approximately the same. The result is a heuristic method for filtering the signature pairs, so that there is a high probability that “wrong” signature pairs that do not belong to the same object are rejected.
  • a triangulation calculation is carried out in step 69 for determination of depth data for the respective scenery objects 59 to 61.
  • a default tolerance value for the sum of squares of characteristic position deviations of the associated signature pairs for example the vertical disparity VD, are used, in accordance with what has been explained above.
  • a standard deviation of the characteristic positional deviation for example the vertical disparity VD, can also be used as a termination criterion.
  • the triangulation can be carried out with the respectively accepted pairs of signatures, ie the accepted correspondences.
  • a 3D data map of the captured scenery objects 59 to 61 within the captured image of the spatial scenery can be created and output as a result in a creation and output step 70 .
  • An example of such a 3D data map is an assignment of all points of the respective scenery object to respective value triples Xi, yi, Zi, which reflect the position of this respective scenery point in Cartesian coordinates.
  • a spatial reproduction of the respective scenery object is possible via appropriate access to this 3D data card.
  • angle correction values are first determined in a determination step 71 between the various selected assigned signature pairs to check whether mapped raw objects, belonging to the various selected associated signature pairs can be arranged in the correct position relative to one another within the spatial scene. For this purpose, the angles described above in connection with FIG. 8 are used, these angles being corrected in real time due to the measurement monitoring via the measuring units 56, 57.
  • the scenery objects 60, 61 can then be distinguished from one another, for example, despite their identical signatures 60M, 61s in the images 62, 63, so that a correspondingly assigned signature pair can be separated out as a mismatch, so that the number of the selected signature pairs is reduced accordingly.
  • a comparison step 72 the angle correction values determined for the signature pairs are compared with a predetermined correction value size performed. If the angle values of the signature pairs as a result of the comparison step 72 deviate more from each other than the specified correction value size, the filter algorithm used in the filter step 68 is adapted in an adaptation step 73 such that after filtering with the adapted filter algorithm, a The number of selected signature pairs is smaller than the number that resulted from the previous filter step 68 . This adaptation can take place in that signature pairs are discarded which differ in their disparities by more than a predetermined limit value. A standard of comparison, as of which point the signatures of a potential signature pair are judged to be the same and therefore assignable, can also be set more critically in the adjustment 73 .
  • step 73 This sequence of steps 73, 68, 71 and 72 is then carried out until the result is that the angle correction values of the remaining associated signature pairs deviate from one another at most by the predetermined correction value size.
  • the triangulation calculation then takes place again in step 69, in which case the angle correction values of the selected signature pairs can be included, and the results obtained are created and output, in particular in the form of a 3D data card again.
  • FIG. 11 shows two groups of three cameras each 74 to 76 on the one hand (group 74a) and 77, 78, 79 on the other hand (group 77a).
  • the groups 74a on the one hand and 77a on the other hand each have an assigned data processing unit 80, 81 for processing and evaluating the image data recorded by the associated cameras.
  • the two data processing units 80, 81 have a signal connection to one another via a signal line 82.
  • the cameras 74 to 76 of the group 74a can be interconnected to capture a three-dimensional scene, so that a 3D capture of this three-dimensional scene is made possible, for example via an image capturing method that was explained above in connection with FIGS. 8 to 10.
  • the image acquisition result can, for example, Camera 77 of the further group 77a can be used, which is made available to the data processing unit 80 of the group 74a via the data processing unit 81 of the group 77a and the signal line 82. Due to the spatial distance between the camera 77 and the cameras 74 to 76 of the group 74a, the viewing angle for the imaging of the spatial scenery is significantly different, which improves the redundancy of the spatial image acquisition.
  • a camera arrangement plane 83 which is defined by cameras 74 to 76 of group 74a and cameras 77 to 79 of group 77a, is indicated schematically in Figure 11 and is at an angle to the plane of the drawing in Figure 11.
  • Spatial image acquisition using the cameras of exactly one group 74a, 77a is also referred to as intra image acquisition.
  • Spatial image acquisition involving the cameras of at least two groups is also referred to as inter-image acquisition.
  • a triangulation can, for example, take place independently with the stereo arrangements of the cameras 78, 79, the cameras 79, 77 and the cameras 77, 78.
  • the triangulation points of these three arrangements must match.
  • a camera group like the groups 74a, 77a can be arranged in the form of a triangle, in particular in the form of an isosceles triangle. An arrangement of six cameras in the form of a hexagon is also possible.
  • the cameras in the other group are at least a factor of 2 further away.
  • a distance between cameras 76 and 77 is therefore at least twice the distance between cameras 75 and 76 or cameras 74 and 76.
  • This distance factor can also be greater and can be greater than 3, for example, can be greater than 4 , can be greater than 5 and can also be greater than 10.
  • a close camera range covered by the respective group 74a, 77a can be in the range between 80 cm and 2.5 m, for example. By adding at least one camera from the respective other group, a far range can then also be captured with the image capturing device beyond the close range limit.
  • a method for spatial image acquisition is described below, which should be understood as a supplement to the above description.
  • Equation 1 ui, vi: image coordinates of a considered scenery feature, using the example of the scenery
  • This length of the vector t can be measured and/or is known from the assembly situation of the two cameras 54, 55. After the length of t is known, two degrees of freedom remain for the three coordinates t x , ty and t z ; Rxx, . . . , R zz : parameters of the rotation matrix for describing the rotational position of the right camera 55 in the coordinate system of the left camera 54. This rotation has three rotational degrees of freedom.
  • optical axes of the two cameras 54, 55 are again shown in broken lines in FIG. 12 and are comparable to FIG.
  • Equation 1 above can be written as three equations 1.1, 1.2 and 1.3 for the value triple ui (equation 1.1), vi (equation 1.2) and fi (equation 1.3). It is therefore a system of equations with three equations (Eq.1.1 to Eq.1.3) and two unknowns ( i, Xr). These equations can be transformed into an equation by eliminating the unknowns (Xi, X r ).
  • Correspondence is a match of feature points when the same scenery object is captured by the different cameras 54, 55 (left 1, right r) of the image capturing device. If a feature point of a scenery object was captured by camera 54 at image coordinates ui, vi and the same feature point by camera 55 at image coordinates uj, vj, this is a (positive) correspondence.
  • Each correspondence can be assigned a vertical disparity VD. Therefore, at least five correspondences per pair of cameras are necessary, the number can be somewhat higher, but it is advantageous to be significantly higher because of higher statistical stability.
  • the pixel correspondences can be stereo correspondences.
  • stereo correspondence see the specialist article Daniel Scharstein, Richard Szeliski: A taxonomy and evaluation of dense two-frame stereo correspondence algorithms, in: International journal of computer vision, vol. 47, no. 1-3, 2002, p. 7 -42 and Alex Kendall et al.: End-to-end learning of geometry and context for deep stereo regression.
  • u, v are Cartesian coordinates of the respective pixel in GL 1, for example the respective Cartesian coordinates x, y or coordinates in the direction of the respective horizontal and vertical disparity HD, VD.
  • the vectors (u,v,f) describe a point on the ray from the origin of a camera 54, 55 with run parameter .
  • Eq. 1 describes the change in position from the right camera (e.g. camera 55) to the left camera (e.g. camera 54) with three position parameters via the translation vector t and the rotation matrix R, ie with six degrees of freedom.
  • An example of the 5 degrees of freedom are the aforementioned angles by s , bz s , ax s , ay s , az s for the positional relationship of the slave camera 55 to the master camera 54.
  • the system of equations GL 1 consists of three equations with two unknowns, namely the two running parameters i, A, r and five degrees of freedom of the translation matrix T and the rotation matrix R.
  • the degrees of freedom can be calculated by an estimator, for example.
  • an estimator solves the system of equations, which is usually overdetermined, by minimizing a residual error.
  • Such an estimator is known in the literature as a "James-Stein estimator” (cf. the article “Stein's estimation rule and its competitors - an empirical bayes approach” by B. Efron and C. Morris, Journal of the American Statistical Association 68 (341, pp. 117-130, 1973).
  • the correspondences ie the pixel correspondences according to Equation 1 above, must be linearly independent of one another. With a large number of correspondences, false positives can be filtered out by algorithms that are based on the weighting of the features via their size of offset to the respective epipolar line of the respective camera 54, 55.
  • the false-positive correspondences are normally distributed to a first approximation.
  • the true positive correspondences have characteristic accumulations, i.e. they are not normally distributed.
  • the filtering leads to the fact that the false-positive correspondences are filtered out, so that the positive correspondences remain within the framework of a convergent algorithm.
  • the positives allow the estimator to converge to the actual value. This estimator also works with squinting cameras (directional deviation between zm and zs, cf. in particular the above description of FIG. 8) and converges more quickly with fisheye cameras.
  • the image capturing device has two cameras 54, 55, five degrees of freedom must be determined. With three cameras that can be configured into two pairs of cameras, there are ten degrees of freedom to be determined.
  • n cameras are available in an image capturing device. With a pair of cameras, 5 degrees of freedom can be estimated. Each camera beyond a first camera pair with five degrees of freedom contributes six additional degrees of freedom. With n cameras, there are then 6n - 1 estimable degrees of freedom.
  • IMUs in both cameras 54, 55 of the image capturing device.
  • IMUs in both cameras 54, 55 of the image capturing device. From the rate of rotation in a period (mono-period frame), the change in rotational position can be estimated and thus the five changes in rotational position of the cameras in relation to one another. The residual error is compensated by applying the method.
  • an IMU translation can also be used.
  • acceleration values can be recorded, which helps to improve prediction accuracy.
  • the prediction from the IMU data can also be integrated over several cycles for stabilization.
  • the method is also calculated over these periods. Instead of two, the number of cameras can also be increased to three or more cameras for joint calculation. The different perspectives improve the estimation results, even when the cameras are lined up.
  • the estimation is further improved when the cameras span an area.
  • the estimate is further improved when the cameras squint more, thus opening up a larger field of view together.
  • a fisheye camera 54, 55 can be better than a normal lens.
  • Each of the scenery objects may be a larger corresponding blob, for example a component of a vehicle.
  • the correspondences of larger blobs can be determined more precisely than the correspondences of smaller features.
  • the same spatial feature can be found in three images. If it is found three times, it is checked for plausibility. A corresponding plausibility check can be included in the position deviation filtering of the image acquisition method. If a particular feature is captured by two cameras, its position can be predicted when captured by the third camera. If it is actually imaged there when it is imaged by the third camera, the spatial feature in question is then checked for plausibility. If not, a mismatch is assumed.
  • Each estimation weights the correspondences via the weights of the offsets to the epipolar line of the respective camera 54, 55.
  • the respective epipolar line is calculated before each estimation step. With multiple estimates, the epipolar line changes and the weights are changed as well. For example, the weight “1” can be assumed up to a threshold value. The weight can then be reduced linearly to zero up to a double threshold value. The change in the weights in the course of the multiple estimation in turn provides information about the possibility of a false positive, which in turn leads to new weights.
  • the size of the respective weights can be derived by comparing the correspondence numbers when using the four differently sized threshold values Si to S4.
  • weightings are described using a cost function depending on, for example, the magnitude of the threshold values.
  • the correspondence should be distributed as evenly as possible in the image. To do this, the image is divided into zones (e.g. nine evenly distributed zones). The number of features in the zones should ideally be even.
  • a ZDF Zero Distribution Function
  • ZDF Zone Distribution Function
  • An estimator is more robust with regard to the result obtained as long as there are correspondences distributed evenly over the respective image.
  • it can be ensured that there is a minimum number of correspondences in all zones. Such a minimum number of correspondences must be present in the zones at least in the case of a last estimate carried out.
  • Correspondences from zones in which there are many correspondences compared to, for example, an average value of the correspondences in the divided zones can then be weighted less by smaller weighting factors.
  • unequally distributed correspondences can also be better evenly distributed by deleting in overcrowded zones.
  • the ZDF distribution can also be adjusted using the weights from close to the epipolar lines. This follows from a product, on the one hand, of a weight that depends on the proximity of the respective epipolar line and, on the other hand, of a weight that depends on the respective zone.
  • the correspondences are weighted by their distances from the current epipolar line. In principle, a large number of correspondences, i.e. also larger distances from the respective epipolar line, can be considered. However, the number of correspondences with small distances to the respective epipolar line should be comparatively large. For this purpose, the curve of the number of correspondences over increasing maximum epipolar distances is considered.
  • the results of the estimation can be averaged over a period of time.
  • a number of images can therefore be recorded in a sequence and subjected to a corresponding estimation.
  • the averaged estimated values are only averaged up to a maximum past. So there is a sliding average calculation in real time. Disturbances that happened a long time ago are forgotten again and no longer hinder the latest estimates.
  • the relative positions of the cameras used in the image capturing device can be estimated using the image capturing method. Estimation results of different image capture scenarios can be compared. If they deviate too much from each other, it is rejected and deactivated (fail-safe) or by a third one of the two results confirmed and the mission continued (fail-operational). In this case, the measurements with these recalibrated cameras are also confirmed with two matches within three measurements.
  • An extrinsic calibration with the image acquisition method is based on an intrinsic calibration (distortion or distortion, focal length, etc.) of the respective camera.
  • the intrinsic calibration model error can be integrated into the weights of the distances to the epipolar lines.
  • a prediction of coordinates of the scenery objects 59 to 61 in the image of the second camera 55, depending on the epipolar line distances, ie the epipolar curve, can be made directly taking into account a distortion description.
  • the weights of such a description can be increased according to an expected residual error of a distortion correction.
  • the cameras can be equipped with fish-eye lenses with a focal length of less than 20 mm, in particular less than 10 mm. At greater distances, the distance resolution will be lower than when using normal or telephoto lenses because of the small focal length. Estimation with standard or telephoto lenses is more unstable than estimation with fisheye lenses. If telecameras with a focal length of at least 80 mm, which can in particular be at least 150 mm or at least 200 mm, are mounted or assigned to fisheye cameras in a dimensionally stable manner in order to optimize the cameras 54, 55, 74-76, 77-79 described above the estimation of the fisheye camera can be transformed into the telecamera.
  • two fisheye cameras are estimated, new estimated values for the telecameras associated with them automatically result.
  • the higher resolution of the telecameras can provide contributions to the estimation of the system from at least two fisheye cameras and the associated telecameras.
  • the image capturing device then no longer only has fish-eye cameras, but also additional, associated telecameras.
  • two fisheye cameras can form a stereo pair (see the above example of cameras 54, 55).
  • a telecamera can be permanently or rigidly assigned to each fisheye camera. From correspondences of the fisheye cameras on the one hand and correspondences of the telecameras on the other hand, an enlarged system of equations can then be built up corresponding to the above equation 1, which is then solved.
  • the estimates can be averaged over multiple frames. The averaging can be done with IMU value normalized estimates. Larger movements are less disruptive.
  • the averaging of the IMU value normalized estimates can be smoothed and thus stabilized by rejecting IMU-detected jerk movements.
  • a motion model can support an estimation.
  • a prediction of the angles with their probability can be balanced with the current measurement and the measurement errors and dynamic measurements can be supported.
  • the motion model is based on the assumed stiffness of a support structure or the support frame of the cameras. The movement must be slower than the exposure time, i.e. the exposure time, but can be faster than the cycle time, i.e. the image repetition time.
  • AI models models of artificial intelligence
  • engine vibrations that are introduced into the support structure for the cameras can be compensated for.
  • the Kl model can detect jerk-like movements and help reject estimates.
  • the estimation of the relative position of the cameras can be asynchronous with the measurement using triangulation.
  • the measurement is based on classical stereo algorithms of rectified images.
  • the image acquisition method uses native features to form correspondences.
  • a classic stereo matching method compares gray value differences and searches for a location along the epipolar curve, typically a horizontal stretch, with the smallest gray value difference that must fall below a threshold.
  • a signature is present when the gray values are the same.
  • "Native" features are converted into a signature from a transformation of gray values of a feature environment. There is therefore a comparison of gray values within a feature environment in a camera image. Only features are used whose signatures occur comparatively rarely in the image, for example fewer than ten, fewer than eight or fewer than seven times. Such rare features are referred to as native features.
  • the correspondences can also be used for distance measurement with triangulation.
  • the features are extracted and used for triangulation (native stereo).
  • the same features are used as part of the image acquisition process and for estimation. Once the estimation is complete, the new results can be added to the measurements asynchronously. It is measured multiple times while only one estimate is made. This takes place when the relative position of the cameras changes slowly.
  • the image acquisition method can quickly discover strong deviations in coarser (binned) images, ie in images in which a plurality of pixels are combined. If these are recognized, the exact changes are determined in the finer images and made available for the measurements. Estimates with smaller deviations are not provided in order to avoid the computationally expensive calculation of the warp parameters for rectified images.
  • Warp parameters are parameters for describing a desired equalization based on a distortion description, i.e. based on an image error description of the cameras 54, 55.
  • the rejected deviations must, of course, be smaller than the deviations that can be tolerated by DenseStereo, ie by the classic stereo matching method described above.
  • Line errors of one pixel can usually be tolerated. This depends on a size of a compared environment. However, even if they are small, such line errors lead to errors in the distance measurement.
  • the warp parameters are calculated from the estimated data, then the rectified images are calculated with the aim of line fidelity and the distance is determined via triangulation from the dense stereo correspondence, i.e. a location of a minimum distance.
  • the calculations of the warp parameters for DenseStereo are computationally intensive.
  • the native stereo ie an assignment of native features without line fidelity and without comparison of gray values, where only a comparison of signatures takes place, can calculate the triangulation directly from the correspondences of the image acquisition process.
  • the image acquisition method also provides a measure of confidence for the correspondences via the weighting of the distances to the epipolar lines.
  • the degree of confidence is, on the one hand, a probability of an association using more than two cameras and, on the other hand, an assessment of a magnitude of noise to be expected, ie ultimately a signal/noise ratio.
  • the synchronous sequence of estimation and triangulation with native features is therefore efficient and provides a measure of the trustworthiness of measurement points.
  • Native triangulation can measure distance from a correspondence.
  • a center point of a distance of skewed rays is considered, which are generated from two corresponding image points of the two stereo cameras 54, 55. Such a distance must fall below a predetermined threshold.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

To capture three-dimensional images with the aid of a stereo camera (55a) having two cameras (54, 55), an image of a three-dimensional scene is first captured (64) with the two cameras (54, 55) simultaneously. Characteristic signatures of scene objects within each captured image are determined (65) and assigned to each other in pairs (66). Characteristic position deviations of the assigned signature pairs from one another are determined (67). The position deviations are filtered in order to select assigned signature pairs. On the basis of the selected signature pairs, a triangulation calculation is carried out (69) to determine depth data for the respective scene objects. A 3D data map of the captured scene objects within the captured image of the three-dimensional scene is then created (70). This results in a method for capturing three-dimensional images, which is well adapted for practical use, in particular for capturing images to safeguard autonomous driving.

Description

Verfahren zur räumlichen Bilderfassung mit Hilfe einer zwei Kameras aufweisenden Stereokamera sowie Verfahren zur Erzeugung einer redundanten Abbildung eines Messobjektes und Vorrichtung zur Durchführung der Verfahren Method for spatial image acquisition using a stereo camera having two cameras and method for generating a redundant image of a measurement object and device for carrying out the method
Die vorliegende Patentanmeldung nimmt die Priorität der deutschen Patentanmeldung DE 10 2020 212 285.7 in Anspruch, deren Inhalt durch Bezugnahme hierin aufgenommen wird. The present patent application claims the priority of German patent application DE 10 2020 212 285.7, the content of which is incorporated herein by reference.
Die Erfindung betrifft ein Verfahren zur räumlichen Bilderfassung mit Hilfe einer zwei Kameras aufweisenden Stereokamera. Ferner betrifft die Erfindung ein Verfahren zur Erzeugung einer redundanten Abbildung eines Messobjektes sowie eine Vorrichtung zur Durchführung dieser Verfahren. The invention relates to a method for spatial image acquisition using a stereo camera having two cameras. Furthermore, the invention relates to a method for generating a redundant image of a measurement object and a device for carrying out this method.
Eine Objekterfassungsvorrichtung ist bekannt aus der WO 2013/020872 Al sowie der dort angegebenen Referenzen. An object detection device is known from WO 2013/020872 A1 and the references given there.
Es ist eine Aufgabe der vorliegenden Erfindung, ein Verfahren zur räumlichen Bilderfassung anzugeben, welches an die Praxis insbesondere der Bilderfassung zur Sicherstellung eines autonomen Fahrens gut angepasst ist. It is an object of the present invention to specify a method for spatial image acquisition which is well adapted to the practice of image acquisition in particular to ensure autonomous driving.
Diese Aufgabe ist erfindungsgemäß gelöst durch ein Verfahren mit den im Anspruch 1 angegebenen Merkmalen. According to the invention, this object is achieved by a method having the features specified in claim 1 .
Lageabweichungen zwischen Signaturen von Szenerie-Objekten, die sich aufgrund von Lage- bzw. Positionsabweichungen der Kameras untereinander ergeben, können bei diesem Verfahren präzise erkannt und kompensiert werden. Positional deviations between signatures of scenery objects, which result due to positional or positional deviations of the cameras, can be precisely recognized and compensated for with this method.
Szenerie-Objekte können vergleichsweise gering ausgedehnte Objekte sein, deren Bilder beispielsweise lediglich einzelne oder weniger als zehn Pixel der jeweiligen Kamera groß sind. Alternativ können die Szenerie-Objekte auch größer ausgedehnt sein und ganze Bildbereiche umfassen. Beispiele für derartige, größere Szenerie-Objekte sind beim Beispiel einer Fahrzeug-Bilderfassung einzelne Fahrzeugkomponenten oder Fahrzeugabschnitte oder auch das gesamte Fahrzeug. Beispiele für charakteristische Lageabweichungen, die bei dem Bilderfassungsverfahren ermittelt werden, sind eine Abweichung bzw. ein Abstand einer Abbildungs-Position der Abbildung von Szenerie-Objekten von einer Epipolarlinie der jeweiligen Kamera. Auch eine Lageabweichung der jeweiligen Abbildungs-Position eines Szenerie-Objektes längs der Epipolarlinie kann beim Ermittlungsverfahren betrachtet werden. Diese Lageabweichungen werden nachfolgend auch als vertikale Disparität und als horizontale Disparität bezeichnet. Scenery objects can be comparatively small objects whose images are, for example, only individual pixels or less than ten pixels of the respective camera. Alternatively, the scenery objects can also be larger and encompass entire image areas. Examples of such larger scenery objects are individual vehicle components or vehicle sections or the entire vehicle in the example of vehicle image acquisition. Examples of characteristic positional deviations that are determined in the image acquisition method are a deviation or a distance of an imaging position of the imaging of scenery objects from an epipolar line of the respective camera. A positional deviation of the respective imaging position of a scenery object along the epipolar line can also be considered in the determination method. These positional deviations are also referred to below as vertical disparity and horizontal disparity.
Beim Filtern der Lageabweichungen kann schlicht überprüft werden, ob die Lageabweichungen kleiner sind als ein vorgegebener Lageabweichungs-Toleranzwert. Die Vorgabe des Lageabweichungs-Toleranzwertes ist fließend und kann solange stattfinden, bis die Anzahl ausgewählter Signatur-Paare kleiner ist als der vorgegebene Grenzwert. When filtering the positional deviations, it can simply be checked whether the positional deviations are smaller than a specified positional deviation tolerance value. The specification of the position deviation tolerance value is fluid and can take place until the number of selected signature pairs is less than the specified limit value.
Anstelle einer Stereokamera können auch mehr als zwei Kameras bei dem Bilderfassungsverfahren Zusammenwirken. Instead of a stereo camera, more than two cameras can also interact in the image acquisition method.
Jede der Kameras kann wiederum als System aus mehreren einander zugeordneten Kameras aufgebaut sein. Eine dieser einander zugeordneten Kameras kann eine Fischaugen-Kamera sein. Die Brennweite einer derartigen Fischaugen-Kamera kann kleiner sein als 20 mm. Eine andere dieser zugeordneten Kameras kann eine Telekamera mit einem Teleobjektiv mit einer Brennweite von mindestens 80 mm sein. Each of the cameras can in turn be constructed as a system of several cameras assigned to one another. One of these associated cameras can be a fisheye camera. The focal length of such a fisheye camera can be less than 20 mm. Another of these associated cameras may be a telephoto camera with a telephoto lens with a focal length of at least 80mm.
Zum Ermitteln der charakteristischen Lageabweichungen der zugeordneten Signatur-Paare voneinander sowie zum Filtern der Lageabweichungen kann beispielsweise die jeweilige vertikale Disparität für alle Signatur-Paare quadratisch aufsummiert werden und es können Zustandsgrößen der Stereokamera so lange variiert werden, bis diese Quadrat-Summe minimiert ist. To determine the characteristic positional deviations of the associated signature pairs from one another and to filter the positional deviations, the respective vertical disparity for all signature pairs can be summed up squared and state variables of the stereo camera can be varied until this squared sum is minimized.
Als Abbruchkriterium zum Drücken der Anzahl der ausgewählten Signatur-Paare kleiner als ein vorgegebener Grenzwert kann ein Lageabweichungs-Toleranzwert in Form einer Vorgabe einer Quadrat-Summe der vertikalen Disparität oder auch einer Standard- Abweichung der vertikalen Disparität genutzt werden. A positional deviation tolerance value in the form of a specification of a squared sum of the vertical disparity or also a standard deviation of the vertical disparity can be used as a termination criterion for reducing the number of selected signature pairs to less than a specified limit value.
Insbesondere Relativbewegungen zwischen den Kameras können bei dem Bilderfassungsverfahren berücksichtigt werden. Eine über die Ermittlung der charakteristischen Lageabweichungen zugeordneter Signatur-Paare erfolgende Relativlagenschätzung der Kameras zueinander kann zu der Triangulations-Berechnung asynchron erfolgen. In particular, relative movements between the cameras can be taken into account in the image acquisition method. One about determining the characteristic positional deviations associated signature pairs occurring relative position estimation of the cameras to each other can be done asynchronously to the triangulation calculation.
Eine Lagekorrektur einer Relativlage der Kameras zueinander, insbesondere auf Grundlage einer Relativlagenschätzung, kann auch unmittelbar vor jeder Triangulationsrechnung erfolgen. Es kann dann für jeden Messvorgang eine Kamera-Lage-Kalibrierung vorliegen. Mit einer derartigen, unmittelbaren Kalibrierung können auch bei Einsatz von Bilderfassungs-Vorrichtungen, bei den sich eine Relativlage der Kameras zueinander ständig verändert, sichere Stereomessungen durchgeführt werden. Eine derartige Lagekorrektur auf Grundlage insbesondere einer Kamera- Relativlagenschätzung kann unter Einsatz von Daten von inertialen Messeinheiten erfolgen, mit denen die Kameras fest verbunden sind. Insbesondere ein Einsatz von Kamera-Messvorrichtungen mit sehr großem Abstand zwischen den Kameras (long baseline stereoscopy) ist möglich. A position correction of a relative position of the cameras to one another, in particular on the basis of an estimate of the relative position, can also be carried out immediately before each triangulation calculation. There can then be a camera position calibration for each measurement process. With such a direct calibration, reliable stereo measurements can be carried out even when using image acquisition devices in which the position of the cameras relative to one another is constantly changing. Such a position correction based in particular on an estimation of the relative position of the camera can be carried out using data from inertial measuring units to which the cameras are permanently connected. In particular, the use of camera measuring devices with a very large distance between the cameras (long baseline stereoscopy) is possible.
Bei der Triangulations-Berechnung können bekannte Rektifizierungs-Verfahren zum Einsatz kommen. Hierzu wird verwiesen auf die Fachbücher von Karl Kraus, Photogrammetrie, Bände 1 und 2, Dümmler, Bonn, 1996/1997 sowie Thomas Luhmann, Nahbereichsphotogrammetrie Grundlagen, Methoden und Anwendungen, 3. Auflage, Berlin/Offenbach 2010 verwiesen. Known rectification methods can be used in the triangulation calculation. Reference is made to the specialist books by Karl Kraus, Photogrammetry, Volumes 1 and 2, Dümmler, Bonn, 1996/1997 and Thomas Luhmann, Close-range photogrammetry fundamentals, methods and applications, 3rd edition, Berlin/Offenbach 2010.
Bei der Triangulations-Berechnung erfolgt eine optische Abstandsmessung durch Winkelmessung innerhalb im Rahmen des Verfahrens definierter Dreiecke. Diese können jeweils gebildet sein durch eine der beiden Kameras und zwei Bildpunkte oder durch die beiden Kameras und einen Bildpunkt. In the triangulation calculation, an optical distance measurement is carried out by measuring angles within triangles defined within the framework of the method. These can each be formed by one of the two cameras and two pixels or by the two cameras and one pixel.
Beim Filtern der Ablageabweichungen zur Auswahl zugeordneter Signatur-Paare können diejenigen Signatur-Paare ausgewählt werden, die mit höherer Wahrscheinlichkeit zum selben Szenerie-Objekt der räumlichen Szenerie gehören. When filtering the offset deviations for the selection of associated signature pairs, those signature pairs can be selected which have a higher probability of belonging to the same scenery object of the three-dimensional scenery.
Das Filtern der Lageabweichungen zur Auswahl zugeordneter Signatur-Paare kann nach Anspruch 2 mit einem Filteralgorithmus geschehen. Ein Maß für die jeweilige Lageabweichung, die zum Filtern verwendet werden kann, ist beispielsweise die horizontale Disparität und/oder die vertikale Disparität. Beim Bilderfassungsverfahren nach Anspruch 4 oder 5 können auch schwer zu erfassende räumliche Szenerien sicher hinsichtlich der Szenerie-Objekte zugeordnet und entsprechende 3D-Da- tenkarten fehlerfrei erstellt werden. Abweichungen in der relativen Ausrichtung der Kameras der Stereokamera zueinander können präzise berücksichtigt werden. Die im Ermittlungsschritt ermittelten Winkelkorrekturwerte können als Zustandsgrößen zur oben angesprochenen Variation z. B. zur Quadratsummen-Minimierung der vertikalen Disparität herangezogen werden. The filtering of the positional deviations for the selection of assigned signature pairs can be done according to claim 2 with a filter algorithm. A measure of the respective positional deviation that can be used for filtering is, for example, the horizontal disparity and/or the vertical disparity. With the image acquisition method according to claim 4 or 5, even spatial scenes that are difficult to acquire can be reliably assigned with regard to the scenery objects and corresponding 3D data maps can be created without errors. Deviations in the relative alignment of the cameras of the stereo camera to one another can be precisely taken into account. The angle correction values determined in the determination step can be used as state variables for the variation mentioned above, e.g. B. can be used to minimize the sum of squares of the vertical disparity.
Bei den Winkelkorrekturwerten handelt es sich um für die relative Lagebeziehung der Kameras zueinander charakteristische Winkel, beispielsweise um eine Verkippung einer Baseline-Ebene, um eine Baseline- Verkippung, um eine relative Verkippung der Kamera-Bildaufnahmerichtungen oder um eine Verkippung von Kamera-Koordinatenachsen zueinander. The angle correction values are angles that are characteristic of the relative positional relationship of the cameras to one another, for example a tilting of a baseline plane, a baseline tilting, a relative tilting of the camera image recording directions or a tilting of camera coordinate axes to one another.
Das Bestimmungsverfahren nach Anspruch 6 führt zu besonders genauen 3D-Datenwerten. The determination method according to claim 6 leads to particularly precise 3D data values.
Das Verfahren nach Anspruch 7 erlaubt die Einbeziehung von instantanen Lageänderungen der Kameras zueinander, beispielsweise aufgrund von Erschütterungen. Dieses Datenerfassen erfolgt dann in Echtzeit. Eine Zeitkonstante dieser Datenerfassung kann kleiner sein als 500 ms und kann insbesondere kleiner sein 100 ms. Die von den inertial en Messeeinheiten erfassten Daten können eine Roh-Information zu einer notwendigen Korrektur der Relativlage der Kameras zueinander liefern, die durch die Bild-erfassung dann noch optimiert wird. Eine entsprechende Lage- änderungs-Erfassung kann auch zur Relativlagen-Kalibrierung der Kameras zueinander genutzt werden. Dies kann insbesondere vor Durchführung des jeweiligen Triangulationsschritts bei der Durchführung des Bilderfassungsverfahrens geschehen. The method according to claim 7 allows the inclusion of instantaneous changes in the position of the cameras relative to one another, for example due to vibrations. This data collection then takes place in real time. A time constant of this data acquisition can be less than 500 ms and in particular can be less than 100 ms. The data recorded by the inertial measuring units can provide raw information for a necessary correction of the relative position of the cameras to one another, which is then optimized by the image recording. A corresponding position change detection can also be used to calibrate the positions of the cameras relative to one another. This can be done in particular before carrying out the respective triangulation step when carrying out the image acquisition method.
Eine weitere Aufgabe der Erfindung ist es, die Datenerfassungssicherheit bei der Abbildung eines Messobjektes zu verbessern. A further object of the invention is to improve the data acquisition security when imaging a measurement object.
Diese Aufgabe ist erfindungsgemäß gelöst durch ein Verfahren mit den in Anspruch 8 angegebenen Merkmalen. According to the invention, this object is achieved by a method having the features specified in claim 8 .
Erfindungsgemäß wurde erkannt, dass die verschiedenen Kameras, die beispielsweise bei einem Kamerasystem zur Ermöglichung des autonomen Verfahrens bereitgestellt werden, miteinander zur redundanten Abbildung eines Messobjektes Zusammenwirken können. Dabei werden die Kameras entsprechend verknüpft, sodass Erfassungsergebnisse eines Kamerapaares durch Einsatz einer dritten Kamera abgeglichen und überprüft werden können. Auf diese Weise können Erfassungsfehler erkannt werden und es kann sogar eine echte Redundanz dadurch erzeugt werden, dass drei unabhängige Erfassungsergebnisse miteinander verglichen werden können, wobei eine Qualifizierung der Erfassungsdaten als korrekt dann erfolgt, wenn mindestens zwei der drei Erfassungsergebnisse miteinander übereinstimmen. Das Messobjekt kann beliebig sein, solange das Messobjekt Texturen bzw. Strukturen aufweist und hierüber eine Tiefeninformation birgt. According to the invention, it was recognized that the various cameras that are provided, for example, in a camera system to enable the autonomous method, with one another for redundant imaging of a measurement object. The cameras are linked accordingly so that the recording results of a pair of cameras can be compared and checked using a third camera. In this way, detection errors can be detected and genuine redundancy can even be generated by comparing three independent detection results with one another, with the detection data being qualified as correct if at least two of the three detection results match one another. The measurement object can be arbitrary, as long as the measurement object has textures or structures and contains depth information about them.
Die Vorteile einer Vorrichtung nach Anspruch 9 und 10 entsprechen denen, die vorstehend im Zusammenhang mit den Verfahren bereits erläutert wurden. Die Vorrichtung kann mindestens eine mit einer inertialen Messeinheit fest verbundene Kamera aufweisen. The advantages of a device according to claims 9 and 10 correspond to those which have already been explained above in connection with the methods. The device can have at least one camera permanently connected to an inertial measuring unit.
Die drei Kameras können in Form eines Dreiecks, insbesondere in Form eines gleichschenkligen Dreiecks angeordnet sein. The three cameras can be arranged in the form of a triangle, in particular in the form of an isosceles triangle.
Eine Anordnung nach Anspruch 11 mit sechs Kameras führt zu einer nochmals verbesserten Abbildungsredundanz. Die sechs Kameras können in Form eines Hexagons angeordnet sein, insbesondere in Form eines regelmäßigen Sechsecks. Die Kameras können in der Kam era- Anordnungsebene angeordnet sein. An arrangement according to claim 11 with six cameras leads to an even better imaging redundancy. The six cameras can be arranged in the form of a hexagon, in particular in the form of a regular hexagon. The cameras can be arranged in the camera arrangement level.
Der Einsatz einer zusätzlichen entfernten Kamera nach Anspruch 12 ermöglicht einen Sicherheitsabgleich der Ergebnisse der Abbildungserfassung durch die drei benachbart zueinander angeordneten Kameras. Die drei benachbart zueinander angeordneten Kameras können in der Kamera-Anordnungsebene angeordnet sein. Ein Abstandsfaktor zur Charakterisierung des Abstandes der entfernt angeordneten Kamera im Vergleich der Abstände der benachbart angeordneten Kameras kann größer sein als 2, kann größer sein als 3, kann größer sein als 4, kann größer sein als 5 und kann beispielsweise auch 10 betragen. Dieser Ab Standsfaktor kann so gewählt werden, dass über die benachbart angeordneten Kameras ein Nahbereich bis zu einer Nahbereichsgrenze abgedeckt wird und durch Hinzunahme der entfernt angeordneten Kamera ab dieser Nahbereichs-Grenze dann ein Fernbereich des Sichtfeldes der Kameras. The use of an additional remote camera according to claim 12 enables a security comparison of the results of the image acquisition by the three cameras arranged adjacent to one another. The three cameras arranged adjacent to one another can be arranged in the camera arrangement plane. A distance factor to characterize the distance of the remote camera compared to the distances of the adjacent cameras can be greater than 2, can be greater than 3, can be greater than 4, can be greater than 5 and can also be 10, for example. This distance factor can be selected so that the adjacent cameras cover a close-up area up to a close-up range limit, and adding the remotely arranged camera from this close-up range limit then covers a far range of the field of view of the cameras.
Eine Anordnung nach Anspruch 13 vereinfacht den Abgleich der Triangulations-Messungen. Die Verbindung mindestens einer der Kameras mit einer inertialen Messeinheit ermöglicht auch eine Beschleunigungsmessung der jeweiligen Kamera und eine entsprechende Auswertung erfasster Beschleunigungswerte. An arrangement according to claim 13 simplifies the comparison of the triangulation measurements. The connection of at least one of the cameras to an inertial measuring unit also enables an acceleration measurement of the respective camera and a corresponding evaluation of recorded acceleration values.
Ausfuhrungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnung näher erläutert. In dieser zeigen: Exemplary embodiments of the invention are explained in more detail below with reference to the drawing. In this show:
Fig. 1 eine Aufsicht auf eine Vorrichtung zum Kalibrieren einer räumlichen Lage eines Zentrums einer Eintrittspupille einer Kamera, wobei eine Zusatz-Kalibierfläche sowohl in einer Neutralposition außerhalb eines Kamera-Sichtfeldes als auch in einer Betriebsposition im Kamera-Sichtfeld dargestellt ist; 1 shows a top view of a device for calibrating a spatial position of a center of an entrance pupil of a camera, with an additional calibration surface being shown both in a neutral position outside a camera field of view and in an operating position in the camera field of view;
Fig. 2 eine Ansicht aus Richtung II in Figur 1 mit Zusatz-Kalibierflächen in der Neutralposition; FIG. 2 shows a view from direction II in FIG. 1 with additional calibration surfaces in the neutral position;
Fig. 3 schematisch eine Darstellung zur Verdeutlichung von Lagebeziehungen zwischen Komponenten der Kalibrier-Vorrichtung; FIG. 3 shows a schematic representation to clarify positional relationships between components of the calibration device; FIG.
Fig. 4 eine weitere Details preisgebende Ansicht einer beweglichen Referenzkamera der Kalibrier-Vorrichtung einschließlich eines Kamera-Verlagerungsantriebs zur Bewegung der beweglichen Referenzkamera in mehreren Translations/Rotations- Freiheitsgraden; 4 shows a further detailed view of a movable reference camera of the calibration device including a camera displacement drive for moving the movable reference camera in several translational/rotational degrees of freedom;
Fig. 5 schematisch verschiedene Ausrichtungen der beweglichen Referenzkamera, nämlich insgesamt acht Ausrichtungsvarianten; 5 shows schematically different alignments of the movable reference camera, namely a total of eight alignment variants;
Fig. 6 eine Kalibriertafel mit einer Kalibrierfläche, aufweisend Kalibrierstrukturen, die als Haupt-Kalibrierfläche und/oder als Zusatz-Kalibrierfläche bei der Kalibrier- Vorrichtung zum Einsatz kommen kann; Fig. 7 in einer Ansicht von oben eine Anordnung eines Systems zur Bestimmung relativer Positionen von Zentren von Eintrittspupillen mindestens zweier Kameras, die an einem gemeinsamen Tragrahmen montiert sind, zueinander; 6 shows a calibration panel with a calibration surface, having calibration structures that can be used as the main calibration surface and/or as an additional calibration surface in the calibration device; 7 shows an arrangement of a system for determining relative positions of centers of entrance pupils of at least two cameras, which are mounted on a common support frame, in a view from above;
Fig. 8 schematisch zwei Kameras einer Stereokamera zur räumlichen Bilderfassung, wobei Koordinaten und Lageparameter zur Bestimmung von Winkel-Korrekturwerten der Kameras zueinander veranschaulicht sind; 8 shows a schematic of two cameras of a stereo camera for three-dimensional image acquisition, with coordinates and position parameters for determining angle correction values of the cameras relative to one another being illustrated;
Fig. 9 wiederum schematisch die beiden Kameras der Stereokamera nach Figur 8 bei der Erfassung von Szenerie-Objekten einer räumlichen Szenerie, wobei Lageabweichungs-Parameter charakteristischer Signaturen der von den Kameras jeweils erfassten Bildern hervorgehoben sind; FIG. 9 again schematically shows the two cameras of the stereo camera according to FIG. 8 when capturing scenery objects of a three-dimensional scenery, with positional deviation parameters of characteristic signatures of the images captured by the cameras being highlighted;
Fig. 10 ein Blockschaltbild zur Verdeutlichung eines Verfahrens zur räumlichen Bilderfassung mit Hilfe der Stereokamera nach den Figuren 8 und 9; 10 shows a block diagram to clarify a method for spatial image acquisition using the stereo camera according to FIGS. 8 and 9;
Fig. 11 eine Vorrichtung zur Durchführung eines Verfahrens zur Erzeugung einer redundanten Abbildung eines Messobjektes unter Einsatz beispielsweise zweier Gruppen zu je drei einer gemeinsamen Signalverarbeitung zugeordneten Kameras; 11 shows a device for carrying out a method for generating a redundant image of a measurement object using, for example, two groups of three cameras each assigned to common signal processing;
Fig. 12in einer zu Figur 8 ähnlichen Darstellung wiederum zwei Kameras einer Stereokamera zur räumlichen Bilderfassung, wobei Koordinaten und Lageparameter zur Bestimmung von Korrekturwerten, insbesondere von Winkel-Korrekturwerten der Kameras zueinander veranschaulicht sind. 12 shows two cameras of a stereo camera for three-dimensional image acquisition in a representation similar to FIG.
Eine Kalibrier-Vorrichtung 1 dient zum Kalibrieren einer räumlichen Lage eines Zentrums einer Eintrittspupille einer zu kalibrierenden Kamera 2. Die zu kalibrierende Kamera 2 ist innerhalb eines quaderförmigen Montagevolumens 3 angeordnet, welches in den Figuren 1 und 2 gestrichelt hervorgehoben ist. Innerhalb des Montagevolumens 3 wird die zu kalibrierende Kamera 2 bei der Durchführung des Kalibrierverfahrens fest montiert. Hierzu dient eine in der Figur 1 lediglich angedeutete Halterung 4. Mit der Halterung 4 wird die zu kalibrierende Kamera 2 derart gehalten, dass diese ein vorgegebenes Kalibrier-Sichtfeld 5 erfasst, dessen Begrenzungen in der Seitenansicht der Vorrichtung 1 nach Figur 1 gestrichelt dargestellt sind. Bei der zu kalibrierenden Kamera 2 kann es sich beispielsweise um eine Kamera für ein Fahrzeug handeln, die zur Bereitstellung einer Funktion „autonomes Fahren“ genutzt werden soll. A calibration device 1 is used to calibrate a spatial position of a center of an entrance pupil of a camera 2 to be calibrated. The camera 2 to be calibrated is arranged within a cuboid assembly volume 3, which is highlighted in FIGS. 1 and 2 by dashed lines. The camera 2 to be calibrated is fixedly mounted within the mounting volume 3 when the calibration method is carried out. A holder 4, which is only indicated in FIG. 1, is used for this purpose. The camera 2 to be calibrated is held with the holder 4 in such a way that it captures a predefined calibration field of view 5, the boundaries of which are shown in dashed lines in the side view of the device 1 according to FIG. The camera 2 to be calibrated can be, for example, a camera for a vehicle that is to be used to provide an “autonomous driving” function.
Zur Erleichterung der Beschreibung von Lagebeziehungen insbesondere von Kameras der Vorrichtung 1 zueinander sowie zum Sichtfeld 5 ist in den Figuren 1 bis 3, soweit nichts anderes angegeben, jeweils ein xyz-Koordinatensystem eingezeichnet. In der Figur 1 verläuft die x-Achse senkrecht zur Zeichenebene in diese hinein. Die y- Achse verläuft in der Figur 1 nach oben. Die z-Achse verläuft in der Figur 1 nach rechts. In der Figur 2 verläuft die x-Achse nach rechts, die y- Achse nach oben und die z-Achse verläuft senkrecht zur Zeichenebene aus dieser heraus. To simplify the description of positional relationships, in particular between cameras of the device 1 and in relation to the field of view 5, an xyz coordinate system is drawn in in each of FIGS. 1 to 3, unless otherwise stated. In FIG. 1, the x-axis runs perpendicular to the plane of the drawing and into it. The y-axis runs upwards in FIG. The z-axis runs to the right in FIG. In FIG. 2, the x-axis runs to the right, the y-axis runs upwards and the z-axis runs perpendicular to the plane of the drawing and out of it.
Ein gesamter Sichtbereich des Kalibrier-Sichtfeldes 5 kann beispielsweise in der xz-Ebene einen Erfassungswinkel von 100° überdecken. Auch andere Erfassungswinkel zwischen beispielsweise 10° und 180° sind möglich. Grundsätzlich ist es auch möglich, Kameras mit einem Erfassungswinkel zu kalibrieren, der größer ist als 180°. An entire field of view of the calibration field of view 5 can, for example, cover a detection angle of 100° in the xz plane. Other detection angles between, for example, 10° and 180° are also possible. In principle, it is also possible to calibrate cameras with a detection angle that is greater than 180°.
Die Halterung 4 ist an einem Tragrahmen 6 der Kalibrier-Vorrichtung 1 festgelegt. The holder 4 is fixed to a support frame 6 of the calibration device 1 .
Die Kalibrier-Vorrichtung 1 hat mindestens zwei und bei der dargestellten Ausführung insgesamt vier stationäre Referenzkameras 7, 8, 9 und 10 (vgl. Figur 3), von denen in der Figur 1 lediglich zwei stationäre Referenzkameras, nämlich die Referenzkameras 7 und 8 sichtbar sind. Die stationären Referenzkameras 7 bis 10 sind ebenfalls am Tragrahmen 6 montiert. Die stationären Referenzkameras 7 bis 10 dienen zur Aufnahme des Kalibrier-Sichtfeldes 5 aus unterschiedlichen Richtungen. The calibration device 1 has at least two and in the embodiment shown a total of four stationary reference cameras 7, 8, 9 and 10 (cf. FIG. 3), of which only two stationary reference cameras, namely the reference cameras 7 and 8, are visible in FIG . The stationary reference cameras 7 to 10 are also mounted on the support frame 6 . The stationary reference cameras 7 to 10 are used to record the calibration field of view 5 from different directions.
Die Figur 3 zeigt beispielhafte Dimensionsparameter, die bei der Kalibrier-Vorrichtung 1 eine Rolle spielen. FIG. 3 shows exemplary dimension parameters that play a role in the calibration device 1.
Haupt-Sichtlinien 11, 12, 13, 14 der stationären Referenzkameras 7 bis 10 sind in der Figur 3 strichpunktiert dargestellt. Main lines of sight 11, 12, 13, 14 of the stationary reference cameras 7 to 10 are shown in broken lines in FIG.
Diese Haupt-Sichtlinien 11 bis 14 schneiden sich in einem Punkt C (vgl. Figuren 1 und 3). Die Koordinaten dieses Schnittpunkts C sind in den Figuren 1 und 3 mit xc, yc und zc bezeichnet. Ein x- Ab stand zwischen den Referenzkameras 7 und 10 einerseits und den Referenzkameras 8 und 9 andererseits ist in der Figur 3 mit dxh bezeichnet. Eine x-Koordinate der stationären Referenzkameras 7 und 8 einerseits und 9 und 10 andererseits ist jeweils gleich. These main lines of sight 11 to 14 intersect at a point C (cf. FIGS. 1 and 3). The coordinates of this point of intersection C are denoted by x c , y c and z c in FIGS. An x-distance between the reference cameras 7 and 10 on the one hand and the reference cameras 8 and 9 on the other is denoted by dxh in FIG. An x-coordinate of the stationary reference cameras 7 and 8 on the one hand and 9 and 10 on the other hand is the same in each case.
Ein y- Abstand zwischen den stationären Referenzkameras 7 und 8 einerseits und 9 und 10 andererseits ist in der Figur 3 mit dyh bezeichnet. Eine y-Koordinate der stationären Referenzkameras 7 und 10 einerseits und 8 und 9 andererseits ist jeweils gleich. A y-distance between the stationary reference cameras 7 and 8 on the one hand and 9 and 10 on the other is denoted by dyh in FIG. A y-coordinate of the stationary reference cameras 7 and 10 on the one hand and 8 and 9 on the other hand is the same in each case.
Die Kalibrier-Vorrichtung 1 hat weiterhin mindestens eine stationäre Haupt-Kalibrierfläche, im dargestellten Ausführungsbeispiel drei Haupt-Kalibrierflächen 15, 16 und 17, die von entsprechenden Kalibrier-Tafeln vorgegeben werden. Die Haupt-Kalibrierfläche 15 erstreckt sich bei der Anordnung nach den Figuren 1 und 2 parallel zur xy-Ebene und bei einer z-Koordinate, die größer ist als zc. Die beiden weiteren, seitlichen Haupt-Kalibrierflächen 16, 17 erstrecken sich bei der Anordnung nach den Figuren 1 und 2 parallel zur yz-Ebene zu beiden Seiten der Anordnung der vier stationären Referenzkameras 7 bis 10. Die Haupt-Kalibrierflächen 15 bis 17 sind stationär ebenfalls am Tragrahmen 6 montiert. The calibration device 1 also has at least one stationary main calibration surface, in the exemplary embodiment shown three main calibration surfaces 15, 16 and 17, which are specified by corresponding calibration panels. In the arrangement according to FIGS. 1 and 2, the main calibration surface 15 extends parallel to the xy plane and at a z coordinate which is greater than z c . In the arrangement according to FIGS. 1 and 2, the two further lateral main calibration surfaces 16, 17 extend parallel to the yz plane on both sides of the arrangement of the four stationary reference cameras 7 to 10. The main calibration surfaces 15 to 17 are also stationary mounted on the support frame 6.
Die Haupt-Kalibrierflächen haben stationäre Haupt-Kalibrierstrukturen, für die Beispiele in der Figur 6 dargestellt sind. Jedenfalls einige dieser Kalibrierstrukturen sind im Kalibrier-Sichtfeld 5 angeordnet. Die Haupt-Kalibrierstrukturen können ein regelmäßiges, zum Beispiel in Form eines Rasters angeordnetes Muster aufweisen. Entsprechende Rasterpunkte, die Teil der Kalibrierstrukturen sind, sind in der Figur 6 bei 18 dargestellt. Die Kalibrierstrukturen können farbige Musterelemente aufweisen, wie in der Figur 6 bei 19 veranschaulicht. Weiterhin können die Kalibrierstrukturen unterschiedliche Größen haben. Im Vergleich zu den Rasterpunkten 18 vergrößerte Musterelemente als Haupt-Kalibrierstrukturen sind in der Figur 6 bei 20 hervorgehoben. Weiterhin können die Haupt-Kalibrierstrukturen kodierte Musterelemente, zum Beispiel QR- Codes 21 (vgl. Figur 6) aufweisen. The main calibration surfaces have stationary main calibration structures, examples of which are shown in FIG. In any case, some of these calibration structures are arranged in the calibration field of view 5 . The main calibration structures can have a regular pattern, for example arranged in the form of a grid. Corresponding grid points, which are part of the calibration structures, are shown at 18 in FIG. The calibration structures can have colored pattern elements, as illustrated at 19 in FIG. Furthermore, the calibration structures can have different sizes. In comparison to the raster points 18, pattern elements that are enlarged as the main calibration structures are emphasized at 20 in FIG. Furthermore, the main calibration structures can have encoded pattern elements, for example QR codes 21 (cf. FIG. 6).
Eine zum xyz-Koordinatensystem nach den Figuren 1 und 2 ausgerichtete Anordnung der Haupt- Kalibrierflächen 15 bis 17 ist nicht zwingend. Figur 3 zeigt eine beispielhaft verkippte Anordnung einer Haupt-Kalibrierfläche 15‘, die beispielsweise zur xy-Ebene einen Winkel aufweist. Zusätzlich ist in der Figur 3 noch ein externes Koordinatensystem XYZ beispielsweise einer Produktionshalle dargestellt, in dem die Kalibriervorrichtung 1 untergebracht ist. Das xyz-Koordina- tensystem des Koordinatensystems der Kalibriervorrichtung 1 einerseits und das XYZ- Koordinatensystem der Produktionshalle können gegeneinander verkippt sein, wie in der Figur 3 durch einen Kippwinkel rotz veranschaulicht ist. An arrangement of the main calibration surfaces 15 to 17 aligned with the xyz coordinate system according to FIGS. 1 and 2 is not mandatory. FIG. 3 shows an example of a tilted arrangement of a main calibration surface 15′, which is at an angle to the xy plane, for example. In addition, FIG. 3 shows an external coordinate system XYZ, for example of a production hall in which the calibration device 1 is accommodated. The xyz coordinate system of the calibration device 1 on the one hand and the XYZ coordinate system of the production hall can be tilted relative to one another, as illustrated in FIG. 3 by a tilt angle rot z .
Die Haupt-Kalibrierstrukturen 15 bis 17, 15‘ liegen also in einer Haupt-Kalibierstruktur-Haupt- ebene (xy-Ebene in der Anordnung nach den Figuren 1 und 2) und zusätzlich in einer Haupt-Ka- librierstruktur-Winkelebene (yz-Ebene in der Anordnung nach den Figuren 1 und 2) vor, wobei die Haupt-Kalibrierstruktur-Hauptebene xy unter einem Winkel größer als 5°, nämlich unter einem Winkel von 90°, zur Haupt-Kalibrierstruktur-Winkelebene yz angeordnet ist. Dieser Winkel zur Haupt-Kalibrierstruktur-Winkel ebene yz kann je nach Ausführung größer sein als 10°, kann größer sein als 20°, kann größer sein als 30°, kann größer sein als 45° und kann auch größer sein als 60°. Kleine Winkel, zum Beispiel im Bereich zwischen 1° und 10°, können dazu genutzt werden, mit den Haupt-Kalibrierstrukturen eine gekrümmte Kalibrierstruktur-Fläche anzunähern.The main calibration structures 15 to 17, 15' are therefore in a main calibration structure main plane (xy plane in the arrangement according to FIGS. 1 and 2) and additionally in a main calibration structure angle plane (yz plane in the arrangement according to FIGS. 1 and 2), the main calibration structure main plane xy being arranged at an angle greater than 5°, namely at an angle of 90°, to the main calibration structure angular plane yz. Depending on the design, this angle to the main calibration structure angle plane yz can be greater than 10°, can be greater than 20°, can be greater than 30°, can be greater than 45° and can also be greater than 60°. Small angles, for example in the range between 1° and 10°, can be used to approximate a curved calibration structure surface with the main calibration structures.
Bei der Anordnung nach den Figuren 1 und 2 sowie zusätzlich bei der Anordnung der Haupt-Ka- librierfläche 15‘ nach Figur 3 können mehr als zwei Haupt-Kalibrierstruktur-Flächen 15 bis 17, 15‘ in verschiedenen Haupt-Kalibrierstrukturebenen angeordnet sein. In the arrangement according to FIGS. 1 and 2 and additionally in the arrangement of the main calibration surface 15' according to FIG. 3, more than two main calibration structure surfaces 15 to 17, 15' can be arranged in different main calibration structure planes.
Eine Position der jeweiligen Haupt-Kalibrierfläche, beispielsweise der Haupt-Kalibrierfläche 15‘ im Vergleich zum xyz-Koordinatensystem kann definiert werden über eine Position eines Zentrums der Haupt-Kalibrierfläche sowie zweier Kippwinkel der Haupt-Kalibrierfläche 15‘ zu den xyz-Koordinaten. Ein weiterer Parameter, mit dem die jeweilige Haupt-Kalibrierfläche 15 bis 17 bzw. 15‘ charakterisiert wird, ist ein Rasterabstand grid der Rasterpunkte 18 der Kalibrierstruktur, der in der Figur 6 veranschaulicht ist. Die beiden grid-Werte, die bei der Haupt-Kalibrierfläche 15‘ in der Figur 6 horizontal und vertikal gegeben sind, müssen nicht zwingend gleich zueinander sein, sie müssen aber fest vorgegeben und bekannt sein. A position of the respective main calibration surface, for example the main calibration surface 15' in comparison to the xyz coordinate system can be defined via a position of a center of the main calibration surface and two tilt angles of the main calibration surface 15' to the xyz coordinates. A further parameter with which the respective main calibration surface 15 to 17 or 15' is characterized is a grid spacing grid of the grid points 18 of the calibration structure, which is illustrated in FIG. The two grid values that are given horizontally and vertically for the main calibration surface 15' in FIG. 6 do not necessarily have to be equal to one another, but they must be firmly specified and known.
Auch die Positionen der farbigen Musterelemente 19, der vergrößerten Musterelemente 20 und/oder der kodierten Musterelemente 21 innerhalb des Rasters der Rasterpunkte 18 ist jeweils für die Haupt-Kalibrierfläche 15 bis 17, 15‘ fest vorgegeben. Diese Lagebeziehungen der verschiedenen Musterelemente 18 bis 21 zueinander dienen zur Identifikation der jeweiligen Haupt- Kalibrierfläche, zur Bestimmung der absoluten Lage der jeweiligen Haupt-Kalibierfläche im Raum. Die vergrößerten Musterelemente 20 können zur Stützung der jeweiligen Lagebestimmung herangezogen werden. Unterschiedliche Größen der Musterelemente 18 bis 20 und auch der kodierten Musterelemente 21 ermöglichen eine Kalibriermessung im Nah- und im Fernbereich sowie auch eine Messung, bei der die Haupt-Kalibrierflächen 15 bis 17, 15‘ gegebenenfalls stark zur xy-Ebene verkippt sind. The positions of the colored pattern elements 19, the enlarged pattern elements 20 and/or the coded pattern elements 21 within the grid of the grid points 18 are also fixed in each case for the main calibration area 15 to 17, 15'. These positional relationships of the various pattern elements 18 to 21 to one another serve to identify the respective main calibration surface, to determine the absolute position of the respective main calibration surface im Space. The enlarged pattern elements 20 can be used to support the respective position determination. Different sizes of the pattern elements 18 to 20 and also the encoded pattern elements 21 enable a calibration measurement in the near and far range as well as a measurement in which the main calibration surfaces 15 to 17, 15' are tilted sharply to the xy plane.
Weiterhin hat die Kalibrier-Vorrichtung 1 mindestens eine und in der dargestellten Ausführung drei Zusatz-Kalibrierflächen 22, 23 und 24 mit Zusatz-Kalibrierstrukturen 25. Die Zusatz-Kalibrierflächen 22 bis 24 sind durch schalenförmige Kalibriertafeln realisiert. Die Zusatz-Kalibrierstrukturen 25 sind auf der jeweiligen Zusatz-Kalibrierfläche 22 bis 24 in Form eines 3x3-Ras- ters angeordnet. Die Zusatz-Kalibrierstrukturen 25 können ihrerseits jeweils Musterelemente nach Art der Musterelemente 18 bis 21 aufweisen, die vorstehend im Zusammenhang mit den Haupt-Kalibrierflächen erläutert wurden. Furthermore, the calibration device 1 has at least one and, in the embodiment shown, three additional calibration surfaces 22, 23 and 24 with additional calibration structures 25. The additional calibration surfaces 22 to 24 are realized by shell-shaped calibration panels. The additional calibration structures 25 are arranged on the respective additional calibration area 22 to 24 in the form of a 3×3 grid. The additional calibration structures 25 can in turn each have pattern elements in the manner of the pattern elements 18 to 21 which were explained above in connection with the main calibration areas.
Die Zusatz-Kalibrierflächen 22 bis 24 sind gemeinsam auf einem beweglichen Haltearm 26 montiert. Letzterer ist über einen Getriebemotor 27, also einen Kalibrierflächen-Verlagerungsan- trieb, um eine Schwenkachse 28 schwenkbar, die parallel zur x-Richtung verläuft. Über den Getriebemotor 27 sind die Zusatz-Kalibrierstrukturen 22 bis 24 zwischen einer Neutralposition und einer Betriebsposition verlagerbar. Durchgezogen ist in den Figuren 1 und 2 jeweils die Neutralposition der Zusatz-Kalibrierstrukturen 22 bis 24 dargestellt, in der diese außerhalb des Kalibrier-Sichtfeldes 5 angeordnet sind. Gestrichelt ist in der Figur 1 eine im Vergleich zur Neutralposition hochgeschwenkte Betriebsposition des Haltearms 26 und der Zusatz-Kalibrierflächen 22 bis 24 dargestellt. In der Betriebsposition sind die Zusatz-Kalibrierflächen 22 bis 24 im Kalibrier-Sichtfeld 5 angeordnet. The additional calibration surfaces 22 to 24 are mounted together on a movable holding arm 26 . The latter can be pivoted about a pivot axis 28, which runs parallel to the x-direction, via a geared motor 27, ie a calibration surface displacement drive. The additional calibration structures 22 to 24 can be displaced between a neutral position and an operating position via the geared motor 27 . The neutral position of the additional calibration structures 22 to 24 is shown in solid lines in FIGS. 1 and 2, in which these are arranged outside of the calibration field of view 5. An operating position of the holding arm 26 and the additional calibration surfaces 22 to 24 which is swiveled up compared to the neutral position is shown in dashed lines in FIG. The additional calibration surfaces 22 to 24 are arranged in the calibration field of view 5 in the operating position.
In der Betriebsposition liegt eine zentrale Zusatz-Kalibrierstruktur 25z (vgl. auch Figur 3) beispielsweise, wie in den Figuren 1 und 2 gezeigt, parallel zur xy-Ebene. Die 3x3-Rasteranordnung der Zusatz-Kalibrierstrukturen 25 liegt in der Betriebsposition dann in drei längs der x-Richtung verlaufenden Zeilen 251, 252 und 25s sowie in drei parallel zur y-Richtung verlaufenden Spalten vor. Jeweils benachbarte Zeilen und jeweils benachbarte Spalten der Zusatz-Kalibrierstrukturen 25 sind zueinander um einen Kippwinkel a verkippt, der im Bereich zwischen 5° und 45°, beispielsweise im Bereich von 30° liegen kann. Für die vier jeweils in den Ecken des 3x3-Rasters angeordneten Rasterbereiche liegt diese Verkippung um den Kippwinkel a um zwei aufeinander senkrecht stehende Achsen vor. Es ergibt sich dann der schalenförmige Grundaufbau der jeweiligen Zusatz-Kalibrierfläche 22 bis 24. Die Zusatz-Kalibrierstrukturen 25 liegen in einer von einer ebenen Fläche abweichenden 3D-Anordnung vor. In the operating position, a central additional calibration structure 25z (cf. also FIG. 3), for example, as shown in FIGS. 1 and 2, lies parallel to the xy plane. In the operating position, the 3×3 grid arrangement of the additional calibration structures 25 is then present in three rows 251, 252 and 25s running along the x-direction and in three columns running parallel to the y-direction. Each adjacent row and each adjacent column of the additional calibration structures 25 are tilted to one another by a tilt angle α, which can be in the range between 5° and 45°, for example in the range of 30°. For the four grid areas arranged in the corners of the 3×3 grid, this tilting by the tilting angle a is two on top of one another vertical axes. This then results in the shell-shaped basic structure of the respective additional calibration surface 22 to 24. The additional calibration structures 25 are present in a 3D arrangement that deviates from a flat surface.
Zur Kalibrier-Vorrichtung 1 gehört weiterhin eine Auswerteeinheit 29 zur Verarbeitung von aufgenommenen Kameradaten der zu kalibrierenden Kamera 2 sowie der stationären Referenzkameras 7 bis 10 sowie von Zustandsparametern der Vorrichtung, also insbesondere der Position der Zusatz-Kalibrierflächen 22 bis 24 sowie der Haupt-Kalibrierflächen 15 bis 17 sowie von Positionen und Sichtlinien-Verläufen der Referenzkameras 7 bis 10. Die Auswerteeinheit 29 kann einen Speicher für Bilddaten aufweisen. The calibration device 1 also includes an evaluation unit 29 for processing camera data recorded by the camera 2 to be calibrated and the stationary reference cameras 7 to 10 as well as status parameters of the device, i.e. in particular the position of the additional calibration surfaces 22 to 24 and the main calibration surfaces 15 to 17 and of positions and line-of-sight courses of the reference cameras 7 to 10. The evaluation unit 29 can have a memory for image data.
Zur Kalibrier-Vorrichtung 1 gehört weiterhin eine bewegliche Referenzkamera 30, die ebenfalls der Aufnahme des Kalibrier-Sichtfeldes 5 dient. The calibration device 1 also includes a movable reference camera 30 which is also used to record the calibration field of view 5 .
Figur 3 veranschaulicht Bewegungsfreiheitsgrade der beweglichen Referenzkamera 30, nämlich zwei Kipp-Freiheitsgrade und einen Translationsfreiheitsgrad. FIG. 3 illustrates degrees of freedom of movement of the movable reference camera 30, namely two degrees of freedom for tilting and one degree of freedom for translation.
Figur 4 zeigt Details der beweglichen Referenzkamera 30. Diese ist über einen Kam era- Verlagerungsantrieb 31 zwischen einer ersten Sichtfeld- Aufnahmeposition und mindestens einer weiteren Sichtfeld- Aufnahmeposition verlagerbar, die sich von der ersten Sichtfeld- Aufnahmeposition in einer Bildaufnahmerichtung (vgl. die Aufnahmerichtung 32 in der Figur 1) unterscheidet. Figure 4 shows details of the movable reference camera 30. This can be moved via a camera displacement drive 31 between a first field of view recording position and at least one other field of view recording position, which extends from the first field of view recording position in an image recording direction (cf. the recording direction 32 in Figure 1) differs.
Der Kam era- Verlagerungsantrieb 31 beinhaltet einen ersten Schwenkmotor 33, einen zweiten Schwenkmotor 34 und einen Linearverlagerungs-Motor 35. Ein Kamerakopf 36 der beweglichen Referenzkamera 30 ist an einer Schwenkkomponente des ersten Schwenkmotors 33 über eine Halteplatte 37 montiert. Über den ersten Schwenkmotor 33 kann der Kamerakopf 36 um eine Achse parallel zur x-Achse verschwenkt werden. Der erste Schwenkmotor 33 ist über eine weitere Halteplatte 38 an einem Schwenkelement des zweiten Schwenkmotors 34 montiert. Über den zweiten Schwenkmotor 34 ist ein Verschwenken des Kamerakopfes 36 um eine zur y- Achse parallele Schwenkachse möglich. Über einen Haltebügel 39 ist der zweite Schwenkmotor 34 an einer Linearverlagerungseinheit 40 des Linearverlagerungs-Motors 35 montiert. Über den Linearverlagerungs-Motor 35 ist eine Linearverlagerung des Kamerakopfes 36 parallel zur x-Achse möglich. The camera displacement drive 31 includes a first pan motor 33, a second pan motor 34 and a linear displacement motor 35. The camera head 36 can be pivoted about an axis parallel to the x-axis via the first pivoting motor 33 . The first swing motor 33 is mounted on a swing member of the second swing motor 34 via another support plate 38 . Pivoting of the camera head 36 about a pivoting axis parallel to the y-axis is possible via the second pivoting motor 34 . The second swivel motor 34 is mounted on a linear displacement unit 40 of the linear displacement motor 35 via a bracket 39 . A linear displacement of the camera head 36 parallel to the x-axis is possible via the linear displacement motor 35 .
Der Kam era- Verlagerungsantrieb 31 und auch der Kamerakopf 36 der Referenzkamera 30 stehen mit der Auswerteeinheit 29 in Signalverbindung. Die Lage des Kamerakopfes 36 wird dabei der Auswerteeinheit 29 abhängig von der Position der Motoren 33 bis 35 und auch abhängig von der Montagesituation des Kamerakopfes 36 zum ersten Schwenkmotor 33 jeweils exakt übermittelt. The camera displacement drive 31 and also the camera head 36 of the reference camera 30 are in signal communication with the evaluation unit 29 . The position of the camera head 36 is transmitted exactly to the evaluation unit 29 as a function of the position of the motors 33 to 35 and also as a function of the installation situation of the camera head 36 with respect to the first swivel motor 33 .
Die über den ersten Schwenkmotor 33 vorgebbare Winkelposition des Kamerakopfes 36 wird auch als Nickwinkel bezeichnet. Anstelle des ersten Schwenkmotors 33 kann auch eine Veränderung eines Nickwinkels über eine Gelenkverbindung des Kamerakopfes 36 über eine zur x- Achse parallele Gelenkachse und einen in y-Richtung verlagerbaren Linearantrieb mit zwei Anschlägen zur Vorgabe zweier unterschiedlicher Nickwinkel, der mit dem Kamerakopf 36 verbunden ist, realisiert sein. Die über den zweiten Schwenkmotor 34 vorgebbare Winkelposition des Kamerakopfes 36 wird auch als Gierwinkel bezeichnet. The angular position of the camera head 36 that can be predetermined via the first swivel motor 33 is also referred to as the pitch angle. Instead of the first swivel motor 33, a pitch angle can also be changed via a joint connection of the camera head 36 via a joint axis parallel to the x-axis and a linear drive that can be displaced in the y-direction and has two stops for specifying two different pitch angles, which is connected to the camera head 36. be realised. The angular position of the camera head 36 that can be predetermined via the second swivel motor 34 is also referred to as the yaw angle.
Figur 5 verdeutlicht beispielhaft acht Varianten von Positionierungen des Kamerakopfes 36 der beweglichen Referenzkamera 30 unter Nutzung der drei Bewegungs-Freiheitsgrade, die in der Figur 3 veranschaulicht sind. FIG. 5 illustrates, by way of example, eight variants of positioning of the camera head 36 of the movable reference camera 30 using the three degrees of freedom of movement, which are illustrated in FIG.
Dargestellt ist strichpunktiert jeweils die Bildaufnahmerichtung 32 abhängig vom jeweils eingestellten Nickwinkel ax und Gierwinkel ay. In der oberen Zeile der Figur 5 liegt der Kamerakopf bei einer kleinen x-Koordinate xmin vor. In der unteren Zeile der Figur 5 liegt der Kamerakopf 36 an einer im Vergleich hierzu größeren x-Koordinate xmax vor. Die acht Bildaufnahmerichtungen nach Figur 5 repräsentieren unterschiedliche Parametertripel (Position x; ax; ay) mit jeweils zwei diskreten Werten für jeden dieser drei Parameter. The image recording direction 32 is shown in broken lines as a function of the respectively set pitch angle ax and yaw angle ay. In the upper line of FIG. 5, the camera head is at a small x-coordinate x m in . In the bottom line of FIG. 5, the camera head 36 is located at an x coordinate x max that is larger than this. The eight imaging directions according to FIG. 5 represent different parameter triples (position x; ax; ay) each with two discrete values for each of these three parameters.
Bei einer Variante der Kalibrier-Vorrichtung kann auf die bewegliche Referenzkamera 30 auch verzichtet werden. In a variant of the calibration device, the movable reference camera 30 can also be dispensed with.
Zum Kalibrieren einer räumlichen Lage eines Zentrums einer Eintrittspupille der zu kalibrierenden Kamera 2 wird die Kalibrier-Vorrichtung 1 folgendermaßen eingesetzt: Zunächst wird die zu kalibrierende Kamera 2 in der Halterung 4 gehaltert. The calibration device 1 is used as follows to calibrate a spatial position of a center of an entrance pupil of the camera 2 to be calibrated: First, the camera 2 to be calibrated is held in the mount 4 .
Anschließend werden die stationären Haupt-Kalibrierflächen 15 bis 17 bzw. 15‘ mit der zu kalibrierenden Kamera 2 und den Referenzkameras 7 bis 10 sowie 30 erfasst, wobei die Zusatz-Kalibrierflächen 22 bis 24 in der Neutralposition vorliegen. The stationary main calibration surfaces 15 to 17 and 15' are then recorded with the camera 2 to be calibrated and the reference cameras 7 to 10 and 30, with the additional calibration surfaces 22 to 24 being in the neutral position.
Die Zusatz-Kalibrierflächen 22 bis 24 werden dann zwischen der Neutralposition und der Betrieb sposition mit dem Kalibrierflächen-Verlagerungsantrieb 27 verlagert. Anschließend werden die Zusatz-Kalibrierflächen 22 bis 24 mit der zu kalibrierenden Kamera 2 und mit den Referenzkameras 7 bis 10 sowie 30 erfasst, wobei die Zusatz-Kalibrierstrukturen 25 in der Betriebsposition vorliegen. Es werden dann die aufgenommenen Bilddaten der zu kalibrierenden Kamera 2 und der Referenzkameras 7 bis 10 sowie 30 mit der Auswerteeinheit 29 ausgewertet. Diese Auswertung erfolgt über eine Vektoranalyse der aufgenommenen Bilddaten unter Berücksichtigung der Positionen der aufgenommenen Kalibrierstrukturen 18 bis 21 sowie 25. The additional calibration surfaces 22 to 24 are then shifted between the neutral position and the operating position with the calibration surface displacement drive 27 . The additional calibration surfaces 22 to 24 are then recorded with the camera 2 to be calibrated and with the reference cameras 7 to 10 and 30, with the additional calibration structures 25 being in the operating position. The recorded image data of the camera 2 to be calibrated and of the reference cameras 7 to 10 and 30 are then evaluated with the evaluation unit 29 . This evaluation is carried out via a vector analysis of the recorded image data, taking into account the positions of the recorded calibration structures 18 to 21 and 25.
Beim Erfassen der Haupt-Kalibrierflächen 15 bis 17 und der Zusatz-Kalibrierflächen 22 bis 24 kann jeweils ein erstes Erfassen der Haupt-Kalibrierflächen 15 bis 17, 15‘ einerseits und der Zusatz-Kalibrierflächen 22 bis 24 andererseits mit der beweglichen Kamera 30 in der ersten Sichtfeld-Aufnahmeposition und, nach Verlagern der beweglichen Referenzkamera 30 mit dem Kamera-Verlagerungsantrieb 31, in der mindestens einen weiteren Sichtfeld- Aufnahmeposition erfolgen, wobei beim Auswerten der aufgenommenen Bilddaten auch die Bilddaten der beweglichen Referenzkamera 30 in den mindestens zwei Sichtfeld- Aufnahmepositionen berücksichtigt werden. When capturing the main calibration surfaces 15 to 17 and the additional calibration surfaces 22 to 24, the main calibration surfaces 15 to 17, 15' on the one hand and the additional calibration surfaces 22 to 24 on the other hand can be captured with the movable camera 30 in the first field of view recording position and, after moving the movable reference camera 30 with the camera displacement drive 31, in the at least one further field of view recording position, the image data of the movable reference camera 30 in the at least two field of view recording positions also being taken into account when evaluating the recorded image data .
Eine Erfassungs-Reihenfolge der Kalibrierflächen 15 bis 17 sowie 22 bis 24 kann folgendermaßen sein: Zunächst werden die Haupt-Kalibrierflächen 15 bis 17 mit der beweglichen Kamera 30 in der ersten Sichtfeld- Aufnahmeposition erfasst. Dann werden die Zusatz-Kalibrierflächen 22 bis 24 in die Betriebsposition verlagert und mit der beweglichen Referenzkamera 30 wiederum in der ersten Sichtfeld- Aufnahmeposition erfasst. Die bewegliche Referenzkamera 30 wird dann in die weitere Sichtfeld- Aufnahmeposition verlagert, wobei die Zusatz-Kalibrierflächen 22 bis 24 in der Betriebsposition verbleiben. Anschließend erfolgt eine Erfassung der Zusatz-Kalibrier- flächen 22 bis 24 mit der beweglichen Referenzkamera 30 in der weiteren Sichtfeld-Aufnahmeposition. Die Zusatz-Kalibrierflächen 22 bis 24 werden dann in die Neutralposition verlagert und es erfolgt ein weiteres Erfassen der Haupt-Kalibrierflächen 15 bis 17 mit der beweglichen Referenzkamera in der weiteren Sichtfeld- Aufnahmeposition. Während dieser Abfolge kann in Zeiträumen, in denen die Zusatz-Kalibrierflächen 22 bis 24 in der Neutralposition vorliegen, eine Erfassung der Haupt-Kalibrierflächen 15 bis 17 auch mit den stationären Referenzkameras 7 bis 10 erfolgen und, soweit die Zusatz-Kalibrierflächen 22 bis 24 in der Betriebsposition vorliegen, eine Erfassung von diesen Zusatz-Kalibrierflächen 22 bis 24 auch mit den stationären Referenzkameras 7 bis 10. A detection order of the calibration areas 15 to 17 and 22 to 24 can be as follows: First, the main calibration areas 15 to 17 are recorded with the movable camera 30 in the first field of view recording position. Then the additional calibration surfaces 22 to 24 are shifted into the operating position and again recorded with the movable reference camera 30 in the first field of view recording position. The movable reference camera 30 is then shifted to the further field of view recording position, with the additional calibration surfaces 22 to 24 remaining in the operating position. The additional calibration surfaces 22 to 24 with the movable reference camera 30 in the further field of view recording position. The additional calibration surfaces 22 to 24 are then shifted to the neutral position and the main calibration surfaces 15 to 17 are further recorded with the movable reference camera in the further field of view recording position. During this sequence, in periods when the additional calibration surfaces 22 to 24 are in the neutral position, the main calibration surfaces 15 to 17 can also be recorded with the stationary reference cameras 7 to 10 and, insofar as the additional calibration surfaces 22 to 24 are in of the operating position, a detection of these additional calibration surfaces 22 to 24 with the stationary reference cameras 7 to 10.
Anhand der Figur 7 wird nachfolgend ein System 41 zur Bestimmung relativer Positionen von Zentren von Eintrittspupillen mindestens zweier Kameras 42, 43, 44 zueinander beschrieben, die an einem gemeinsamen Tragrahmen 45 montiert sind. A system 41 for determining relative positions of centers of entrance pupils of at least two cameras 42, 43, 44 to one another, which are mounted on a common support frame 45, is described below with reference to FIG.
Die Kameras 42 bis 44 können dabei vorab hinsichtlich der Lage ihres jeweiligen Eintrittspupil- len-Zentrums mit Hilfe der Kalibrier-Vorrichtung 1 kalibriert worden sein. The cameras 42 to 44 can be calibrated in advance with the help of the calibration device 1 with regard to the position of their respective entrance pupil center.
Eine nominale Position der Kameras 42 bis 44 relativ zum Tragrahmen 45, also eine Soll-Einbauposition ist bei Durchführung dieser relativen Positionsbestimmung mittels des Systems 41 bekannt. A nominal position of the cameras 42 to 44 relative to the support frame 45, that is to say a target installation position, is known when this relative position determination is carried out using the system 41.
Bei den Kameras 42 bis 44 kann es sich beispielsweise um Kameras an einem Fahrzeug handeln, die zur Bereitstellung einer Funktion „autonomes Fahren“ genutzt werden sollen. The cameras 42 to 44 can be, for example, cameras on a vehicle that are to be used to provide an “autonomous driving” function.
Das System 41 hat mehrere Kalibrierstruktur-Trägerkomponenten 46, 47, 48 und 49. Bei der Kalibrierstruktur-Trägerkomponente 46 handelt es sich um eine Master-Komponente zur Vorgabe eines Master-Koordinatensystems xyz. Die x-Achse dieses Master-Koordinatensystems verläuft in der Figur 7 nach rechts, die y- Achse verläuft nach oben und z- Achse verläuft senkrecht zur Zeichenebene aus dieser heraus. The system 41 has several calibration structure support components 46, 47, 48 and 49. The calibration structure support component 46 is a master component for specifying a master coordinate system xyz. The x-axis of this master coordinate system runs to the right in FIG. 7, the y-axis runs upwards and the z-axis runs out of the plane of the drawing perpendicularly.
Für die Kalibrierstrukturen, die auf den Kalibrierstruktur-Trägerkomponenten 46 bis 49 aufgebracht sind, gilt, was vorstehend zu den Kalibrierstrukturen 18 bis 21 in Zusammenhang insbesondere mit der Figur 6 erläutert wurde. Die Kalibrierstruktur-Trägerkomponenten 46 bis 49 sind in einer Betriebsposition des Systems 41 um den Tragrahmen 45 herum so angeordnet, dass jede der Kameras 42 bis 44 mindestens Kalibrierstrukturen von zweien der Kalibrierstruktur-Trägerkomponenten 46 bis 49 erfasst. Eine derartige Anordnung ist nicht zwingend, es ist also möglich, dass zumindest einzelne der Kameras 42 bis 44 Kalibrierstrukturen von lediglich genau einer der Kalibrierstruktur-Trägerkomponenten 46 bis 49 erfassen. Die Anordnung der Kalibrierstruktur-Trägerkomponenten 46 bis 49 ist zudem so, dass mindestens eine der Kalibrierstrukturen auf genau einer der Kalibrierstruktur- Trägerkomponenten 46 bis 49 von zweien der Kameras 42 bis 44 erfasst wird. Um diese Bedingungen zu gewährleisten, kann gegebenenfalls der Tragrahmen 45 relativ zu den Kalibrierstruktur-Trägerkomponenten 46 bis 49, die ihre Positionen jeweils nicht ändern, verlagert werden. What was explained above in relation to the calibration structures 18 to 21 in connection in particular with FIG. 6 applies to the calibration structures which are applied to the calibration structure carrier components 46 to 49 . The calibration structure support components 46 to 49 are arranged around the support frame 45 in an operating position of the system 41 such that each of the cameras 42 to 44 captures at least calibration structures of two of the calibration structure support components 46 to 49 . Such an arrangement is not mandatory, it is therefore possible for at least one of the cameras 42 to 44 to record calibration structures of just exactly one of the calibration structure carrier components 46 to 49 . The arrangement of the calibration structure carrier components 46 to 49 is also such that at least one of the calibration structures on exactly one of the calibration structure carrier components 46 to 49 is recorded by two of the cameras 42 to 44 . In order to ensure these conditions, the support frame 45 can, if necessary, be displaced relative to the calibration structure support components 46 to 49, which do not change their respective positions.
Figur 7 verdeutlicht ein Lagebeispiel des Tragrahmens 45 mit Ist-Positionen der Kameras 42, 43, 44 auf dem nicht nochmals gezeigten Tragrahmen derart, dass ein Sichtfeld 50 der Kamera 42 die Kalibrierstrukturen der Kalibrierstruktur-Trägerkomponenten 46 und 47 erfasst, während die Kamera 43 mit ihrem Sichtfeld 51 die Kalibrierstrukturen der Kalibrierstruktur-Trägerkomponenten 47 und 48 erfasst und während die weitere Kamera 44 mit ihrem Sichtfeld 52 die Kalibrierstrukturen der Kalibrierstruktur-Trägerkomponenten 48 und 49 erfasst. Figure 7 illustrates a position example of the support frame 45 with the actual positions of the cameras 42, 43, 44 on the support frame (not shown again) such that a field of view 50 of the camera 42 captures the calibration structures of the calibration structure support components 46 and 47, while the camera 43 with its field of view 51 captures the calibration structures of the calibration structure carrier components 47 and 48 and while the further camera 44 captures the calibration structures of the calibration structure carrier components 48 and 49 with its field of view 52 .
Eine relative Lage der Kalibrierstruktur-Trägerkomponenten 46 bis 49 zueinander muss vorab nicht streng definiert sein, darf sich aber während des Positionsbestimmungsverfahrens mittels des Systems 41 nicht ändern. A position of the calibration structure carrier components 46 to 49 relative to one another does not have to be strictly defined in advance, but must not change using the system 41 during the position determination method.
Zum System 41 gehört weiterhin eine Auswerteeinheit 53 zur Verarbeitung von aufgenommenen Kameradaten der Kameras 42 bis 44 sowie gegebenenfalls von Zustandsparametem während der Positionsbestimmung, also insbesondere einer Identifikation des jeweiligen Tragrahmens 45. System 41 also includes an evaluation unit 53 for processing recorded camera data from cameras 42 to 44 and, if applicable, status parameters during position determination, i.e. in particular an identification of the respective support frame 45.
Zur Bestimmung der relativen Positionen der Eintrittspupillen-Zentren der Kameras 42 bis 44 wird das System 41 folgendermaßen eingesetzt: To determine the relative positions of the entrance pupil centers of cameras 42-44, system 41 is used as follows:
In einem ersten Vorbereitungsschritt werden die Kameras 42 bis 44 am gemeinsamen Tragrahmen 45 montiert. In einem weiteren Vorbereitungsschritt werden die Kalibrierstruktur-Träger- komponenten 46 bis 49 als Gruppe von Kalibrierstruktur-Trägerkomponenten um den Tragrahmen 45 herum angeordnet. Dies kann auch so geschehen, dass die Gruppe der Kalibrierstruktur- Trägerkomponenten 46 bis 49 in einem Vorbereitungsschritt ausgelegt wird und der Tragrahmen dann relativ zu dieser Gruppe in Position gebracht wird. Zudem wird über die Ausrichtung der Masterkomponente 46 das xyz-Koordinatensystem definiert. Die anderen Kalibrierstruktur-Trägerkomponenten 47 bis 49 müssen nicht zu diesem xyz-Koordinatensystem ausgerichtet sein. In a first preparatory step, the cameras 42 to 44 are mounted on the common support frame 45 . In a further preparatory step, the calibration structure carrier components 46 to 49 are arranged around the support frame 45 as a group of calibration structure support components. This can also be done in such a way that the group of calibration structure support components 46 to 49 is laid out in a preparatory step and the support frame is then positioned relative to this group. In addition, the xyz coordinate system is defined via the alignment of the master component 46 . The other calibration structure support components 47 to 49 do not have to be aligned with this xyz coordinate system.
Nun erfolgt ein Erfassen der im Sichtfeld der Kameras 42 bis 44 liegenden Kalibrierstruktur-Trägerkomponenten 46 bis 49 in einer vorgegebenen Relativposition des Tragrahmens 45 zur Gruppe der Kalibrierstruktur-Trägerkomponenten 46 bis 49, beispielsweise in der Ist-Position der Kameras 42 bis 44 nach Figur 7. Die aufgenommenen Bilddaten der Kameras 42 bis 44 werden dann mit der Auswerteeinheit 53 ausgewertet, sodass die exakten Lagen der Zentren der Eintrittspupillen sowie auch der Bildaufnahmerichtungen der Kameras 42 bis 44 im Koordinatensystem der Master-Komponente 46 ermittelt werden. Diese Ist-Positionen werden dann in Koordinaten des Tragrahmens 45 umgerechnet und mit den nominalen Soll-Positionen abgeglichen. Dies kann im Rahmen eines Best Fit- Verfahrens geschehen. The calibration structure support components 46 to 49 in the field of view of the cameras 42 to 44 are now detected in a predetermined relative position of the support frame 45 to the group of calibration structure support components 46 to 49, for example in the actual position of the cameras 42 to 44 according to Figure 7 The image data recorded by the cameras 42 to 44 are then evaluated with the evaluation unit 53 so that the exact positions of the centers of the entrance pupils and also the image recording directions of the cameras 42 to 44 in the coordinate system of the master component 46 are determined. These actual positions are then converted into coordinates of the support frame 45 and compared with the nominal target positions. This can be done as part of a best-fit procedure.
Bei dem Bestimmungsverfahren kann der Tragrahmen zwischen verschiedenen Kamera-Erfassungspositionen auch derart verlagert werden, dass mindestens eine der Kameras, deren Relativposition bestimmt werden soll, eine Kalibrierstruktur-Trägerkomponente erfasst, die vorher von dieser Kamera noch nicht erfasst war. Dieser Schritt des Erfassens und des Verlagerns des Tragrahmens kann so oft wiederholt werden, bis für alle Kameras, deren Relativpositionen zueinander bestimmt werden sollen, die Bedingung erfüllt ist, dass jede der Kameras mindestens Kalibrierstrukturen von zweien der Kalibrierstruktur-Trägerkomponenten erfasst, wobei mindestens eine der Kalibrierstrukturen von zwei der Kameras erfasst wird. In the determination method, the support frame can also be shifted between different camera detection positions in such a way that at least one of the cameras whose relative position is to be determined detects a calibration structure support component that was not previously detected by this camera. This step of detecting and moving the support frame can be repeated until the condition is met for all cameras whose relative positions to one another are to be determined, that each of the cameras detects at least calibration structures of two of the calibration structure support components, with at least one of the Calibration structures is captured by two of the cameras.
Anhand der Figuren 8 bis 10 wird nachfolgend ein Verfahren zur räumlichen Bilderfassung mit Hilfe einer zwei Kameras 54, 55 aufweisenden Stereokamera 55a beschrieben. Diese Kameras 54 bis 55 können einen Vorbereitungsschritt mit Hilfe der Kalibrier-Vorrichtung 1 kalibriert worden und auch hinsichtlich ihrer Relativposition mit Hilfe des Systems 41 vermessen worden sein. Die Kameras 54, 55 sind wiederum an einem Tragrahmen montiert. Die in der Figur 8 links dargestellte Kamera 54 wird als Master-Kamera zur Definition eines Master-Koordinatensystems xm, ym und zm herangezogen, zm ist hierbei die Bildaufnahmerichtung der Master-Kamera 54. Die zweite, in der Figur 8 rechts dargestellte Kamera 55 ist dann die Slave-Kamera. A method for spatial image acquisition using a stereo camera 55a having two cameras 54, 55 is described below with reference to FIGS. These cameras 54 to 55 can have been calibrated in a preparatory step with the aid of the calibration device 1 and also measured with the aid of the system 41 with regard to their relative position. The cameras 54, 55 are in turn mounted on a support frame. The camera 54 shown on the left in FIG. 8 is used as the master camera to define a master coordinate system xm, ym and zm, where zm is the image recording direction of the master camera 54. The second camera 55 shown on the right in FIG then the slave camera.
Die Master-Kamera 54 ist mit einer inertialen Master-Messeinheit 56 (IMU) fest verbunden, die als Drehratensensor, insbesondere in Form eines mikro-elektro-mechanischen Systems (MEMS) ausgebildet sein kann. Die Master-Messeinheit 56 misst Winkeländerungen eines Nickwinkels daxm, eines Gierwinkels daym sowie eines Rollwinkels dazm der Master-Kamera 54 und erlaubt somit, in Echtzeit Lageänderungen des Master-Koordinatensystems xm, ym, zm zu überwachen. Eine Zeitkonstante dieser Echtzeit-Lageänderungs-Erfassung kann besser sein als 500 ms, kann besser sein als 200 ms und kann auch besser sein als 100 ms. The master camera 54 is permanently connected to an inertial master measurement unit 56 (IMU), which can be embodied as a yaw rate sensor, in particular in the form of a micro-electro-mechanical system (MEMS). The master measurement unit 56 measures angle changes in a pitch angle daxm, a yaw angle day m and a roll angle daz m of the master camera 54 and thus allows position changes in the master coordinate system xm, ym, zm to be monitored in real time. A time constant of this real-time attitude change detection can be better than 500 ms, can be better than 200 ms and can also be better than 100 ms.
Auch die Slave-Kamera 55 ist mit einer zugehörigen inertialen Slave-Messeinheit 57 fest verbunden, über die Winkeländerungen eines Nickwinkels daxs, eines Gierwinkels days und eines Rollwinkels dazs der Slave-Kamera 55 in Echtzeit erfasst werden können, sodass relative Änderungen des Slave-Koordinatensystems xs, ys, zs zum Master-Koordinatensystem xm, ym, zm wiederum jeweils in Echtzeit erfasst werden können. Relativbewegungen der Kameras 54, 55 der Stereokamera 55a zueinander können in Echtzeit über die Messeinheiten 56, 57 erfasst und in das räumliche Bilderfassungsverfahren einbezogen werden. Die Messeinheiten 56, 57 können zur Vorhersage einer Relativlageänderung der Kameras 54, 55 zueinander genutzt werden. Eine im Rahmen der räumlichen Bilderfassung erfolgende Bildverarbeitung kann diese Relativlagevorhersage dann noch verbessern. Selbst dann, wenn beispielsweise aufgrund einer Bewegung eines Tragrahmens, auf dem die Stereokamera 54a untergebracht ist, auf unebenem Untergrund, sich die Kameras 54, 55 laufend gegeneinander bewegen, ergibt sich dennoch ein stabiles Ergebnis der räumlichen Bilderfassung. The slave camera 55 is also permanently connected to an associated inertial slave measuring unit 57, via which angle changes in a pitch angle dax s , a yaw angle day s and a roll angle daz s of the slave camera 55 can be recorded in real time, so that relative changes in the Slave coordinate system xs, ys, zs to the master coordinate system xm, ym, zm can in turn be detected in real time. Movements of the cameras 54, 55 of the stereo camera 55a relative to one another can be recorded in real time via the measuring units 56, 57 and included in the three-dimensional image recording method. The measuring units 56, 57 can be used to predict a change in the position of the cameras 54, 55 relative to one another. Image processing that takes place as part of the spatial image acquisition can then improve this relative position prediction. Even if, for example, due to a movement of a supporting frame on which the stereo camera 54a is accommodated, the cameras 54, 55 move continuously towards one another on an uneven surface, a stable result of the three-dimensional image acquisition still results.
Eine Verbindunglinie zwischen den Zentren der Eintrittspupillen der Kameras 54, 55 ist in der Figur 8 mit 58 bezeichnet und stellt die Baseline der Stereokamera 55a dar. A connecting line between the centers of the entrance pupils of the cameras 54, 55 is denoted by 58 in FIG. 8 and represents the baseline of the stereo camera 55a.
Beim Verfahren zur räumlichen Bilderfassung werden folgende Winkel erfasst, die für die Lagebeziehung der Slave-Kamera 55 zur Master-Kamera 54 relevant sind: der Winkel bys, also eine Verkippung einer auf der Ebene xmzm senkrecht stehenden Ebene, durch die die Baseline 58 verläuft, zur Ebene xmym um die Kippachse ym; bzs: eine der Verkippung bys entsprechende Verkippung der Baseline 58 zur Ebene xmzm um eine zur Slave-Koordinatenachse zs parallele Kippachse; axs: eine Verkippung der Slave-Koordinatenachse zs, also der Bildaufnahmerichtung der Slave-Kamera 55, zur Ebene xmzm um die Slave-Koordinatenachse xs; ays: eine der Verkippung axs entsprechende Verkippung der Slave-Koordinatenachse xs relativ zur Master-Ebene xmym um die Slave-Koordinatenachse ys sowie azs: eine den Verkippungen axs, ays entsprechende Verkippung der Slave-Koordinatenachse ys zur Master-Koordinatenebene ymzm um die Slave-Koordinatenachse zs. The following angles, which are relevant for the positional relationship of the slave camera 55 to the master camera 54, are recorded in the method for spatial image acquisition: the angle by s , ie a tilting of a plane that is perpendicular to the xmzm plane and through which the baseline 58 runs, to the xmym plane about the tilting axis ym; bz s : a tilting of the baseline 58 corresponding to the tilting by s with respect to the xmzm plane about a tilting axis parallel to the slave coordinate axis zs; ax s : a tilting of the slave coordinate axis zs, ie the image recording direction of the slave camera 55, to the xmzm plane about the slave coordinate axis xs; ay s : a tilting of the slave coordinate axis xs relative to the master plane xmym about the slave coordinate axis ys, corresponding to the tilting ax s , and az s : a tilting of the slave coordinate axis ys to the master coordinate plane, corresponding to the tilting ax s , ay s ymzm around the slave coordinate axis zs.
Bei der räumlichen Bilderfassung mit Hilfe der beiden Kameras 54, 55 unter Berücksichtigung einerseits dieser Winkel bys, bzs, axs, ays, azs einschließlich der mit den Messeinheiten 56, 57 erfassten Winkeländerungen daxm, daym, dazm, daxs, days, dazs wird folgendermaßen vorgegangen: In the spatial image acquisition with the aid of the two cameras 54, 55, taking into account on the one hand these angles by s , bz s , ax s , ay s , az s , including the angle changes dax m , day m , daz m , dax s , day s , daz s proceed as follows:
Zunächst wird ein Bild einer räumlichen Szenerie mit Szenerie-Objekten 59, 60, 61 (vgl. Figur 9) gleichzeitig mit den beiden Kameras 54, 55 der Stereokamera erfasst. Diese Bilderfassung der Bilder 62, 63 geschieht für beide Kameras 54, 55 gleichzeitig in einem Erfassungsschritt 64 (vgl. Figur 10). First, an image of a three-dimensional scenery with scenery objects 59, 60, 61 (cf. FIG. 9) is captured simultaneously with the two cameras 54, 55 of the stereo camera. This image capture of the images 62, 63 takes place simultaneously for both cameras 54, 55 in a capture step 64 (cf. FIG. 10).
Die Bilderfassung kann über mehrere Zyklen einer Erfassung der inertialen Messeinheit 56, 57, insbesondere über eine Dauer, die mehreren Zeitkonstanten der Echtzeit-Lageänderungs-Messer- fassungen entspricht, integriert werden. The image acquisition can be integrated over several acquisition cycles of the inertial measuring unit 56, 57, in particular over a period that corresponds to several time constants of the real-time position change measurement acquisitions.
Dargestellt ist in der Figur 9 schematisch das jeweilige Bild 62, 63 der Kameras 54 und 55. The respective image 62, 63 of the cameras 54 and 55 is shown schematically in FIG.
Die Abbildung des Szenerie-Objekts 59 ist im Bild 62 der Master-Kamera 54 bei 59M dargestellt, die Abbildung des Szenerie-Objekts 60 bei 60M. The image of the scenery object 59 is shown in the image 62 of the master camera 54 at 59M, the image of the scenery object 60 at 60M.
Die Abbildung des Szenerie-Objekts 59 ist im Bild 63 der Slave-Kamera 55 bei 59s dargestellt. Die Abbildung des Szenerie-Objekts 61 ist im Bild 63 der Slave-Kamera 55 bei ölsdargestellt. Zudem finden sich im Bild 63 der Slave-Kamera 55 auch an den entsprechenden x, y-Koordina- ten des Bildframes die Abbildungen 59M, 60M der Master-Kamera 54. Eine y- Abweichung der Abbildungs-Positionen 59M, 59S wird als zur Epipolarlinie der jeweiligen Kamera senkrechte Disparität bzw. als vertikale Disparität VD bezeichnet. Entsprechend wird eine x- Abweichung der Abbildungs-Positionen 59M, 59S des Szenerie-Objekts 59 als Disparität längs der Epipolarlinie bzw. als horizontale Disparität HD bezeichnet. Hierzu wird auf die bekannte Terminologie zur Epipolargeometrie verwiesen. Der Parameter „Zentrum der Kamera- Eintrittspupille“ wird in dieser Terminologie als „Projektionszentrum“ bezeichnet. The imaging of the scenery object 59 is shown in the image 63 of the slave camera 55 at 59s. The depiction of the scenery object 61 is shown in the image 63 of the slave camera 55 at öls. In addition, the images 59M, 60M of the master camera 54 are also found in the image 63 of the slave camera 55 at the corresponding x, y coordinates of the image frame. A y-deviation of the imaging positions 59M, 59S is referred to as the disparity perpendicular to the epipolar line of the respective camera or as the vertical disparity VD. Correspondingly, an x-deviation of the imaging positions 59M, 59S of the scenery object 59 is referred to as disparity along the epipolar line or as horizontal disparity HD. For this purpose, reference is made to the known terminology for epipolar geometry. The parameter "centre of camera entrance pupil" is referred to as "projection center" in this terminology.
Die beiden Abbildungen 60M, 61S zeigen in den Bildern 62, 63 die gleiche Signatur, werden also mit dem gleichen Abbildungsmuster in den Bildern 62, 63 dargestellt, stammen aber tatsächlich von den beiden innerhalb der räumlichen Szenerie unterschiedlichen Szenerie-Objekten 60 und 61. The two images 60M, 61S show the same signature in images 62, 63, i.e. they are shown with the same image pattern in images 62, 63, but actually come from the two scenery objects 60 and 61, which are different within the spatial scenery.
Die charakteristischen Signaturen der Szenerie-Objekte 59 bis 61 in den Bildern werden nun in einem Ermittlungsschritt 65 (vgl. Figur 10) für jede der beiden Kameras 54, 55 getrennt ermittelt. The characteristic signatures of the scenery objects 59 to 61 in the images are now determined separately for each of the two cameras 54, 55 in a determination step 65 (cf. FIG. 10).
Die im Schritt 65 ermittelten Signaturen werden in einer Signaturliste jeweils zusammengefasst und in einem Zuordnungsschritt 66 erfolgt ein paarweises Zuordnen der im Schritt 65 ermittelten Signaturen der erfassten Bilder 62, 63. Gleiche Signaturen werden also hinsichtlich der erfassten Szenerie-Objekte einander zugeordnet. The signatures determined in step 65 are combined in a signature list and in an association step 66 the signatures of the captured images 62, 63 determined in step 65 are associated in pairs. Identical signatures are therefore associated with one another with regard to the captured scenery objects.
Je nach erfasster räumlicher Szenerie kann sich als Ergebnis des Zuordnungsschritts 66 eine sehr hohe Anzahl zugeordneter Signaturen ergeben, beispielsweise mehrere zehntausend zugeordnete Signaturen und entsprechend mehrere zehntausend ermittelte charakteristische Lageabweichungen. Depending on the detected spatial scenery, the result of the assignment step 66 can be a very large number of assigned signatures, for example several tens of thousands of assigned signatures and correspondingly several tens of thousands of characteristic position deviations that have been determined.
In einem weiteren Ermittlungsschritt 67 werden nun charakteristische Lageabweichungen der zugeordneten Signatur-Paare voneinander ermittelt, also beispielsweise die vertikalen und horizontalen Disparitäten VD, HD. In a further determination step 67, characteristic positional deviations of the associated signature pairs from one another are now determined, ie for example the vertical and horizontal disparities VD, HD.
Beispielsweise die jeweils ermittelte vertikale Disparität VD wird für alle zugeordneten Signatur-Paare quadratisch aufsummiert. Durch Variation der vorstehend im Zusammenhang mit der Figur 8 beschriebenen Winkelparameter bys, bzs, axs, ays, azs kann dann eine Minimierung dieser Quadratsumme erfolgen. Diese Quadratsumme hängt von diesen, vorstehend im Zusammenhang mit der Figur 8 erläuterten Winkeln ab. For example, the respectively ascertained vertical disparity VD is summed up squarely for all associated signature pairs. By varying the angle parameters by s , bz s , ax s , ay s , az s described above in connection with FIG sum of squares. This sum of squares depends on the angles explained above in connection with FIG.
In einem nachfolgenden Filterungsschritt 68 werden dann die ermittelten Lageabweichungen zur Auswahl zugeordneter Signatur-Paare gefiltert, die mit höherer Wahrscheinlichkeit zum gleichen Szenerie-Objekt 59 bis 61 gehören, unter Einsatz eines Filteralgorithmus. Die einfachste Variante eines solchen Filteralgorithmus ist eine Auswahl durch Vergleich mit einem vorgegebenen Toleranzwert, wobei nur diejenigen Signatur-Paare den Filter passieren, bei denen die Quadratsumme kleiner ist als der Vorgabe-Toleranzwert. Dieser Vorgabe-Toleranzwert kann beispielweise so lange erhöht werden, bis als Ergebnis des Filterns die Anzahl ausgewählter Signatur- Paare kleiner ist als ein vorgegebener Grenzwert. In a subsequent filtering step 68, the determined positional deviations are then filtered for the selection of associated signature pairs that have a higher probability of belonging to the same scenery object 59 to 61, using a filter algorithm. The simplest variant of such a filter algorithm is a selection by comparison with a specified tolerance value, with only those signature pairs passing through the filter for which the square sum is smaller than the specified tolerance value. This default tolerance value can, for example, be increased until, as a result of the filtering, the number of selected signature pairs is less than a default limit value.
Bei einer Bildalgorithmus-Variante kann die jeweilige Lageabweichung VD, HD selbst zur Auswahl zugeordneter Signatur-Paare herangezogen werden. Es wird dann geprüft, ob die jeweilige Lageabweichung unterhalb einer vorgegebenen Schwelle liegt. In the case of an image algorithm variant, the respective positional deviation VD, HD itself can be used to select associated signature pairs. It is then checked whether the respective positional deviation is below a predetermined threshold.
Es können insbesondere mehrere Schwellen untersucht werden. Zum Beispiel kann geprüft werden, für wie viele Signatur-Paare die vertikale Disparität unter Schwellwerten Si, S2, S3 und S4 liegt, wobei gilt: Si < S2 < S3 < S4. Es resultieren dann vier Listen von jeweils akzeptierten Signatur-Paar-Zuordnungen (akzeptierte Korrespondenzen) und verworfenen Signatur-Paar-Zuordnungen (verworfene Korrespondenzen). Es wird dann untersucht, wie die Anzahl der jeweils gebundenen akzeptierten Korrespondenzen vom Schwellwert abhängt. Der niedrigste Schwellwert wird verwendet, bei dem der Korrespondenz- Anzahlwert näherungsweise gleichbleibt. Es ergibt sich ein heuristisches Verfahren zum Filtern der Signatur-Paare, sodass „falsche“ Signatur-Paare, die nicht zum gleichen Objekt gehören, mit guter Wahrscheinlichkeit verworfen werden. In particular, several thresholds can be examined. For example, it can be checked for how many signature pairs the vertical disparity is below thresholds Si, S2, S3 and S4, where Si<S2<S3<S4. This then results in four lists of respectively accepted signature pair assignments (accepted correspondence) and rejected signature pair assignments (rejected correspondence). It is then examined how the number of the respectively bound accepted correspondences depends on the threshold value. The lowest threshold is used at which the correspondence count value remains approximately the same. The result is a heuristic method for filtering the signature pairs, so that there is a high probability that “wrong” signature pairs that do not belong to the same object are rejected.
Sobald als Ergebnis des Filterns eine Anzahl ausgewählter Signatur-Paare kleiner ist als ein vorgegebener Grenzwert, beispielsweise kleiner als ein Zehntel der ursprünglich paarweise zugeordneten Signaturen oder absolut beispielsweise kleiner ist als fünftausend Signatur-Paare, erfolgt in einem Schritt 69 eine Triangulations-Berechnung zur Ermittlung von Tiefendaten für die jeweiligen Szenerie-Objekte 59 bis 61. Neben der Anzahl ausgewählter Signatur-Paare kann als Abbruchkriterium auch ein Vorgabe-Toleranzwert für die Quadratsumme charakteristischer Lage- abweichungen der zugeordneten Signatur-Paare, zum Beispiel der vertikalen Disparität VD, dienen, entsprechend dem, was vorstehend erläutert wurde. Auch eine Standardabweichung der charakteristischen Lageabweichung, beispielsweise der vertikalen Disparität VD, kann als Abbruchkriterium herangezogen werden. As soon as the number of selected signature pairs is less than a predetermined limit value as a result of the filtering, for example less than a tenth of the signatures originally assigned in pairs or is less than five thousand signature pairs in absolute terms, for example, a triangulation calculation is carried out in step 69 for determination of depth data for the respective scenery objects 59 to 61. In addition to the number of selected signature pairs, a default tolerance value for the sum of squares of characteristic position deviations of the associated signature pairs, for example the vertical disparity VD, are used, in accordance with what has been explained above. A standard deviation of the characteristic positional deviation, for example the vertical disparity VD, can also be used as a termination criterion.
Die Triangulation kann mit dem jeweils akzeptierten Signatur-Paaren, also den akzeptierten Korrespondenzen durchgeführt werden. The triangulation can be carried out with the respectively accepted pairs of signatures, ie the accepted correspondences.
Als Ergebnis dieser Triangulations-Berechnung kann in einem Erstellungs-und Ausgabeschritt 70 eine 3D-Datenkarte der erfassten Szenerie-Objekte 59 bis 61 innerhalb des erfassten Bildes der räumlichen Szenerie als Ergebnis erstellt und ausgegeben werden. Ein Beispiel für eine derartige 3D-Datenkarte ist eine Zuordnung aller Punkte des jeweiligen Szenerie-Objekts zu jeweiligen Werte-Tripeln Xi, yi, Zi, die die Lage dieses jeweiligen Szeneriepunkts in kartesischen Koordinaten wiedergeben. Über einen entsprechenden Zugriff auf diese 3D-Datenkarte ist eine räumliche Wiedergabe des jeweiligen Szenerie-Objekts möglich. As a result of this triangulation calculation, a 3D data map of the captured scenery objects 59 to 61 within the captured image of the spatial scenery can be created and output as a result in a creation and output step 70 . An example of such a 3D data map is an assignment of all points of the respective scenery object to respective value triples Xi, yi, Zi, which reflect the position of this respective scenery point in Cartesian coordinates. A spatial reproduction of the respective scenery object is possible via appropriate access to this 3D data card.
Soweit sich beim Filterschritt 68 ergibt, dass die Anzahl der ausgewählten Signatur-Paare noch größer ist als der vorgegebene Grenzwert, erfolgt zunächst in einem Ermittlungsschritt 71 ein Ermitteln von Winkelkorrekturwerten zwischen den verschiedenen ausgewählten zugordneten Signatur-Paaren zur Prüfung, ob abgebildete Roh-Objekte, die zu den verschiedenen ausgewählten zugeordneten Signatur-Paaren gehören, innerhalb der räumlichen Szenerie lagerichtig zueinander angeordnet werden können. Hierzu werden die vorstehend im Zusammenhang mit der Figur 8 beschriebenen Winkel herangezogen, wobei aufgrund der Messüberwachung über die Messeinheiten 56, 57 diese Winkel in Echtzeit korrigiert vorliegen. If the filter step 68 shows that the number of selected signature pairs is still greater than the specified limit value, angle correction values are first determined in a determination step 71 between the various selected assigned signature pairs to check whether mapped raw objects, belonging to the various selected associated signature pairs can be arranged in the correct position relative to one another within the spatial scene. For this purpose, the angles described above in connection with FIG. 8 are used, these angles being corrected in real time due to the measurement monitoring via the measuring units 56, 57.
Aufgrund einer im Ermittlungsschritt 71 erfolgenden Ausgleichsberechnung lassen sich dann beispielsweise die Szenerie-Objekte 60, 61 trotz ihrer identischen Signaturen 60M, 61s in den Bildern 62, 63 voneinander unterscheiden, sodass ein entsprechend zugeordnetes Signatur-Paar als Fehlzuordnung ausgesondert werden kann, sodass die Anzahl der ausgewählten Signatur- Paare sich entsprechend verringert. Based on a compensation calculation performed in determination step 71, the scenery objects 60, 61 can then be distinguished from one another, for example, despite their identical signatures 60M, 61s in the images 62, 63, so that a correspondingly assigned signature pair can be separated out as a mismatch, so that the number of the selected signature pairs is reduced accordingly.
Nach erfolgter Winkelkorrektur wird in einem Vergleichsschritt 72 ein Vergleich der jeweils für die Signatur-Paare ermittelten Winkelkorrekturwerte mit einer vorgegebenen Korrekturwert- Größe durchgeführt. Soweit die Winkelwerte der Signatur-Paare als Ergebnis des Vergleichsschritts 72 stärker voneinander abweichen als die vorgegebene Korrekturwert-Größe wird in einem Anpassungsschritt 73 der Filteralgorithmus, der im Filterschritt 68 zum Einsatz kommt, so angepasst, dass sich nach dem Filtern mit dem angepassten Filteralgorithmus eine Anzahl ausgewählter Signatur-Paare ergibt, die kleiner ist als die Anzahl, die sich beim vorhergehenden Filterschritt 68 ergeben hat. Diese Anpassung kann dadurch erfolgen, dass Signatur-Paare ausgeschieden werden, die sich in ihren Disparitäten um mehr als ein vorgegebener Grenzwert unterscheiden. Auch ein Vergleichsmaßstab, ab wann die Signaturen eines potentiellen Signatur-Paares als gleich und damit zuordenbar beurteilt werden, kann bei der Anpassung 73 kritischer eingestellt werden. After the angle correction has taken place, in a comparison step 72, the angle correction values determined for the signature pairs are compared with a predetermined correction value size performed. If the angle values of the signature pairs as a result of the comparison step 72 deviate more from each other than the specified correction value size, the filter algorithm used in the filter step 68 is adapted in an adaptation step 73 such that after filtering with the adapted filter algorithm, a The number of selected signature pairs is smaller than the number that resulted from the previous filter step 68 . This adaptation can take place in that signature pairs are discarded which differ in their disparities by more than a predetermined limit value. A standard of comparison, as of which point the signatures of a potential signature pair are judged to be the same and therefore assignable, can also be set more critically in the adjustment 73 .
Diese Abfolge der Schritte 73, 68, 71 und 72 wird dann so lange durchgeführt, bis sich ergibt, dass die Winkelkorrekturwerte der verbleibenden zugeordneten Signatur-Paare höchstens so weit voneinander abweichen wie die vorgegebene Korrekturwert-Größe. Es erfolgt dann wiederum die Triangulationsberechnung im Schritt 69, wobei hierbei die Winkelkorrekturwerte der ausgewählten Signatur-Paare einbezogen werden können, und das Erstellen und Ausgeben der erhaltenen Ergebnisse insbesondere in Form wiederum einer 3D-Datenkarte. This sequence of steps 73, 68, 71 and 72 is then carried out until the result is that the angle correction values of the remaining associated signature pairs deviate from one another at most by the predetermined correction value size. The triangulation calculation then takes place again in step 69, in which case the angle correction values of the selected signature pairs can be included, and the results obtained are created and output, in particular in the form of a 3D data card again.
Anhand der Figur 11 wird nachfolgend ein Verfahren zur Erzeugung einer redundanten Abbildung eines Messobjekts erläutert. Hierzu werden mehrere Kameras miteinander verknüpft, deren Eintrittspupillen-Zentren eine Kamera-Anordnungsebene definieren. Figur 11 zeigt hierzu zwei Gruppen zu je drei Kameras 74 bis 76 einerseits (Gruppe 74a) und 77, 78, 79 andererseits (Gruppe 77a). Die Gruppen 74a einerseits und 77a andererseits haben jeweils eine zugeordnete Datenverarbeitungseinheit 80, 81 zur Verarbeitung und Auswertung der von den zugehörigen Kameras erfassten Bilddaten. Die beiden Datenverarbeitungseinheiten 80, 81 stehen über eine Signalleitung 82 miteinander in Signalverbindung. A method for generating a redundant image of a measurement object is explained below with reference to FIG. To this end, several cameras are linked together, the centers of the entrance pupils of which define a camera arrangement plane. For this purpose, FIG. 11 shows two groups of three cameras each 74 to 76 on the one hand (group 74a) and 77, 78, 79 on the other hand (group 77a). The groups 74a on the one hand and 77a on the other hand each have an assigned data processing unit 80, 81 for processing and evaluating the image data recorded by the associated cameras. The two data processing units 80, 81 have a signal connection to one another via a signal line 82.
Zur Erfassung einer räumlichen Szenerie können beispielsweise die Kameras 74 bis 76 der Gruppe 74a miteinander zusammengeschalten werden, sodass, beispielsweise über ein Bilderfassungsverfahren, das vorstehend im Zusammenhang mit den Figuren 8 bis 10 erläutert wurde, eine 3D-Erfassung dieser räumlichen Szenerie ermöglicht ist. Zur Erschaffung einer zusätzlichen Redundanz dieser räumlichen Bilderfassung kann das Bilderfassungsergebnis beispielsweise der Kamera 77 der weiteren Gruppe 77a herangezogen werden, welches der Datenverarbeitungseinheit 80 der Gruppe 74a über die Datenverarbeitungseinheit 81 der Gruppe 77a und die Signalleitung 82 zur Verfügung gestellt wird. Aufgrund der räumlichen Entfernung der Kamera 77 zu den Kameras 74 bis 76 der Gruppe 74a ergibt sich ein bei der Abbildung der räumlichen Szenerie deutlich anderer Blickwinkel, was die Redundanz der räumlichen Bilderfassung verbessert. For example, the cameras 74 to 76 of the group 74a can be interconnected to capture a three-dimensional scene, so that a 3D capture of this three-dimensional scene is made possible, for example via an image capturing method that was explained above in connection with FIGS. 8 to 10. To create an additional redundancy in this spatial image acquisition, the image acquisition result can, for example, Camera 77 of the further group 77a can be used, which is made available to the data processing unit 80 of the group 74a via the data processing unit 81 of the group 77a and the signal line 82. Due to the spatial distance between the camera 77 and the cameras 74 to 76 of the group 74a, the viewing angle for the imaging of the spatial scenery is significantly different, which improves the redundancy of the spatial image acquisition.
Eine Kamera- Anordnungsebene 83 die von den Kameras 74 bis 76 der Gruppe 74a bzw. den Kameras 77 bis 79 der Gruppe 77a definiert ist, ist in der Figur 11 schematisch angedeutet und liegt unter einem Winkel zur Zeichenebene der Figur 11. A camera arrangement plane 83, which is defined by cameras 74 to 76 of group 74a and cameras 77 to 79 of group 77a, is indicated schematically in Figure 11 and is at an angle to the plane of the drawing in Figure 11.
Eine räumliche Bilderfassung mit Hilfe der Kameras genau einer Gruppe 74a, 77a wird auch als Intra-Bilderfassung bezeichnet. Eine räumliche Bilderfassung unter Einbeziehung der Kameras von mindestens zwei Gruppen wird auch als Inter-Bilderfassung bezeichnet. Spatial image acquisition using the cameras of exactly one group 74a, 77a is also referred to as intra image acquisition. Spatial image acquisition involving the cameras of at least two groups is also referred to as inter-image acquisition.
Eine Triangulation kann beispielsweise mit den Stereo-Anordnungen der Kameras 78, 79, der Kameras 79, 77 und der Kameras 77, 78 jeweils unabhängig erfolgen. Die Triangulationspunkte dieser drei Anordnungen müssen jeweils übereinstimmen. A triangulation can, for example, take place independently with the stereo arrangements of the cameras 78, 79, the cameras 79, 77 and the cameras 77, 78. The triangulation points of these three arrangements must match.
Eine Kamera-Gruppe nach Art der Gruppen 74a, 77a kann in Form eines Dreiecks, insbesondere in Form eines gleichschenkligen Dreiecks angeordnet sein. Auch eine Anordnung von sechs Kameras in Form eines Hexagons ist möglich. A camera group like the groups 74a, 77a can be arranged in the form of a triangle, in particular in the form of an isosceles triangle. An arrangement of six cameras in the form of a hexagon is also possible.
Im Vergleich zum Abstand zwischen den Kameras einer Gruppe 74a, 77a sind die Kameras der jeweils anderen Gruppe um mindestens einen Faktor 2 weiter entfernt. Ein Ab stand zwischen den Kameras 76 und 77 beträgt also mindestens das Doppelte des Abstandes zwischen den Kameras 75 und 76 bzw. den Kameras 74 und 76. Dieser Ab Standsfaktor kann auch größer sein und kann beispielsweise größer sein als 3, kann größer sein als 4, kann größer sein als 5 und kann auch größer sein als 10. Ein durch die jeweilige Gruppe 74a, 77a abgedeckter Kamera-Nahbereich kann beispielsweise im Bereich zwischen 80 cm und 2,5 m liegen. Über die Hinzunahme mindestens einer Kamera der jeweils anderen Gruppe kann dann über die Nahbereichs-Grenze hinaus auch ein Fembereich mit der Bilderfassungs-Vorrichtung erfasst werden. Nachfolgend wird ein Verfahren zur räumlichen Bilderfassung beschrieben, welches als Ergänzung der vorstehenden Beschreibung verstanden werden soll. Compared to the distance between the cameras in a group 74a, 77a, the cameras in the other group are at least a factor of 2 further away. A distance between cameras 76 and 77 is therefore at least twice the distance between cameras 75 and 76 or cameras 74 and 76. This distance factor can also be greater and can be greater than 3, for example, can be greater than 4 , can be greater than 5 and can also be greater than 10. A close camera range covered by the respective group 74a, 77a can be in the range between 80 cm and 2.5 m, for example. By adding at least one camera from the respective other group, a far range can then also be captured with the image capturing device beyond the close range limit. A method for spatial image acquisition is described below, which should be understood as a supplement to the above description.
Zur räumlichen Bilderfassung wird ein Gleichungssystem für Bildpunktkorrespondenzen von bekannten Bildpunkten (u,v)iinks mit (u, v)rechts zum Beispiel der Kameras 54, 55 mit bekannter Brennweite f gelöst. Dieses Gleichungssystem lautet: For spatial image acquisition, a system of equations for pixel correspondences of known pixels (u,v) left with (u,v) right , for example of the cameras 54, 55 with a known focal length f, is solved. This system of equations is:
Diese Gleichung 1 wird nachfolgend anhand der Figur 12 noch näher erläutert. This equation 1 is explained in more detail below with reference to FIG.
In der Gleichung 1 bedeuten: ui, vi: Bildkoordinaten eines betrachteten Szenerie-Merkmals, am Beispiel des Szenerie-In Equation 1: ui, vi: image coordinates of a considered scenery feature, using the example of the scenery
Objekts 59, 59i (=59M) im linken Bild; Objects 59, 59i (=59M) in the left image;
Ur, vr: Bildkoordinaten des Merkmals, am Beispiel des Szenerie-Objekts 59, 59r (=59s) im rechten Bild; fi, fi: Brennweiten der linken bzw. rechten Kamera 54, 55; i, A,r: Laufvariablen entlang des Strahls vom Zentrum der linken bzw. rechten Kamera 54, Ur, v r : image coordinates of the feature, using the example of the scenery object 59, 59 r (=59s) in the right image; fi, fi: focal lengths of the left and right cameras 54, 55; i, A, r : running variables along the ray from the center of the left and right cameras 54,
55 durch den Bildpunkt der linken bzw. rechten Kamera. Bei k=0 ist das Zentrum der linken bzw. rechten Kamera 54, 55, bei =1 ist der Punkt 59i, 59r des Szenerie-Objekts 59 auf dem jeweiligen Bild 62, 63 der jeweiligen Kamera 54, 55. Bei X>1 liegen Punkte auf dem weiteren Strahl vor der linken bzw. rechten Kamera 54, 55 nach der jeweiligen Bildebene 62, 63 bis zum Schnittpunkt im Szenerie-Objekt 59 und darüber hinaus; tx, ty, tz: Koordinaten der Position des Zentrums der rechten Kamera 55 im Koordinatensystem der linken Kamera 54. Die Länge dieses Vektors t ist die Basislänge (bien) bzw. Baseline 58 (vgl. Fig. 8). Diese Länge des Vektors t kann gemessen werden und/oder ist aus der Montagesituation der beiden Kameras 54, 55 heraus bekannt. Es verbleiben, nachdem die Länge von t bekannt ist, zwei Freiheitsgrade bei den drei Koordinaten tx, ty und tz; Rxx, . . . , Rzz: Parameter der Rotationsmatrix zur Beschreibung der Drehlage der rechten Kamera 55 im Koordinatensystem der linken Kamera 54. Diese Drehung hat drei Rotationsfreiheitsgrade. 55 through the pixel of the left or right camera. At k=0 is the center of the left or right camera 54, 55, at =1 the point 59i, 59r of the scenery object 59 is on the respective image 62, 63 of the respective camera 54, 55. At X>1 are points on the further ray in front of the left or right camera 54, 55 after the respective image plane 62, 63 up to the point of intersection in the scenery object 59 and beyond; t x , t y , t z : coordinates of the position of the center of the right camera 55 in the coordinate system of the left camera 54. The length of this vector t is the base length (bien) or baseline 58 (cf. FIG. 8). This length of the vector t can be measured and/or is known from the assembly situation of the two cameras 54, 55. After the length of t is known, two degrees of freedom remain for the three coordinates t x , ty and t z ; Rxx, . . . , R zz : parameters of the rotation matrix for describing the rotational position of the right camera 55 in the coordinate system of the left camera 54. This rotation has three rotational degrees of freedom.
Strichpunktiert sind in der Figur 12 wiederum und vergleichbar zur Figur 9 die optischen Achsen der beiden Kameras 54, 55 dargestellt. The optical axes of the two cameras 54, 55 are again shown in broken lines in FIG. 12 and are comparable to FIG.
Die obige Gleichung 1 kann als drei Gleichungen 1.1, 1.2 und 1.3 für das Wertetripel ui (Gleichung 1.1), vi (Gleichung 1.2) und fi (Gleichung 1.3) geschrieben werden. Es handelt sich also um ein Gleichungssystem mit drei Gleichungen (Gl.1.1 bis Gl.1.3) und zwei Unbekannten ( i, Xr). Diese Gleichungen können in eine Gleichung unter Elimination der Unbekannten (Xi, Xr) überführt werden. Equation 1 above can be written as three equations 1.1, 1.2 and 1.3 for the value triple ui (equation 1.1), vi (equation 1.2) and fi (equation 1.3). It is therefore a system of equations with three equations (Eq.1.1 to Eq.1.3) and two unknowns ( i, Xr). These equations can be transformed into an equation by eliminating the unknowns (Xi, X r ).
Eine Korrespondenz ist dabei eine Übereinstimmung von Merkmalspunkten bei einer Erfassung des gleichen Szenerie-Objekts durch die verschiedenen Kameras 54, 55 (links 1, rechts r) der Bilderfassungsvorrichtung. Wenn ein Merkmalspunkt eine Szenerie-Objekts von der Kamera 54 bei Bildkoordinaten ui, vi erfasst wurde und der gleiche Merkmalspunkt mit der Kamera 55 bei den Bildkoordinaten uj, vj, handelt es sich hierbei um eine (positive) Korrespondenz. Jede Korrespondenz kann eine vertikale Disparität VD zugeordnet werden. Daher sind mindestens fünf Korrespondenzen pro Kamerapaar notwendig, die Zahl kann etwas höher, vorteilhaft aber deutlich höher sein, wegen höherer statistischer Stabilität. Correspondence is a match of feature points when the same scenery object is captured by the different cameras 54, 55 (left 1, right r) of the image capturing device. If a feature point of a scenery object was captured by camera 54 at image coordinates ui, vi and the same feature point by camera 55 at image coordinates uj, vj, this is a (positive) correspondence. Each correspondence can be assigned a vertical disparity VD. Therefore, at least five correspondences per pair of cameras are necessary, the number can be somewhat higher, but it is advantageous to be significantly higher because of higher statistical stability.
Bei den Bildpunkt-Korrespondenzen kann es sich um Stereokorrespondenzen handeln. Zur Stereokorrespondenz wird verwiesen auf die Fachartikel Daniel Scharstein, Richard Szeliski: A taxonomy and evaluation of dense two-frame stereo correspondence algorithms, in: International journal of computer vision, 47. Jg., Nr. 1-3, 2002, S. 7-42 und Alex Kendall et al.: End-to-end learning of geometry and context for deep stereo regression. CoRR, vol. abs/1703.04309, 2017. u, v sind in GL 1 kartesische Koordinaten des jeweiligen Bildpunkts, zum Beispiel die jeweiligen kartesischen Koordinaten x, y bzw. Koordinaten in Richtung der jeweiligen horizontalen und vertikalen Disparität HD, VD. Die Vektoren (u,v,f) beschreiben einen Punkt auf dem Strahl vom Ursprung einer Kamera 54, 55 mit Laufparameter . The pixel correspondences can be stereo correspondences. For stereo correspondence, see the specialist article Daniel Scharstein, Richard Szeliski: A taxonomy and evaluation of dense two-frame stereo correspondence algorithms, in: International journal of computer vision, vol. 47, no. 1-3, 2002, p. 7 -42 and Alex Kendall et al.: End-to-end learning of geometry and context for deep stereo regression. CoRR, vol. abs/1703.04309, 2017. u, v are Cartesian coordinates of the respective pixel in GL 1, for example the respective Cartesian coordinates x, y or coordinates in the direction of the respective horizontal and vertical disparity HD, VD. The vectors (u,v,f) describe a point on the ray from the origin of a camera 54, 55 with run parameter .
Gl. 1 beschreibt die Lageänderung von der rechten Kamera (zum Beispiel Kamera 55) zur linken Kamera (zum Beispiel Kamera 54) mit drei Positionsparametern über den Translationsvektor t und die Rotationsmatrix R, also mit sechs Freiheitsgraden. Eq. 1 describes the change in position from the right camera (e.g. camera 55) to the left camera (e.g. camera 54) with three position parameters via the translation vector t and the rotation matrix R, ie with six degrees of freedom.
Weil die Länge (Basislänge = baseline 58 der Fig. 8 = bien) des Verschiebevektors t ohne Skalarwissen in der räumlichen Szenerie nicht geschätzt werden kann, sondern gemessen wird oder anderweitig vorbekannt ist, gibt es 5 Freiheitsgrade, nämlich zwei mit bien normierte zu bien senkrechte Verschiebungen (die auch als Drehungen der bien interpretiert werden können) und drei Drehungen der rechten Kamera zur linken (also 5 Drehungen). Because the length (baseline 58 of FIG. 8 = bien) of the displacement vector t cannot be estimated without scalar knowledge in the spatial scene, but is measured or otherwise previously known, there are 5 degrees of freedom, namely two normalized with bien to bien perpendicular Shifts (which can also be interpreted as rotations of the bien) and three rotations of the right camera to the left (ie 5 rotations).
Ein Beispiel für die 5 Freiheitsgrade sind die vorstehend genannten Winkel bys, bzs, axs, ays, azs für die Lagebeziehung der Slave-Kamera 55 zur Master-Kamera 54. An example of the 5 degrees of freedom are the aforementioned angles by s , bz s , ax s , ay s , az s for the positional relationship of the slave camera 55 to the master camera 54.
Das Gleichungssystem GL 1 besteht aus drei Gleichungen mit zwei Unbekannten, nämlich den beiden Laufparametern i, A,r und fünf Freiheitsgraden der Translationsmatrix T und der Rotationsmatrix R. The system of equations GL 1 consists of three equations with two unknowns, namely the two running parameters i, A, r and five degrees of freedom of the translation matrix T and the rotation matrix R.
Aus dieser drei Gleichungen lässt sich eine Gleichung bilden, in der keine unbekannte Größe mehr vorliegt. Durch geeignete Umformungen entsteht also genau eine Gleichung ohne die X Parameter, also nur abhängig von den 5 Freiheitsgraden. From these three equations, an equation can be formed in which there are no longer any unknown variables. By means of suitable transformations, exactly one equation is created without the X parameters, i.e. only dependent on the 5 degrees of freedom.
Mit mindestens fünf Gleichungen können die Freiheitsgrade zum Beispiel durch einen Schätzer berechnet werden. Ein derartiger Schätzer löst das in der Regel überbestimmte Gleichungssystem durch Minimierung eines Restfehlers. Ein derartiger Schätzer ist in der Literatur bekannt als „James-Stein-Schätzer“ (vgl. den Fachartikel „Stein’ s estimation rule and its competitors - an empirical bayes approach“ von B. Efron und C. Morris, Journal of the American Statistical Association 68 (341, Seiten 117 bis 130, 1973). With at least five equations, the degrees of freedom can be calculated by an estimator, for example. Such an estimator solves the system of equations, which is usually overdetermined, by minimizing a residual error. Such an estimator is known in the literature as a "James-Stein estimator" (cf. the article "Stein's estimation rule and its competitors - an empirical bayes approach" by B. Efron and C. Morris, Journal of the American Statistical Association 68 (341, pp. 117-130, 1973).
Die Korrespondenzen, also die Bildpunkt-Korrespondenzen entsprechend der obigen Gleichung 1, müssen zueinander linear unabhängig sein. Mit einer hohen Anzahl von Korrespondenzen können Falsch-Positive durch Algorithmen herausgefiltert werden, die auf der Gewichtung der Merkmale über ihre Größe der Ablage zur jeweiligen Epipolarlinie der jeweiligen Kamera 54, 55 basieren. The correspondences, ie the pixel correspondences according to Equation 1 above, must be linearly independent of one another. With a large number of correspondences, false positives can be filtered out by algorithms that are based on the weighting of the features via their size of offset to the respective epipolar line of the respective camera 54, 55.
Die Falsch-Positiven Korrespondenzen sind in erster Näherung normalverteilt. Die echten positiven Korrespondenzen haben charakteristische Häufungen, sind also nicht normal verteilt. Die Filterung führt dazu, dass die Falsch-Positiven Korrespondenzen herausgefiltert werden, sodass im Rahmen eines konvergenten Algorithmus die positiven Korrespondenzen übrigbleiben. Die Positiven lassen den Schätzer auf den IST-Wert konvergieren. Dieser Schätzer funktioniert auch bei schielenden Kameras (Richtungsabweichung zwischen zm und zs, vgl. insbesondere die obige Beschreibung zur Figur 8) und konvergiert schneller bei Fischaugen-Kameras. The false-positive correspondences are normally distributed to a first approximation. The true positive correspondences have characteristic accumulations, i.e. they are not normally distributed. The filtering leads to the fact that the false-positive correspondences are filtered out, so that the positive correspondences remain within the framework of a convergent algorithm. The positives allow the estimator to converge to the actual value. This estimator also works with squinting cameras (directional deviation between zm and zs, cf. in particular the above description of FIG. 8) and converges more quickly with fisheye cameras.
Soweit die Bilderfassungsvorrichtung zwei Kameras 54, 55 aufweist, müssen fünf Freiheitsgrade bestimmt werden. Bei drei Kameras, die zu zwei Kamerapaaren konfiguriert werden können, ergeben sich zehn zu bestimmende Freiheitsgrade. If the image capturing device has two cameras 54, 55, five degrees of freedom must be determined. With three cameras that can be configured into two pairs of cameras, there are ten degrees of freedom to be determined.
Im Allgemeinen stehen bei einer Bilderfassungsvorrichtung n Kameras zur Verfügung. Bei einem Kamerapaar können 5 Freiheitsgrade geschätzt werden. Jede Kamera, die über ein erstes Kamerapaar mit fünf Freiheitsgraden hinausgeht, trägt sechs zusätzliche Freiheitsgrade bei. Bei n Kameras ergeben sich dann 6n - 1 schätzbare Freiheitsgrade. In general, n cameras are available in an image capturing device. With a pair of cameras, 5 degrees of freedom can be estimated. Each camera beyond a first camera pair with five degrees of freedom contributes six additional degrees of freedom. With n cameras, there are then 6n - 1 estimable degrees of freedom.
In beide Kameras 54, 55 der Bilderfassungsvorrichtung werden IMU (Inertialsensoren für die Drehrate) eingebaut. Aus der Drehrate in einer Periode (Mono-Period-Frame) kann die Drehlageänderung geschätzt werden und somit die fünf Drehlageänderungen der Kameras zueinander. Der Restfehler wird durch die Anwendung des Verfahrens kompensiert. Bei Einsatz von IMUs kann zusätzlich eine IMU-Translation genutzt werden. Beim Einsatz von IMUs können Beschleunigungswerte erfasst werden, was eine Vorhersagegenauigkeit verbessern hilft. In both cameras 54, 55 of the image capturing device, IMUs (inertial angular rate sensors) are installed. From the rate of rotation in a period (mono-period frame), the change in rotational position can be estimated and thus the five changes in rotational position of the cameras in relation to one another. The residual error is compensated by applying the method. When using IMUs, an IMU translation can also be used. When using IMUs, acceleration values can be recorded, which helps to improve prediction accuracy.
Die Vorhersage durch die IMU-Daten kann zur Stabilisierung auch über mehrere Zyklen integriert werden. Dazu wird das Verfahren ebenfalls über diese Perioden gerechnet. Die Anzahl der Kameras kann anstelle von zwei auch auf drei und mehr Kameras zur gemeinsamen Berechnung erhöht werden. Durch die unterschiedlichen Perspektiven werden die Schätzergebnisse verbessert, selbst wenn die Kameras in einer Reihe liegen. The prediction from the IMU data can also be integrated over several cycles for stabilization. The method is also calculated over these periods. Instead of two, the number of cameras can also be increased to three or more cameras for joint calculation. The different perspectives improve the estimation results, even when the cameras are lined up.
Die Schätzung wird nochmals verbessert, wenn die Kameras eine Fläche aufspannen. The estimation is further improved when the cameras span an area.
Die Schätzung wird nochmals verbessert, wenn die Kameras stärker schielen und somit zusammen ein größeres Blickfeld eröffnen. In diesem Sinne kann ein Fischauge als Kamera 54, 55 besser sein als ein Normalobjektiv. The estimate is further improved when the cameras squint more, thus opening up a larger field of view together. In this sense, a fisheye camera 54, 55 can be better than a normal lens.
Jedes der Szenerie-Objekte kann ein größerer korrespondierender Bildbereich (Blob) sein, zum Beispiels eine Komponente eines Fahrzeugs. Die Korrespondenzen größerer Blobs können genauer ermittelt werden als die Korrespondenzen kleinerer Merkmale. Each of the scenery objects may be a larger corresponding blob, for example a component of a vehicle. The correspondences of larger blobs can be determined more precisely than the correspondences of smaller features.
Mit drei Kameras kann dasselbe räumliche Merkmal in drei Bildern gefunden werden. Wird es dreimal gefunden, ist es plausibilisiert. Eine entsprechende Plausibilisierung kann in die Lageabweichungs-Filterung des Bilderfassungsverfahrens eingehen. Wenn ein bestimmtes Merkmal von zwei Kameras erfasst wird, kann dessen Position bei Erfassung durch die dritte Kamera vorhergesagt werden. Wird es dort bei der Abbildung durch die dritte Kamera tatsächlich abgebildet, ist das fragliche räumliche Merkmal dann plausibilisiert. Falls nicht, wird eine Fehlzuordnung angenommen. With three cameras, the same spatial feature can be found in three images. If it is found three times, it is checked for plausibility. A corresponding plausibility check can be included in the position deviation filtering of the image acquisition method. If a particular feature is captured by two cameras, its position can be predicted when captured by the third camera. If it is actually imaged there when it is imaged by the third camera, the spatial feature in question is then checked for plausibility. If not, a mismatch is assumed.
Mit zunehmender Anzahl der Kameras steigt die Plausibilisierung, somit die erwähnten Zurückweisungen von Falsch-Positiven Korrespondenzen. As the number of cameras increases, so does the plausibility check, and thus the aforementioned rejection of false-positive correspondence.
Jede Schätzung gewichtet die Korrespondenzen über die Gewichte der Ablagen zur Epipolarlinie der jeweiligen Kamera 54, 55. Vor jedem Schätzschritt wird die jeweilige Epipolarlinie berechnet. Bei Mehrfachschätzung verändert sich die Epipolarlinie, die Gewichte werden mitverändert. Bis zu einem Schwellwert kann beispielsweise das Gewicht „1“ angenommen werden. Bis zu einem doppelten Schwellwert kann das Gewicht dann linear auf null abgesenkt werden. Die Veränderung der Gewichte im Laufe der Mehrfachschätzung gibt ihrerseits wieder Informationen über die Möglichkeit eines Falsch-Positiven, dass wiederum zu neuen Gewichtungen führt. Die Größe der jeweiligen Gewichte kann durch Vergleich der Korrespondenz-Anzahlen bei Verwendung der vier unterschiedlich großen Schwellwerte Si bis S4 geleitet werden. Each estimation weights the correspondences via the weights of the offsets to the epipolar line of the respective camera 54, 55. The respective epipolar line is calculated before each estimation step. With multiple estimates, the epipolar line changes and the weights are changed as well. For example, the weight “1” can be assumed up to a threshold value. The weight can then be reduced linearly to zero up to a double threshold value. The change in the weights in the course of the multiple estimation in turn provides information about the possibility of a false positive, which in turn leads to new weights. The size of the respective weights can be derived by comparing the correspondence numbers when using the four differently sized threshold values Si to S4.
Die Gewichtungen werden über eine Kostenfunktion abhängig von beispielsweise der Größe der Schwellwerte beschrieben. The weightings are described using a cost function depending on, for example, the magnitude of the threshold values.
Die Korrespondenzen sollen möglichst gleichmäßig im Bild verteilt werden. Dazu wird das Bild in Zonen eingeteilt (zum Beispiel neun gleichmäßig verteilte Zonen). Die Anzahl der Merkmale in den Zonen sollte idealerweise gleichmäßig sein. Eine ZDF (Zone Distribution Funktion) beschreibt die Verteilung der Merkmale im Bild. Bei ungünstiger Verteilung wird die Schätzung zurückgewiesen. The correspondence should be distributed as evenly as possible in the image. To do this, the image is divided into zones (e.g. nine evenly distributed zones). The number of features in the zones should ideally be even. A ZDF (Zone Distribution Function) describes the distribution of features in the image. If the distribution is unfavorable, the estimate is rejected.
Ein Schätzer ist hinsichtlich des gewonnenen Ergebnisses robuster, soweit gleichmäßig über das jeweilige Bild verteilte Korrespondenzen vorliegen. Bei der Zonen-Unterteilung kann sichergestellt werden, dass in allen Zonen eine Mindestanzahl von Korrespondenzen vorliegt. Zumindest bei einer letzten durchgeführten Schätzung muss eine derartige Mindestanzahl von Korrespondenzen in den Zonen vorliegen. Korrespondenzen aus Zonen, in denen viele Korrespondenzen im Vergleich beispielsweise zu einem Mittelwert der Korrespondenzen in den aufgeteilten Zonen vorliegen, können dann durch kleinere Gewichtsfaktoren weniger gewichtet werden. An estimator is more robust with regard to the result obtained as long as there are correspondences distributed evenly over the respective image. When dividing into zones, it can be ensured that there is a minimum number of correspondences in all zones. Such a minimum number of correspondences must be present in the zones at least in the case of a last estimate carried out. Correspondences from zones in which there are many correspondences compared to, for example, an average value of the correspondences in the divided zones can then be weighted less by smaller weighting factors.
Ungleichverteilte Korrespondenzen können alternativ zum vorstehend beschriebenen Umgewichten auch durch Löschen in überbesetzten Zonen besser gleichverteilt werden. As an alternative to the reweighting described above, unequally distributed correspondences can also be better evenly distributed by deleting in overcrowded zones.
Ungleichverteilte Korrespondenzen können durch Gewichtung in überbesetzten Zonen diskriminiert werden. Unequally distributed correspondences can be discriminated by weighting in overcrowded zones.
Die ZDF- Verteilung kann auch über die Gewichte aus der Nähe zu den Epipolarlinien angepasst werden. Dies folgt durch ein Produkt einerseits aus einem Gewicht, das von der Nähe der jeweiligen Epipolarlinie abhängt und andererseits von einem Gewicht, das von der jeweiligen Zone abhängt. Die Korrespondenzen werden über ihre Abstände zur aktuellen Epipolarlinie gewichtet. Grundsätzlich können sehr viele Korrespondenzen, also auch größere Abstände zur jeweiligen Epipolarlinie in Betracht gezogen werden. Die Zahl der Korrespondenzen mit kleinen Abständen zur jeweiligen Epipolarlinie sollte aber vergleichsweise groß sein. Dazu wird die Kurve der Anzahl der Korrespondenzen über wachsende maximale Epipolarab stände betrachtet. Diese typischerweise s-förmige Kurve (erst leicht steigend, dann stark steigend, dann wieder schwach steigend), die die Anzahl der Korrespondenzen als Funktion des Epipolarabstands angibt, wird analysiert und der Ort des größten Gradienten gesucht (Inflektionspunkt). Bei kleinen Änderungen kleiner Abstände nehmen zurückgewiesene Korrespondenzen statistisch nahezu linear zu.The ZDF distribution can also be adjusted using the weights from close to the epipolar lines. This follows from a product, on the one hand, of a weight that depends on the proximity of the respective epipolar line and, on the other hand, of a weight that depends on the respective zone. The correspondences are weighted by their distances from the current epipolar line. In principle, a large number of correspondences, i.e. also larger distances from the respective epipolar line, can be considered. However, the number of correspondences with small distances to the respective epipolar line should be comparatively large. For this purpose, the curve of the number of correspondences over increasing maximum epipolar distances is considered. This typically s-shaped curve (first slightly increasing, then strongly increasing, then slightly increasing again), which indicates the number of correspondences as a function of the epipolar distance, is analyzed and the location of the greatest gradient is sought (inflection point). In the case of small changes of small distances, rejected correspondences statistically increase almost linearly.
Jenseits eines tatsächlichen Fehlers bleibt diese Zunahme nominell konstant. Beyond any actual error, this increase remains nominally constant.
Dieser Ort ist ein Kompromiss zwischen möglichst vielen Korrespondenzen und nicht zu vielen Korrespondenzen mit großem Abstand. This place is a compromise between as much correspondence as possible and not too much correspondence by far.
In der Nähe eines Ist-Wertes häufen sich die Korrespondenzen, es steigt also die Signifikanz. Weit entfernt von einem Ist-Wert sind die Korrespondenzen in der Regel statistisch verteilt (Hintergrundrauschen) . Correspondence accumulates near an actual value, so the significance increases. The correspondences are generally statistically distributed (background noise) far from an actual value.
Die Ergebnisse der Schätzung können über eine zeitliche Periode gemittelt werden. Es können also mehrere Bilder in einer Sequenz aufgenommen und einer entsprechenden Schätzung unterzogen werden. Es ergibt sich eine zeitliche Filterung. The results of the estimation can be averaged over a period of time. A number of images can therefore be recorded in a sequence and subjected to a corresponding estimation. A temporal filtering results.
Die gemittelten Schätzwerte werden nur bis zu einer maximalen Vergangenheit gemittelt. Es erfolgt also eine gleitende Mittelwertbildung in Echtzeit. Störungen, die entsprechend lange zurückliegen, werden wieder vergessen und behindern die neuesten Schätzungen nicht mehr. The averaged estimated values are only averaged up to a maximum past. So there is a sliding average calculation in real time. Disturbances that happened a long time ago are forgotten again and no longer hinder the latest estimates.
Die Relativlagen der bei der Bilderfassungsvorrichtung zum Einsatz kommenden Kameras können mit dem Bilderfassungsverfahren geschätzt werden. Schätzergebnisse verschiedener Bilderfassungs-Szenarien können verglichen werden. Weichen sie zu stark voneinander ab, wird zurückgewiesen und deaktiviert (Fail-Safe) oder durch eine dritte eines der beiden Ergebnisse bestätigt und die Mission fortgesetzt (Fail-Operational). Die Messungen mit diesen rekalibrierten Kameras werden in diesem Fall ebenfalls mit zwei Übereinstimmungen innerhalb von drei Messungen bestätigt. The relative positions of the cameras used in the image capturing device can be estimated using the image capturing method. Estimation results of different image capture scenarios can be compared. If they deviate too much from each other, it is rejected and deactivated (fail-safe) or by a third one of the two results confirmed and the mission continued (fail-operational). In this case, the measurements with these recalibrated cameras are also confirmed with two matches within three measurements.
Einer extrinsischen Kalibrierung mit dem Bilderfassungsverfahren liegt eine intrinsische Kalibrierung (Verzeichnung bzw. Verzerrung, Brennweite etc) der jeweiligen Kamera zugrunde. An extrinsic calibration with the image acquisition method is based on an intrinsic calibration (distortion or distortion, focal length, etc.) of the respective camera.
Die Modellfehler der intrinsischen Kalibrierung kann in die Gewichtungen der Abstände zu den Epipolarlinien integriert werden. Eine Vorhersage von Koordinaten der Szenerie-Objekte 59 bis 61 im Bild der zweiten Kamera 55, abhängig von den Epipolarlinien- Abständen, also die Epipolarkurve, kann unmittelbar unter Berücksichtigung einer Verzerrungsbeschreibung erfolgen. Die Gewichte einer derartigen Beschreibung können entsprechend einem erwarteten Restfehler einer Verzerrungskorrektur erhöht werden. The intrinsic calibration model error can be integrated into the weights of the distances to the epipolar lines. A prediction of coordinates of the scenery objects 59 to 61 in the image of the second camera 55, depending on the epipolar line distances, ie the epipolar curve, can be made directly taking into account a distortion description. The weights of such a description can be increased according to an expected residual error of a distortion correction.
Zur Erfassung der Rundumsicht mit möglichst wenigen Kameras können die Kameras mit Fischaugenobjektiven mit einer Brennweite kleiner als 20 mm, insbesondere kleiner als 10 mm ausgestattet sein. Bei größeren Abständen wird die Entfernungsauflösung wegen der geringen Brennweite geringer sein, als bei der Verwendung von Normal- oder Tele-Objektiven. Die Schätzung mit Normal- oder Teleobjektiven ist instabiler als die Schätzung mit Fischaugenobjektiven. Werden Telekameras mit einer Brennweite von mindestens 80 mm, die insbesondere mindestens 150 mm oder mindestens 200 mm betragen kann, zur Optimierung der vorstehen beschriebenen Kameras 54, 55, 74-76, 77-79 formstabil an Fischaugen-Kameras montiert bzw. zugeordnet, kann die Schätzung der Fischaugen-Kamera in die Telekamera transformiert werden. Werden zwei Fischaugen-Kameras geschätzt, ergeben sich automatisch neue Schätzwerte für die an ihnen assoziierten Telekameras. Die höhere Auflösung der Telekameras kann aber Beiträge zur Schätzung des Systems aus mindestens zwei Fischaugenkameras und den assoziierten Telekameras liefern. Die Bilderfassungsvorrichtung hat dann nicht mehr nur Fischaugen-Kameras sondern auch zusätzliche, zugeordnete Telekameras. Zwei Fischaugenkameras können beispielsweise ein Stereopaar (vgl. das obige Beispiel der Kameras 54. 55) bilden. Jeder Fischaugenkamera kann eine Telekamera fest bzw. steif zugeordnet sein. Aus Korrespondenzen der Fischaugenkameras einerseits und Korrespondenzen der Telekameras andererseits kann dann entsprechend zur vorstehenden Gleichung 1 ein vergrößertes Gleichungssystem aufgebaut werden, das dann gelöst wird. Die Schätzwerte können über mehrere Frames gemittelt werden. Die Mittelung kann mit IMU- Wert-normierten Schätzwerten erfolgen. Größere Bewegungen gehen weniger störend ein. In order to capture the all-round view with as few cameras as possible, the cameras can be equipped with fish-eye lenses with a focal length of less than 20 mm, in particular less than 10 mm. At greater distances, the distance resolution will be lower than when using normal or telephoto lenses because of the small focal length. Estimation with standard or telephoto lenses is more unstable than estimation with fisheye lenses. If telecameras with a focal length of at least 80 mm, which can in particular be at least 150 mm or at least 200 mm, are mounted or assigned to fisheye cameras in a dimensionally stable manner in order to optimize the cameras 54, 55, 74-76, 77-79 described above the estimation of the fisheye camera can be transformed into the telecamera. If two fisheye cameras are estimated, new estimated values for the telecameras associated with them automatically result. However, the higher resolution of the telecameras can provide contributions to the estimation of the system from at least two fisheye cameras and the associated telecameras. The image capturing device then no longer only has fish-eye cameras, but also additional, associated telecameras. For example, two fisheye cameras can form a stereo pair (see the above example of cameras 54, 55). A telecamera can be permanently or rigidly assigned to each fisheye camera. From correspondences of the fisheye cameras on the one hand and correspondences of the telecameras on the other hand, an enlarged system of equations can then be built up corresponding to the above equation 1, which is then solved. The estimates can be averaged over multiple frames. The averaging can be done with IMU value normalized estimates. Larger movements are less disruptive.
Die Mittelung der IMU-Wert-normierten Schätzungen kann durch Rückweisung von IMU- detektierten Ruck-Bewegungen geglättet und somit stabilisiert werden. The averaging of the IMU value normalized estimates can be smoothed and thus stabilized by rejecting IMU-detected jerk movements.
Ein Bewegungsmodell kann eine Schätzung unterstützen. Eine Vorhersage der Winkel mit ihren Wahrscheinlichkeit kann mit der aktuellen Messung und den Messfehlern ausbalanciert und dynamische Messungen unterstützt werden. Das Bewegungsmodell basiert auf der Steifigkeitsannahme einer Träger Struktur bzw. des Tragrahmens der Kameras. Die Bewegung muss langsamer als die Exposuretime, also die Belichtungszeit, kann aber schneller als die Cycletime, also die Bildwiederholzeit, sein. A motion model can support an estimation. A prediction of the angles with their probability can be balanced with the current measurement and the measurement errors and dynamic measurements can be supported. The motion model is based on the assumed stiffness of a support structure or the support frame of the cameras. The movement must be slower than the exposure time, i.e. the exposure time, but can be faster than the cycle time, i.e. the image repetition time.
Die typischen Bewegungen eines Aufbaus können aufgezeichnet werden und aus diesem Trainingssatz Kl-Modelle (Modelle der künstlichen Intelligenz) abgeleitet werden, die eine bessere Vorhersage erlauben. So können zum Beispiel Motorschwingungen kompensiert werden, die in die Träger Struktur für die Kameras eingeleitet werden. The typical movements of a structure can be recorded and AI models (models of artificial intelligence) can be derived from this training set, which allow a better prediction. For example, engine vibrations that are introduced into the support structure for the cameras can be compensated for.
Das Kl-Modell kann Ruck-artige Bewegungen detektieren und Schätzungen zurückweisen helfen. The Kl model can detect jerk-like movements and help reject estimates.
Die Schätzung der Relativlage der Kameras kann asynchron mit der Messung mittels Triangulation sein. Die Messung basiert auf klassischen Stereoalgorithmen rektifizierter Bilder. The estimation of the relative position of the cameras can be asynchronous with the measurement using triangulation. The measurement is based on classical stereo algorithms of rectified images.
Das Bilderfassungsverfahren verwendet Native Merkmale zur Bildung von Korrespondenzen. The image acquisition method uses native features to form correspondences.
Ein klassisches Stereo-Matching- Verfahren vergleicht Grauwertdifferenzen und sucht einen Ort entlang der Epipolarkurve, typischerweise eine horizontale Strecke, mit geringstem Grauwertabstand, der eine Schwelle unterschreiten muss. Eine Signatur liegt vor, wenn die Grauwerte gleich sind. „Native“ Merkmale werden aus einer Transformation von Grauwerten einer Merkmalsumgebung in eine Signatur umgewandelt. Es erfolgt also ein Vergleich von Grauwerten innerhalb einer Merkmalsumgebung in einem Kamerabild. Es werden nur Merkmale verwendet, deren Signaturen im Bild vergleichsweise selten vorkommen, beispielsweise weniger als zehn, weniger als acht oder weniger als siebenmal. Derartige, seltene Merkmale werden als native Merkmale bezeichnet. A classic stereo matching method compares gray value differences and searches for a location along the epipolar curve, typically a horizontal stretch, with the smallest gray value difference that must fall below a threshold. A signature is present when the gray values are the same. "Native" features are converted into a signature from a transformation of gray values of a feature environment. There is therefore a comparison of gray values within a feature environment in a camera image. Only features are used whose signatures occur comparatively rarely in the image, for example fewer than ten, fewer than eight or fewer than seven times. Such rare features are referred to as native features.
Die Korrespondenzen können auch zur Entfernungsmessung mit Triangulation verwendet werden. Die Merkmale werden extrahiert und zur Triangulation verwendet (Native- Stereo). Dieselben Merkmale werden im Rahmen des Bilderfassungsverfahrens und zur Schätzung verwendet. Ist die Schätzung fertig, können die neuen Ergebnisse asynchron den Messungen beigestellt werden. Es wird mehrfach gemessen, während nur einmal geschätzt wird. Dies erfolgt bei langsam sich verändernder Relativlage der Kameras. The correspondences can also be used for distance measurement with triangulation. The features are extracted and used for triangulation (native stereo). The same features are used as part of the image acquisition process and for estimation. Once the estimation is complete, the new results can be added to the measurements asynchronously. It is measured multiple times while only one estimate is made. This takes place when the relative position of the cameras changes slowly.
Das Bilderfassungsverfahren kann in gröberen (gebinnten) Bildern, also in Bildern, bei denen jeweils eine Mehrzahl von Pixeln zusammengefasst ist, schnell starke Abweichungen entdecken. Falls diese erkannt werden, werden in den feineren Bildern die genauen Änderungen ermittelt und den Messungen zur Verfügung gestellt. Schätzungen mit kleineren Abweichungen werden nicht zur Verfügung gestellt, weil die rechenaufwändige Berechnung der Warpparameter für rektifizierte Bildern vermieden werden soll. Warpparameter sind Parameter zur Beschreibung einer gewünschten Entzerrung auf Basis einer Verzerrungsbeschreibung, also auf Basis einer Bildfehlerbeschreibung der Kameras 54, 55. The image acquisition method can quickly discover strong deviations in coarser (binned) images, ie in images in which a plurality of pixels are combined. If these are recognized, the exact changes are determined in the finer images and made available for the measurements. Estimates with smaller deviations are not provided in order to avoid the computationally expensive calculation of the warp parameters for rectified images. Warp parameters are parameters for describing a desired equalization based on a distortion description, i.e. based on an image error description of the cameras 54, 55.
Die zurückgewiesenen Abweichungen müssen natürlich kleiner als die von DenseStereo, also von dem vorstehend beschriebenen klassischen Stereo-Matching- Verfahren, tolerierbaren Abweichungen sein. Zeilenfehler von einem Pixel können dabei in der Regel toleriert werden. Dies ist abhängig von einer Größe einer verglichenen Umgebung. Derartige Zeilenfehler führen aber auch dann, wenn sie gering sind, zu Fehlem in der Entfernungsmessung. The rejected deviations must, of course, be smaller than the deviations that can be tolerated by DenseStereo, ie by the classic stereo matching method described above. Line errors of one pixel can usually be tolerated. This depends on a size of a compared environment. However, even if they are small, such line errors lead to errors in the distance measurement.
Bei stark verformbaren (weichen) mechanischen Konstruktionen zwischen den jeweils betrachteten Kameras, beispielsweise den Kameras 54, 55 muss vor jeder Messung eine Schätzung erfolgen. Aus den Schätzdaten werden die Warpparameter errechnet, dann die rektifizierten Bilder mit dem Ziel der Zeilentreue berechnet und aus der Dense Stereo-Korrespondenz, also ein Ort eines minimalen Abstands, die Entfernung über Triangulation ermittelt. Die Berechnungen der Warpparameter für DenseStereo sind rechenaufwändig. Das Native-Stereo, also eine Zuordnung nativer Merkmale ohne Zeilentreue und ohne Vergleich von Grauwerten, wo ausschließlich ein Vergleich von Signaturen erfolgt, kann unmittelbar aus den Korrespondenzen des Bilderfassungsverfahren die Triangulation rechnen. In the case of highly deformable (soft) mechanical constructions between the cameras under consideration, for example the cameras 54, 55, an estimate must be made before each measurement. The warp parameters are calculated from the estimated data, then the rectified images are calculated with the aim of line fidelity and the distance is determined via triangulation from the dense stereo correspondence, i.e. a location of a minimum distance. The calculations of the warp parameters for DenseStereo are computationally intensive. The native stereo, ie an assignment of native features without line fidelity and without comparison of gray values, where only a comparison of signatures takes place, can calculate the triangulation directly from the correspondences of the image acquisition process.
Das Bilderfassungsverfahren liefert außerdem über die Gewichtung der Abstände zu den Epipolarlinien ein Vertrauensmaß für die Korrespondenzen. Bei dem Vertrauensmaß handelt es sich zum einen um eine Wahrscheinlichkeit einer Zuordnung über mehr als zwei Kameras und zum anderen über eine Bewertung einer Größe eines zu erwartenden Rauschens, letztlich also ein Sig- nal/Rausch Verhältnis. The image acquisition method also provides a measure of confidence for the correspondences via the weighting of the distances to the epipolar lines. The degree of confidence is, on the one hand, a probability of an association using more than two cameras and, on the other hand, an assessment of a magnitude of noise to be expected, ie ultimately a signal/noise ratio.
Die synchrone Folge von Schätzung und Triangulation mit Nativen Merkmalen ist somit effizient und gibt ein Maß für die Vertrauenswürdigkeit von Messpunkten. The synchronous sequence of estimation and triangulation with native features is therefore efficient and provides a measure of the trustworthiness of measurement points.
Die Native-Triangulation kann aus einer Korrespondenz die Entfernung messen. Hierbei wird ein Mittelpunkt eines Abstands windschiefer Strahlen betrachtet, die aus zwei korrespondierenden Bildpunkten der beiden Stereokameras 54, 55 generiert werden. Ein derartiger Abstand muss eine vorgegebene Schwelle unterschreiten. Native triangulation can measure distance from a correspondence. In this case, a center point of a distance of skewed rays is considered, which are generated from two corresponding image points of the two stereo cameras 54, 55. Such a distance must fall below a predetermined threshold.
Werden aber drei oder mehr Kameras verwendet, können pro Merkmal drei oder mehr Korrespondenzen vorliegen. Die Entfernungsmessung wird genauer und zuverlässiger. Die Anzahl der Messpunkte sinkt allerdings in der Regel. Eine Schnittmenge erfolgreicher Triangulationen zwischen einem Kamerapaar 1/2 und einem Kamerapaar 2/3 ist kleiner als eine Vereinigungsmenge der beiden erfolgreichen Triangulationen. However, if three or more cameras are used, there can be three or more correspondences per feature. The distance measurement becomes more accurate and reliable. However, the number of measuring points usually decreases. An intersection of successful triangulations between a camera pair 1/2 and a camera pair 2/3 is smaller than a union of the two successful triangulations.
Werden in Kamerapaaren mehrere gleiche Signaturen gefunden, entstehen multiple Korrespondenzen. Aus diesen Korrespondenzen gleicher Signaturen werden diese mit der geringsten Kostenfunktionen zu den Epipolarlinien ausgewählt. Es wird also die Signatur ausgewählt, die einer Epipolarkurve am nächsten ist und nicht unbedingt die im Raum nächstliegende Signatur. Es können mehrere ausgewählt werden, jede ausgewählte Signatur darf aber nur einmal verwendet werden. Wenn eine Korrespondenz einmal ausgewählt wurde, sollten die beiden Positionen in beiden Bildern nicht mehr für weitere Korrespondenzen verwendet werden. If several identical signatures are found in pairs of cameras, multiple correspondences arise. From these correspondences of the same signatures, those with the lowest cost functions for the epipolar lines are selected. So the signature that is closest to an epipolar curve is selected and not necessarily the signature that is closest in space. Several can be selected, but each selected signature may only be used once. Once a correspondence has been selected, the two items in both screens should not be used for further correspondence.

Claims

- 37 -Patentansprüche - 37 -Claims
1. Verfahren zur räumlichen Bilderfassung mit Hilfe einer zwei Kameras (54, 55) aufweisenden Stereokamera (55a) mit folgenden Schritten: 1. Method for spatial image acquisition using a stereo camera (55a) having two cameras (54, 55) with the following steps:
Erfassen (64) eines Bildes (62, 63) einer räumlichen Szenerie gleichzeitig mit den beiden Kameras (54, 55) der Stereokamera (55a), Capturing (64) an image (62, 63) of a spatial scene simultaneously with the two cameras (54, 55) of the stereo camera (55a),
Ermitteln (65) von charakteristischen Signaturen von Szenerie-Objekten (59 bis 61) innerhalb des jeweils erfassten Bildes (62, 63), paarweises Zuordnen (66) der Signaturen der erfassten Bilder (62, 63) zueinander, Ermitteln (67) von charakteristischen Lageabweichungen HD, VD der zugeordneten Signatur-Paare voneinander, Determination (65) of characteristic signatures of scenery objects (59 to 61) within the respectively captured image (62, 63), pairwise assignment (66) of the signatures of the captured images (62, 63) to one another, determination (67) of characteristic Positional deviations HD, VD of the associated signature pairs from each other,
Filtern (68) der Lageabweichungen zur Auswahl von zugeordneten Signatur-Paaren, Triangulations-Berechnung (69) zur Ermittlung von Tiefendaten für die jeweiligen Szenerie-Objekte (59 bis 61) auf Basis der ausgewählten Signatur-Paare, Filtering (68) the positional deviations to select associated signature pairs, triangulation calculation (69) to determine depth data for the respective scenery objects (59 to 61) on the basis of the selected signature pairs,
Erstellen (70) einer 3D-Datenkarte der erfassten Szenerie-Objekte (59 bis 61) innerhalb des erfassten Bildes der räumlichen Szenerie. creating (70) a 3D data map of the captured scenery objects (59 to 61) within the captured image of the spatial scenery.
2. Verfahren nach Anspruch 1, gekennzeichnet durch das Filtern (68) der Lageabweichungen zur Auswahl der zugeordneten Signatur-Paare, die zum selben Szenerie-Objekt der räumlichen Szenerie gehören, mit einem Filteralgorithmus. 2. The method according to claim 1, characterized by filtering (68) the position deviations to select the associated signature pairs that belong to the same scenery object of the spatial scenery with a filter algorithm.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Triangulations-Berechnung (69) stattfindet, sobald die Anzahl ausgewählter Signatur-Paare kleiner ist als ein vorgegebener Grenzwert. 3. The method according to claim 1 or 2, characterized in that the triangulation calculation (69) takes place as soon as the number of selected signature pairs is less than a predetermined limit value.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass, solange die Anzahl ausgewählter Signatur-Paare größer ist als ein vorgegebener Grenzwert, folgende Schritte durchgeführt werden: 4. The method according to any one of claims 1 to 3, characterized in that as long as the number of selected signature pairs is greater than a predetermined limit value, the following steps are carried out:
Ermitteln (71) von Winkelkorrekturwerten zwischen den verschiedenen ausgewählten zugeordneten Signatur-Paaren zur Prüfung, ob abgebildete Roh-Objekte (59 bis 61), die zu den verschiedenen ausgewählten zugeordneten Signatur-Paaren gehören, innerhalb der räumlichen Szenerie lagerichtig angeordnet werden können, - 38 -Determining (71) angle correction values between the various selected associated signature pairs to check whether mapped raw objects (59 to 61) belonging to the various selected associated signature pairs can be arranged in the correct position within the spatial scenery, - 38 -
Vergleichen (72) der jeweils für die Signatur-Paare ermittelten Winkelkorrekturwerte mit einer vorgegebenen Korrekturwert-Größe, Comparing (72) the respective angle correction values determined for the signature pairs with a predetermined correction value size,
Erstellen (70) einer 3D-Datenkarte der erfassten Szenerie-Objekte (59 bis 61) innerhalb des erfassten Bildes der räumlichen Szenerie. creating (70) a 3D data map of the captured scenery objects (59 to 61) within the captured image of the spatial scenery.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass, solange die Anzahl ausgewählter Signatur-Paare größer ist als ein vorgegebener Grenzwert, folgende Schritte durchgeführt werden: soweit die Winkelkorrekturwerte der Signatur-Paare stärker voneinander abweichen als die vorgegebene Korrekturwert-Größe: 5. The method according to claim 4, characterized in that as long as the number of selected signature pairs is greater than a predetermined limit value, the following steps are carried out: if the angle correction values of the signature pairs differ from each other more than the predetermined correction value size:
— Anpassen (73) des Filteralgorithmus so, dass sich nach dem Filtern (68) mit dem angepassten Filteralgorithmus eine Anzahl ausgewählter Signatur-Paare ergibt, die kleiner ist als die Anzahl, die sich beim vorhergehenden Filter-Schritt ergeben hat, sowie Wiederholen des Vergleichens (72), soweit die Winkelkorrekturwerte der Signatur-Paare höchstens so weit voneinander abweichen wie die vorgegebene Korrekturwert-Größe: - Adjusting (73) the filter algorithm such that after filtering (68) with the adjusted filter algorithm, a number of selected signature pairs results that is smaller than the number that resulted from the previous filter step, and repeating the comparison (72), as long as the angle correction values of the signature pairs differ from each other at most by the specified correction value size:
— Triangulationsberechnung (69) zur Ermittlung von Tiefendaten für die jeweiligen Szenerie-Objekte (59 bis 61), - triangulation calculation (69) to determine depth data for the respective scenery objects (59 to 61),
Erstellen (70) einer 3D-Datenkarte der erfassten Szenerie-Objekte (59 bis 61) innerhalb des erfassten Bildes der räumlichen Szenerie. creating (70) a 3D data map of the captured scenery objects (59 to 61) within the captured image of the spatial scenery.
6. Verfahren nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass bei der Triangulations-Berechnung (69) die Winkelkorrekturwerte der ausgewählten Signatur-Paare einbezogen werden. 6. The method according to claim 4 or 5, characterized in that the angle correction values of the selected signature pairs are included in the triangulation calculation (69).
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass beim Erfassen (64) der Bilder (62, 63) zeitgleich Daten von inertialen Messeinheiten (56, 57) erfasst werden, mit denen die Kameras (54, 55) fest verbunden sind. 7. The method according to any one of claims 1 to 6, characterized in that when capturing (64) the images (62, 63) at the same time data from inertial measuring units (56, 57) are recorded, with which the cameras (54, 55) fixed are connected.
8. Verfahren zur Erzeugung einer redundanten Abbildung eines Messobjekts mit folgenden Schritten: 8. Method for generating a redundant image of a measurement object with the following steps:
Verknüpfen mindestens dreier Kameras (74 bis 76; 77 bis 79), deren Eintrittspupillen- Zentren eine Kamera- Anordnungsebene definieren, Einbringen des Messobjektes in das Sichtfeld der Kameras, Linking at least three cameras (74 to 76; 77 to 79) whose entrance pupil centers define a camera arrangement plane, Bringing the measurement object into the field of view of the cameras,
Durchführen von Triangulations-Messungen mindestens eines ausgewählten Messpunktes des Messobjektes mit mindestens drei verschiedenen Kamera-Paaren (74, 75; 74, 76; 75, 76; 77, 78; 77, 79; 78, 79) der Kameras (74 bis 79), Carrying out triangulation measurements of at least one selected measurement point of the measurement object with at least three different camera pairs (74, 75; 74, 76; 75, 76; 77, 78; 77, 79; 78, 79) of the cameras (74 to 79) ,
Vergleichen der Ergebnisse der Triangulations-Messungen. Vorrichtung zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 8. Vorrichtung nach Anspruch 9, gekennzeichnet durch drei Kameras (74 bis 76; 77 bis 79) in der Kamera- Anordnungsebene. Vorrichtung nach Anspruch 9 oder 10, gekennzeichnet durch sechs Kameras (74 bis 79). Vorrichtung nach einem Ansprüche 9 bis 11, gekennzeichnet durch mindestens drei benachbart angeordnete Kameras (74 bis 76) und durch eine im Vergleich der Abstände dieser benachbart angeordneten Kameras (74 bis 76) um mindestens einen Faktor 2 entfernt angeordnete Kamera (77). Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass die entfernt angeordnete Kamera (77) in der Kamera- Anordnungsebene (83) der drei benachbarten Kameras (74 bis 76) angeordnet ist. Vorrichtung nach einem der Ansprüche 9 bis 13, dadurch gekennzeichnet, dass mindestens eine der Kameras (54, 55; 74-76; 77-79) fest mit einer inertialen Messeinheit (56, 57) verbunden ist. Comparing the results of the triangulation measurements. Device for carrying out the method according to one of Claims 1 to 8. Device according to Claim 9, characterized by three cameras (74 to 76; 77 to 79) in the camera arrangement plane. Device according to Claim 9 or 10, characterized by six cameras (74 to 79). Device according to one of Claims 9 to 11, characterized by at least three cameras (74 to 76) arranged adjacent to each other and by a camera (77) arranged at a distance of at least a factor of 2 when comparing the distances between these cameras (74 to 76) arranged next to one another. Apparatus according to claim 8, characterized in that the remotely located camera (77) is located in the camera array plane (83) of the three adjacent cameras (74-76). Device according to one of Claims 9 to 13, characterized in that at least one of the cameras (54, 55; 74-76; 77-79) is permanently connected to an inertial measuring unit (56, 57).
EP21785832.3A 2020-09-29 2021-09-28 Method for capturing three-dimensional images with the aid of a stereo camera having two cameras, method for producing a redundant image of a measurement object, and device for carrying out the methods Pending EP4222705A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020212285.7A DE102020212285A1 (en) 2020-09-29 2020-09-29 Method for spatial image acquisition using a stereo camera having two cameras and method for generating a redundant image of a measurement object and device for carrying out the method
PCT/EP2021/076559 WO2022069424A1 (en) 2020-09-29 2021-09-28 Method for capturing three-dimensional images with the aid of a stereo camera having two cameras, method for producing a redundant image of a measurement object, and device for carrying out the methods

Publications (1)

Publication Number Publication Date
EP4222705A1 true EP4222705A1 (en) 2023-08-09

Family

ID=78049224

Family Applications (1)

Application Number Title Priority Date Filing Date
EP21785832.3A Pending EP4222705A1 (en) 2020-09-29 2021-09-28 Method for capturing three-dimensional images with the aid of a stereo camera having two cameras, method for producing a redundant image of a measurement object, and device for carrying out the methods

Country Status (6)

Country Link
US (1) US20230377196A1 (en)
EP (1) EP4222705A1 (en)
JP (1) JP2023543946A (en)
KR (1) KR20230078780A (en)
DE (1) DE102020212285A1 (en)
WO (1) WO2022069424A1 (en)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5432712A (en) 1990-05-29 1995-07-11 Axiom Innovation Limited Machine vision stereo matching
US6671399B1 (en) 1999-10-27 2003-12-30 Canon Kabushiki Kaisha Fast epipolar line adjustment of stereo pairs
EP2199983A1 (en) 2008-12-22 2010-06-23 Nederlandse Centrale Organisatie Voor Toegepast Natuurwetenschappelijk Onderzoek TNO A method of estimating a motion of a multiple camera system, a multiple camera system and a computer program product
DE102011080702B3 (en) 2011-08-09 2012-12-13 3Vi Gmbh Object detection device for a vehicle, vehicle having such an object detection device
US9754377B2 (en) 2014-08-15 2017-09-05 Illinois Institute Of Technology Multi-resolution depth estimation using modified census transform for advanced driver assistance systems
US10645366B2 (en) 2016-06-10 2020-05-05 Lucid VR, Inc. Real time re-calibration of stereo cameras
JP6843552B2 (en) * 2016-08-23 2021-03-17 キヤノン株式会社 Image processing equipment, image processing methods and programs.
US11082566B2 (en) * 2017-06-20 2021-08-03 Omnivision Technologies, Inc. Multiple camera calibration chart
US10805535B2 (en) * 2018-05-25 2020-10-13 Aquifi, Inc. Systems and methods for multi-camera placement

Also Published As

Publication number Publication date
WO2022069424A1 (en) 2022-04-07
JP2023543946A (en) 2023-10-18
US20230377196A1 (en) 2023-11-23
KR20230078780A (en) 2023-06-02
DE102020212285A1 (en) 2022-03-31

Similar Documents

Publication Publication Date Title
DE112010005008B4 (en) System and method for determining camera calibration in runtime
DE10229334B4 (en) Method and device for calibrating sensors in motor vehicles by means of a calibration object with triple mirror as a reference feature
EP3097537B1 (en) Method and controller for detecting a change of yaw angle of a vehicle-mounted stereo video system
EP2166510B1 (en) Method for calculating the position and orientation of a camera in a vehicle
DE102014209137A1 (en) Method and device for calibrating a camera system of a motor vehicle
DE102012009577A1 (en) Method for calibrating squint angle of frame camera of stereo camera arrangement in vehicle, involves calculating travel distance covered by vehicle, and determining deviation between distance and reference distance to calibrate angle
DE102006055758A1 (en) Camera calibrating method for optical measuring system, involves marking one of cross-over points in checker pattern by position information, which is readable by image processing of images of pattern and has coding of orientation
DE102019103197B4 (en) OCCUPANT MONITORING DEVICE
DE102019201526A1 (en) Method and system for detecting and measuring the position of a component relative to a reference position and the displacement and rotation of a component moving relative to a reference system
WO2020078615A1 (en) Method and device for determining an area map
EP1098268A2 (en) Method for the threedimensional optical measurement of object surfaces
WO2022069424A1 (en) Method for capturing three-dimensional images with the aid of a stereo camera having two cameras, method for producing a redundant image of a measurement object, and device for carrying out the methods
DE102010021221A1 (en) Camera direction determining method for use in vehicle, involves reconstructing vehicle coordination system from points, and determining camera direction from rotation of camera-coordination system relative to vehicle coordination system
DE10340023B3 (en) Self-calibration of camera system involves inserting matrices describing transformations into equation giving equation system linear in calibration parameters until it can be fully solved by computer
DE102004001572A1 (en) Dynamic calibration system for multiple cameras used to monitor moving objects to avoid image disparity
EP1251329B2 (en) Procedure to stabilise the viewed point by 3D-positiondetermination of an object with a digital camera
DE102020212279B3 (en) Device for calibrating a spatial position of a center of an entrance pupil of a camera, calibration method for this, and a system for determining the relative position of centers of entrance pupils of at least two cameras, which are mounted on a common support frame, to one another, and determination methods for this
WO2017198441A1 (en) Method for setting a viewing direction in a representation of a virtual environment
DE112021000595T5 (en) image processing system
DE102015120965B3 (en) Method and device for determining calibration parameters for metric calibration of a plenoptic camera
EP3644280A1 (en) Method for aligning a camera according to extrinsic parameters
EP2645331A1 (en) Method for verifying the alignment of a traffic monitoring device
DE102019209849B4 (en) Method and control device for distance-measuring image processing for a stereo camera device for a vehicle and stereo camera system with a stereo camera device and a control device
DE102018222526A1 (en) Method and control device for detecting an object
DE102021214040B3 (en) Dynamic auto-calibration of a vehicle camera system behind a window

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20230308

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230810

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)