WO2024032971A1 - Device and method for measuring three-dimensional virtual images and objects on a head-up display - Google Patents

Device and method for measuring three-dimensional virtual images and objects on a head-up display Download PDF

Info

Publication number
WO2024032971A1
WO2024032971A1 PCT/EP2023/068086 EP2023068086W WO2024032971A1 WO 2024032971 A1 WO2024032971 A1 WO 2024032971A1 EP 2023068086 W EP2023068086 W EP 2023068086W WO 2024032971 A1 WO2024032971 A1 WO 2024032971A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual
camera
test object
field
pattern
Prior art date
Application number
PCT/EP2023/068086
Other languages
German (de)
French (fr)
Inventor
Christoph Boesel
Martin BAUMGARTL
Original Assignee
Bayerische Motoren Werke Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke Aktiengesellschaft filed Critical Bayerische Motoren Werke Aktiengesellschaft
Publication of WO2024032971A1 publication Critical patent/WO2024032971A1/en

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera

Definitions

  • the invention relates to a method for measuring virtual 3D images of a field of view display device, which is used to display 3D images in a user's field of vision via reflection on a partially transparent reflection disk arranged in its field of vision.
  • the field of view display device can be designed in particular for use in a motor vehicle or another land, aircraft or water vehicle, with, for example, a front, rear or side window of the vehicle or a combiner window specifically provided for this purpose being in the field of vision of a user, the passenger of the vehicle , serves as a reflection disk.
  • the invention is also directed to a corresponding control unit, an associated field of view display device and a vehicle equipped therewith.
  • HUD head-up displays
  • This allows, for example, speed information and other useful navigation and vehicle operating instructions or even entertainment content in the form of a virtual image to be superimposed on the real image of the surroundings in front of or in the vehicle observed by the driver or another occupant.
  • a HUD in a classic design has a projection unit housed in the instrument panel.
  • This includes an imaging unit, for example a display, for generating a light beam with the desired display content and, if necessary, suitable projection optics in order to further shape the light beam and to the 22-1285 2 called partially transparent reflection disk.
  • the bundle of light rays By reflecting on the reflection disk, the bundle of light rays reaches a space in the vehicle interior that is intended for the user's eyes (also called an eyebox), from which he can perceive the display content as a virtual image floating behind the reflection disk.
  • the evaluation of the virtual image and the improvement of the HUD performance requires an objective capture of the displayed virtual image content using measuring devices.
  • photos of the virtual image are usually created using a mono camera in fixed positions relative to the windshield and some important performance parameters, such as. B. a double image distance or any distortions are evaluated. However, any existing depth information of the virtual image is lost.
  • HUD design parameters that are particularly important for 3D images such as the virtual image distance or image curvature, or performance parameters such as local point disparity.
  • the relative position of the virtual image to the environment which is of utmost importance for augmentation (augmented reality) through contact-analog virtual representations, i.e. virtual representations based on real surrounding objects, cannot be objectively recorded and corrected either.
  • Head-up display development is increasingly focusing on the generation of three-dimensional virtual image structures and image augmentation through contact-analog virtual representations. Therefore, an objective evaluation of such image content using suitable measuring devices is becoming increasingly important in order to be able to ensure targeted improvement and reliable calibration of corresponding HUD systems.
  • stereoscopic measurement using a specially designed stereo camera is an established method for measuring and recording the spatial structure of physical three-dimensional objects, as described, for example, in US 1,871,281 or US 6,430,373.
  • a photo of the object to be examined is created using at least two calibrated cameras, whose fixed positioning in space relative to one another is known.
  • a pixel disparity of the identical features in the left and right images can be determined.
  • the camera calibration of the stereo camera is usually carried out by photographing various targets, ie real objects whose spatial positioning and extent are known, by the cameras that are fixedly positioned relative to one another. From this, extrinsic camera parameters such as rotation and translation of the coordinate systems of both cameras relative to one another and, if not already known, also intrinsic camera parameters such as focal length and optical center can be determined using known mathematical methods.
  • extrinsic camera parameters such as rotation and translation of the coordinate systems of both cameras relative to one another and, if not already known, also intrinsic camera parameters such as focal length and optical center can be determined using known mathematical methods.
  • a well-known difficulty when measuring a real 3D object with a stereo camera is quickly and precisely determining corresponding features in both images. In general, this can be done, for example, by using a suitable similarity measure and e.g. B.
  • a brute force search algorithm that compares the left and right camera images.
  • a frequently used step that is intended to further simplify the search is to rectify both stereo images.
  • the images are transformed using the known extrinsic parameters (such as a rotation matrix and a translation vector of the two camera coordinate systems of the stereo camera relative to one another) as if both cameras were perfectly aligned parallel to one another. This means that corresponding features in the right and in the 22-1285 4 left camera image has the same vertical pixel coordinate, and corresponding features are therefore on a horizontal line.
  • the projected pattern is used to quickly and robustly locate corresponding features in the left and right camera images, for example on large monochrome areas of the 3D object, using a suitable similarity measure.
  • DE 102015211954 A1 In order to be able to measure transparent or highly reflective 3D objects that have, for example, smooth or painted surfaces, DE 102015211954 A1 also proposes, as a variation of this projector idea, to replace the optical cameras of the stereo camera with thermal imaging cameras and to replace the projection unit with one Equip infrared heaters. In particular, it is proposed to imprint an irregular, for example any (quasi-) statistical thermal pattern (e.g. a speckle pattern) on the object surface to be examined. These suggestions do not apply to virtual 3D objects.
  • any (quasi-) statistical thermal pattern e.g. a speckle pattern
  • the generation of a virtual ideal image in accordance with the performance specifications of the HUD is not easily possible, for example due to manufacturing tolerances of the windshield, and requires a precise assessment of the influence of any construction deviations on the virtual image. It is therefore an object of the present invention to provide a technical concept (method and device) for measuring three-dimensional virtual images and objects of a head-up display or other field of view display device, which make it possible to overcome the problems and difficulties described. In particular, this is intended to enable a quick, precise and robust evaluation of the performance of a field-of-view display device designed for 3D representation and thus also its targeted improvement.
  • the field of view display device should be particularly suitable for use in a vehicle.
  • a method for measuring virtual 3D images of a field-of-view display device and by a corresponding control unit, field-of-view display device and a vehicle equipped therewith according to the independent claims. Further refinements are specified in the dependent claims. All further features and effects mentioned in the claims and the following description for the method also apply with regard to the control unit, the field of view display device and the vehicle, and vice versa.
  • a method is provided for measuring virtual 3D images of a field of view display device, for example a head-up display (HUD), which can be designed in particular for use in a vehicle.
  • HUD head-up display
  • the field of view display device is designed to display three-dimensional images and objects into the field of vision of a user, such as a driver or another occupant of the vehicle, via reflection on a partially transparent reflection disk arranged in his field of vision, 22-1285 6, for example a windshield or another vehicle window or a combiner window designed specifically for this purpose.
  • the vehicle can be a motor vehicle, but also any other land, air or water vehicle.
  • the representation of a respective 3D object by the field of view display device can in particular also be contact-analogous, ie oriented towards real surrounding objects outside the vehicle.
  • the method includes the following steps: First, an image-generating unit of the field of view display device or its control unit is provided with image generation data of a virtual 3D test object.
  • a virtual object surface of the 3D test object to be displayed in three dimensions is overlaid on the software side with a predetermined visual surface pattern so that it has variations corresponding to the surface pattern, for example in brightness and/or color.
  • Both the 3D test object and the surface pattern can vary in position, shape and extent over time in a predetermined manner.
  • the surface pattern allows the recognition of the individual surface points or areas of the virtual 3D test object to be significantly more precise, simplified and/or accelerated during its later stereoscopic detection and evaluation.
  • the entire object surface to be displayed of the virtual 3D test object can be so completely overlaid/overlaid/covered with the surface pattern when its image generation data is provided that robust, rapid and at the same time complete recognition of individual surface points is made possible.
  • the virtual 3D test object used for the measurement can have any three-dimensional shape and extent and can consist of any number of non-connected 3D partial objects, each of which can be arranged anywhere in space.
  • the non-contiguous virtual 3D partial objects themselves can be arranged in such a way that 22-1285 7 they represent or result in a predetermined, for example regular, irregular, statistical or quasi-statistical three-dimensional pattern (hereinafter referred to as 3D pattern) in space.
  • a 3D pattern generated in this way can be used in the present method as an alternative or in addition to the above-mentioned overlay of the three-dimensional virtual object surface with the predetermined surface pattern in order to achieve the effects described below when measuring the 3D test object.
  • the overlay of the object surface with a surface pattern can, for example, be more favorable than generating a virtual 3D test object in the form of a predetermined (virtual) 3D pattern if the virtual 3D test object is to have a predetermined three-dimensional object or surface shape, for example occurs particularly often during normal operation of the field of view display device and is therefore preferably also used in the evaluation of its performance described herein.
  • the virtual 3D test object is now generated by the field of view display device according to the image generation data provided and captured from at least two different perspectives by an optical stereo camera system.
  • the stereo camera system has at least one movable camera and/or at least two cameras at a definable distance from one another in the beam path of the field of view display device after the reflection disk.
  • the respective camera can be arranged, for example, at a position in space intended for the corresponding eye of the user. However, this is not mandatory.
  • image points are identified based on the surface patterns and/or 3D patterns contained therein 22-1285 8 each come from one and the same object surface point.
  • at least one actual display parameter of the generated virtual 3D test object is determined, which can be used to evaluate the 3D display performance of the field of view display device.
  • the at least one actual representation parameter can include, for example, a projection distance (also called projection depth or image distance) and/or a spatial position and/or a spatial orientation of the generated virtual 3D test object or its surface points.
  • the at least one actual representation parameter of the generated virtual 3D test object can include a local vertical point disparity, which indicates a vertical offset of the pairwise corresponding object surface points in the camera images from the two different perspectives.
  • the respective actual display parameter can be determined, for example, with respect to a coordinate system of the stereo camera system, the field of view display device or the vehicle in which it is mounted, or with respect to an eyebox intended for its user.
  • an eyebox is understood here to be a two- or three-dimensional spatial area intended for the user's eyes or for the respective user's eye, from which the generated virtual 3D images are visible to the user in the intended quality.
  • the respective actual display parameter can be compared with a predetermined, associated target display parameter of the virtual 3D test object.
  • the 3D display performance of the field of view display device can be evaluated and, for example, specifically improved if a predetermined deviation tolerance is exceeded.
  • This metrological recording can in particular also be designed to be eye position-dependent, ie correspond to selectable/adjustable or variable eye positions and/or eye distances of a user.
  • the field of view display device in particular in the form of a head-up display, can be designed for 3D image generation in basically any technically feasible manner. This can therefore not only involve the mere creation of a depth effect through the use of several two-dimensional virtual image planes and image surfaces that are inclined or curved in space, but in particular also “real” three-dimensional virtual 3D objects, which can be created, for example, using holographic techniques a specially designed image-generating unit of the field of view display device can be generated.
  • 3D HUD in a motor vehicle, objects such as an arrow can be displayed at a great distance and at the same time, for example.
  • B. a sign close to the driver.
  • these objects are displayed superimposed with a checkerboard pattern, for example, so that they can be measured with a pair of stereo cameras (depending on the position of the pair of stereo cameras).
  • the deviations from the target can then be determined.
  • a central special feature of virtually represented 3D objects is that their position and shape (both when using two-dimensional image planes and three-dimensional curved image surfaces as well as “real” three-dimensional virtual objects) change with the eyes - or camera position can change.
  • the individual eye distance also plays a role 22-1285 10 a role for the user, so that users with different eye distances can perceive a virtual 3D object differently.
  • the correct position and orientation of a virtual object in space can be of crucial importance, especially in the case of contact-analog representation (ie based on real surrounding objects).
  • contact-analog representation ie based on real surrounding objects.
  • the surface pattern can, for example, have at least one of the following pattern types or pattern properties, which can also be combined with one another and/or alternately, ie next to one another, in the object surface: a regular or periodic two-dimensional pattern (the periodicity can be one- or two-dimensional be, ie the two-dimensional pattern can change periodically in the two-dimensional surface, for example only in one direction, while it remains constant in a direction orthogonal thereto, or it can change in two independent directions with the respective periodicity); an irregular or aperiodic two-dimensional pattern (e.g., statistical or quasi-statistical); a checkerboard pattern; a flat distribution of circles with one or more predetermined diameters; a speckle pattern; an area-wide gray value pattern, the gray values of which preferably vary in a predetermined manner in each area point; a black and white pattern; a color pattern that has one or more different colors.
  • a regular or periodic two-dimensional pattern the periodicity can be one- or two-dimensional be, ie the two-
  • comprehensive and/or irregular surface patterns such as: B. aperiodic sine patterns or speckle-like gray value distributions, if necessary more options for quick and/or 22-1285 11 time-resolved feature mapping between the left and right camera images of the created virtual 3D object.
  • the respective camera of the stereo camera system when capturing the generated virtual 3D test object, is arranged at a spatial position intended for the user's respective eye.
  • an entire eyebox volume of the field of view display device intended for the respective eye of the user can be scanned by the stereo camera system in that the respective camera of the stereo camera system successively captures the generated virtual 3D test object from several different positions within the eyebox volume in order to evaluate the 3D display performance of the field of view display device as fully as possible for the entire eyebox.
  • the definable relative distance of the at least two cameras can be varied to adapt to different eye distances of the user. In particular, it can also be varied when capturing the generated virtual 3D test object in order to evaluate the 3D display performance of the field of view display device for different user eye distances.
  • the method presented here further comprises a calibration of at least one of the cameras of the stereo camera system, which can be carried out in particular before the measurement of the actual 3D test object.
  • this camera can, for example, be positioned at one or more discrete calibration positions and a calibration can be carried out by determining a spatial position and/or orientation and/or, if necessary, at least one internal imaging property of this camera with respect to a coordinate system of the stereo camera system or the field of view display device become.
  • a parametric recalibration function is then determined from this, which, depending on at least one (in particular continuously) measurable camera position parameter, indicates the spatial position and/or orientation of this camera at an infinite number of camera positions lying in between and/or beyond.
  • Spatial positions and/or orientations of this camera that can be obtained using this parametric recalibration function can be used as its calibration in the actual measurement of the virtual 3D test object, ie to determine its at least one actual representation parameter, such as. B. its projection distance using triangulation.
  • a time-consuming and cost-intensive recalibration of each individual camera in the stereo camera system can be avoided with each camera movement.
  • such a parameterization of the camera calibration opens up the possibility of quickly and precisely taking into account different eye positions and/or eye distances of the user when measuring the virtual 3D test object.
  • said camera can be displaceable along at least one translational rail with linear position feedback, so that said measurable camera position parameter is a linear camera position or a linear camera distance to the second camera of the stereo camera system on this rail according to the currently received position feedback.
  • the position feedback can, for example, be measured or obtained directly during the capture of the generated virtual 3D test object or immediately before or after, so that in particular recalibration in real time is made possible by such a parametric recalibration function.
  • a control unit is provided which is designed and set up to automatically carry out the method presented here. For this purpose, for example, in the control unit 13 corresponding computer program must be installed and run during operation of the field of view display device.
  • a field of view display device which can be designed in particular for use in a vehicle.
  • the field of view display device comprises a projection unit which is designed to generate and output a light beam with a 3D image content transported therein to a partially transparent reflection disk to be arranged or arranged in the field of vision of a user.
  • the design and mutual arrangement of the projection unit and the reflection disk are chosen such that the user is presented with a desired virtual 3D image behind it, provided his eyes are in a designated spatial area (eyebox) opposite the reflection disk.
  • the projection unit can comprise an image-generating unit, for example in the form of a suitable display or projector, and possibly further optical elements in the beam path of the light beam emanating from the display/projector for further beam shaping and deflection.
  • the field of view display device further comprises an optical stereo camera system which comprises at least one movable camera and/or at least two cameras at a definable distance from one another, which can be positioned in the beam path of the light beam after its reflection on the reflection disk and are designed to display the virtual 3D shown -Capture image from at least two different perspectives.
  • the field of view display device includes the above control unit, which is designed and set up to control the projection unit and the stereo camera system when automatically carrying out the method presented herein.
  • the reflection disk mentioned can also be manufactured and/or sold as part of the field of view display device or, alternatively, separately.
  • the reflection pane can in particular be used as a section of a windshield of a vehicle or another 22-1285 14 vehicle window can be formed.
  • it can also be designed as a combiner disk designed specifically for the purpose mentioned here.
  • a vehicle in particular a motor vehicle or any other land, air or water vehicle, is provided.
  • the spatial orientation terms used here such as “above”, “below”, “in front”, “side”, “horizontal”, “vertical” etc. can in particular refer to the usual vehicle-fixed Cartesian coordinate system with mutually perpendicular longitudinal, transverse and height axes of the vehicle.
  • the vehicle includes a windshield and an instrument panel located underneath and is equipped with the above field of view display device.
  • Their image-generating unit or, if appropriate, their entire projection unit can be arranged in particular inside the instrument panel or in/on its top side, for example installed directly on or below the top side of the instrument panel, such that the light beam bundle is thrown by the projection unit onto the windshield or a combiner disk positioned inside the vehicle in front of it in the field of vision of the driver or another occupant, which serves as the above-mentioned partially transparent reflection disk.
  • the field of view display device can also be installed at any other suitable location in the vehicle.
  • Figure 1 shows a schematic top view of a field of view display device in a motor vehicle, which is designed to display 3D images into an occupant's field of vision via reflection on a vehicle window arranged in his field of vision and to carry out a method according to an exemplary embodiment of the invention
  • Figure 2 shows a flowchart of an exemplary embodiment of a method presented herein for measuring virtual 3D images of a field of view display device
  • 3 shows an exemplary step of providing image generation data of a virtual 3D test object in the method of FIG.
  • FIG. 1 shows, in a highly simplified schematic top view, an exemplary embodiment of a vehicle 1 with a field of view display device 2 according to the aspects of the invention specified above and in the claims.
  • This example is a motor vehicle that is only indicated by its windshield 3.
  • a projection unit 5 of the field of view display device 2 is arranged opposite the windshield 3, for example below it in an instrument panel 4 of the vehicle 1 (not shown).
  • the field of view display device 2 is designed as a 3D head-up display (3D HUD).
  • the projection unit 5 is designed to generate a light beam L with a desired 3D image content.
  • the light beam L emanating from the projection unit 5 is thrown onto the windshield 3, which in this example serves as a partially transparent reflection disk of the field of view display device 2, so that after reflection on the windshield 3 it reaches an eyebox E of a user 6, which in this example is a driver of vehicle 1.
  • the eyebox E is a two- or three-dimensionally defined spatial area in the vehicle 1 at a predetermined position relative to the windshield 3, which is intended for the eyes of the user 6, so that he can see a virtual 3D image O generated by the field of view display device 2 with both eyes able to see. As illustrated in FIG.
  • the user 6 sees a virtual eye with his left eye 22-1285 17 image OL and with his right eye a virtual image OR, the relative position and shape of which can vary with the eye distance and the eye position of the user 6 relative to the light beam L, so that the resulting perception and spatial position of the generated 3D object depending on the eye distance and the eye position of the user 6 can vary.
  • an optical stereo camera system 7 is provided in the vehicle 1 or in the field of view display device 2, which can include at least one movable camera and / or at least two cameras at a definable distance from one another (not shown individually), which are in the beam path of the light beam L whose reflection can be positioned on the windshield 3 in order to capture the displayed virtual 3D image O from two different perspectives to evaluate the 3D HUD performance (of course without the user 6 being there).
  • the stereo camera system 7 can be positioned directly in the eyebox E of the user 6 or, as indicated in FIG. 1, immediately in front of it.
  • the stereo camera system 7 and its position are indicated purely by way of example and schematically in FIG.
  • a correspondingly configured control unit 8 is also provided, which can communicate in an appropriate manner with the projection unit 5 and the stereo camera system 7 in terms of information and control technology.
  • the control unit 8 can be arranged, for example, in the projection unit 5 or outside it in the vehicle 1, for example in the instrument panel 4.
  • 2 shows a flowchart of an exemplary embodiment of a method according to the above first aspect of the invention for measuring virtual 3D images O of a field of view display device 2, as shown, for example, in FIG. 1.
  • FIG. 1 should not be construed as limiting, but rather serves solely as an exemplary illustration of the possible 22-1285 18 steps.
  • a step S1 the projection unit 5 of the field of view display device 2 or its control unit 8 is provided with image generation data of a virtual 3D test object O.
  • a virtual object surface 9 of the 3D test object to be displayed in three dimensions is overlaid on the software side with a predetermined visual surface pattern so that it has variations corresponding to the surface pattern, for example in brightness and/or color.
  • Fig. 3 illustrates this step using the example of a checkerboard surface pattern.
  • the entire object surface 9 of the virtual 3D test object O to be displayed has been overlaid with the surface pattern when its image generation data is provided.
  • the virtual 3D object to be created is shown before the software overlay with the surface pattern.
  • the virtual 3D object O to be created is shown in its representation form used for measurement/calibration.
  • its cuboid object surface 9 is superimposed on the software side with a known structure, such as e.g. B. a checkerboard pattern, the corners 10 of which are particularly easy to localize by gradient formation after detection by the stereo camera system 7.
  • a known structure such as e.g. B. a checkerboard pattern
  • more general (quasi-) statistical patterns can also be used as area patterns.
  • the overlay with a suitable surface pattern in step S1 serves purely to measure and, if necessary, calibrate the field of view display device 2 (see below).
  • the virtual 3D test object O is displayed by the field of view display device 2 according to the provided image formation data 22-1285 19 generated and captured from at least two different perspectives by an optical stereo camera system 7.
  • the stereo camera system 7 has at least one movable camera and/or at least two cameras at a definable distance from one another in the beam path of the field of view display device 2 after the reflection disk.
  • At least one actual display parameter of the generated virtual 3D test object O is determined, which can be used to evaluate the 3D display performance of the field of view display device 2.
  • This method and this device make possible, in particular, a fast, robust and precise measurement of virtual 3D test objects O, which are generated, for example, by a HUD, which also enables, among other things, a quick calibration of the HUD.
  • Important measured variables or output parameters in the 3D measurement of the generated virtual test objects O for HUD evaluation with a stereo camera system 7 (also called 3D camera) are, for example: B.
  • the projection distance can e.g. B. deviate from the specification due to construction tolerances of the field of view display device 2.
  • the vertical local 22-1285 20 Point disparity corresponds to a vertical offset of the features between the left and right eyes and is caused by the driver's left and right eyes seeing a different virtual image in the case of HUD projection. The latter does not occur, for example, when measuring real objects, ie there the vertical local point disparity is naturally equal to zero.
  • the camera images recorded in step S2 from the two different perspectives can first be rectified in a manner known per se, that is, converted to a parallel alignment of both cameras.
  • the corresponding pixel coordinates ( ) and ( ) in the (rectified) left and right camera images can then be determined.
  • this would apply in the rectified camera images of a real object.
  • the right and left eyes perceive different virtual images OL and OR (see Fig. 1) and the following applies in the rectified camera images.
  • the projection distance results, for example, from triangulation or from the horizontal pixel deviation of the pixel coordinates ( ) of the corresponding features in the (rectified) left and right camera image as well as the camera distance from the set of rays.
  • the present method proposes that the 3D objects typically displayed in the HUD for the driver (such as an arrow on the road, a marking of signs or pedestrians, a map for navigation, etc ) before or during their generation by the projection unit 5 (such as an augmented reality HUD display) solely for the purpose of measurement and / or calibration on the software side with regular (such as the checkerboard pattern 3), irregular, statistical or quasi-statistical surface patterns.
  • a checkerboard pattern for example: B. determine the vertical local point disparity at the corner points 10 of the checkerboard pattern with high precision.
  • a calibration of the HUD can also take place, for example, by measuring the virtual, patterned 3D test object in reference to a known real object in the driver's field of vision.
  • another problem with virtual objects on a HUD is the dependence of the position of the virtual object on the distance between the eyes and the eye position of the user 6. This plays a role both in the stereo camera calibration and in the measurement of the 3D test object O with the stereo -Camera system 7 a role.
  • the method described here enables a solution to this problem, which is described below using the example of a stereo camera system with cameras that can be positioned flexibly relative to one another:
  • the integration of the eye distance into the measurement proposed here requires, in the first step, the determination of a rotation matrix and a translation vector as in a conventional stereo camera calibration.
  • the distortion of the two cameras can be determined (if they have optical distortion) and calculated out algorithmically.
  • the intrinsic camera parameters are determined if these are not known, as well as the extrinsic parameters (rotation matrix, translation vector of the two camera coordinate systems relative to each other or to the vehicle).
  • the two cameras can z. B. be attached to a translational rail or other movement device with position feedback.
  • the stereo camera calibration according to the embodiment of the invention described above is carried out using mathematical means (such as mathematical modeling or polynomial interpolation or extrapolation and much more) in between and/or positions beyond this are expanded.
  • a parametric recalibration function can be specified based on actual calibration at some known position points of the cameras, which depends on one or more (for example continuously) measurable camera position parameters.
  • the parametric recalibration function can specify a precise relative 3D camera position depending on a measurable distance of the camera on a rail (which can be described by a simple linear model).
  • the eyebox volume of the HUD can be scanned or scanned, for example, using the stereo camera system for variable distances of the left and right cameras.
  • the eye position can be parameterized by the respective center of the stereo camera system 7.
  • a 3D point model is created, for example, by taking a stereo photograph of the virtual 3D test object (provided with the surface pattern).
  • 3D point cloud models can be interpolated or extrapolated for unknown eye distances and eye positions.
  • the necessary number of measuring points of the grid in the eyebox volume or the complexity of the fit function generally depends on the complexity of the HUD optics or the reflection pane (such as the windshield 3).
  • the eyebox volume can be “sampled”, for example by a single eye position with a predetermined constant eye distance.
  • the measuring device can therefore include, for example, one or more variably positionable camera(s) (stereo camera system 7), whose relative positions can be either fixed (only for at least two cameras) or variable.
  • the calibration of the measuring device is ideally carried out using the parametric description presented above with the help of camera position-dependent rotation matrices and translation vectors or projection matrices composed thereof where ⁇ is the measurable camera position parameter mentioned above.
  • the pixel disparities of the identical features can be interpreted as a function of the camera positions determined in this way.
  • This allows the 3D structure of the surface 9 of the virtual 3D test object O to be calculated depending on the position using a parametric representation of this functional relationship.
  • the virtual 3D test object O can be interpolated for different eye positions and eye distances.
  • the problem of exact positioning of the two cameras during stereo calibration which is very difficult to achieve (e.g. due to construction tolerances of the cameras), can be eliminated 22-1285 24 needed to describe/evaluate 3D HUD performance for a desired eye relief can be avoided using rigorous mathematical means.
  • FIG. 4 and 5 show further examples of the software overlay of the virtual 3D test object O to be measured in step S1 of FIG. 2 before it is generated with predefined surface patterns, before it is generated in steps S2 and S3 and photographed from different camera perspectives . If the virtual object is overlaid with full circles 11, for example as in FIG User 6 perceivable virtual images OL and OR of FIG. 1 can correspond).
  • FIG. 5 Another possible implementation according to FIG. 5 is to overlay the virtual 3D test object to be measured (here a pyramid with a rectangular base) with a speckle-like surface pattern in the software.
  • the feature matching between the photos from the individual camera perspectives can be done here, for example, by rectifying the two photos and assigning the gray value values around the corresponding maxima of the speckles 12 in the photos from the individual camera perspectives. Otherwise, the same thing as in Fig. 4 can apply here.
  • Another possible implementation is to overlay the virtual 3D test object O to be measured with a checkerboard pattern in the software.
  • the feature matching between the photos from the individual camera perspectives is done here, for example, by determining the corner points 10 of the checkerboard patterns and assigning the corresponding coordinates in the photos from the individual camera perspectives.
  • the 22-1285 25 individual squares of the chessboard can be coded, for example, by colors or QR-like patterns. Otherwise, the same thing as in Fig. 4 or 5 can apply here.
  • the virtual 3D test object O consists of N virtual sub-objects or sub-objects distributed arbitrarily in 3D space (e.g. it can be a regular or grid-like three-dimensional arrangement of three-dimensional spheres), each with an area pattern are superimposed, the feature(s) of which are used for stereoscopic feature matching.
  • Another possible implementation would be to overlay the virtual 3D object to be measured with an aperiodic surface pattern, for example a sine pattern (not shown), on the software side.
  • the feature matching between the photos from the individual camera perspectives can be implemented here by rectifying the photos and assigning the gray value values around the corresponding maxima of the sine pattern in the photos from the individual camera perspectives.

Abstract

The invention relates to a method for measuring virtual 3D images on a field of view display device, which is designed to superimpose 3D images into the field of view of a user via reflection on a partially transparent reflection pane. The method comprises the steps of: providing image-generation data relating to a virtual 3D test object, wherein the three-dimensional object surface thereof is overlaid with a predetermined visual surface pattern and/or wherein the 3D test object itself or individual non-continuous partial objects thereof represent a predetermined 3D pattern; generating the virtual 3D test object according to the provided image-generation data; capturing the generated virtual 3D test object from two different perspectives using an optical stereo camera system and identifying corresponding object surface points in the two camera images on the basis of the surface patterns and/or 3D patterns captured therein; and determining therefrom at least one actual representation parameter of the generated virtual 3D test object.

Description

22-1285 1 Beschreibung Vorrichtung und Verfahren zur Vermessung dreidimensionaler virtueller Bilder und Objekte eines Head-Up-Displays Die Erfindung betrifft ein Verfahren zum Vermessen virtueller 3D-Bilder einer Blickfeldanzeigevorrichtung, die zum Einblenden von 3D-Bildern ins Blickfeld eines Nutzers über Reflexion an einer in seinem Blickfeld angeordneten teiltransparenten Reflexionsscheibe ausgebildet ist. Die Blickfeldanzeigevorrichtung kann insbesondere zum Einsatz in einem Kraftfahrzeug oder einem anderen Land-, Luft- oder Wasserfahrzeug ausgelegt sein, wobei beispielsweise eine Front-, Heck- oder Seitenscheibe des Fahrzeugs oder eine eigens hierzu vorgesehene Combinerscheibe im Blickfeld eines Nutzers, der Insasse des Fahrzeugs ist, als Reflexionsscheibe dient. Die Erfindung richtet sich auch auf eine entsprechende Steuereinheit, eine zugehörige Blickfeldanzeigevorrichtung und ein damit ausgestattetes Fahrzeug. Blickfeldanzeigevorrichtungen für Fahrzeuge sind unter anderem unter der Bezeichnung Head-up-Display (HUD) bekannt. Damit können beispielsweise Geschwindigkeitsangaben und andere nützliche Navigations- und Fahrzeugbedienungshinweise oder auch Entertainment-Inhalte in Form eines virtuellen Bilds dem vom Fahrer oder einem anderen Insassen beobachteten realen Umgebungsbild vor oder in dem Fahrzeug überlagert werden. Hierzu weist ein HUD in klassischer Bauweise eine in der Instrumententafel untergebrachte Projektionseinheit auf. Diese umfasst eine bildgebende Einheit, beispielsweise ein Display, zur Erzeugung eines Lichtstrahlenbündels mit dem gewünschten Anzeigeinhalt sowie gegebenenfalls eine geeignete Projektionsoptik, um das Lichtstrahlenbündel weiter zu formen und auf die 22-1285 2 genannte teiltransparente Reflexionsscheibe zu werfen. Über Reflexion an der Reflexionsscheibe gelangt das Lichtstrahlenbündel zu einem für die Augen des Nutzers bestimmten Raumbereich (auch Eyebox genannt) im Fahrzeuginneren, aus dem er den Anzeigeinhalt als ein hinter der Reflexionsscheibe schwebendes virtuelles Bild wahrnehmen kann. Die Evaluation des virtuellen Bilds und die Verbesserung der HUD-Performance erfordert eine objektive Erfassung des dargestellten virtuellen Bildinhalts durch Messvorrichtungen. Für herkömmliche HUDs im Kraftfahrzeug werden hierzu üblicherweise mittels einer Monokamera in festen Positionen relativ zur Windschutzscheibe Fotos vom virtuellen Bild erstellt und hinsichtlich einiger wichtiger Performance-Parameter, wie z. B. eines Doppelbildabstandes oder etwaiger Verzeichnungen, evaluiert. Allerdings gehen hierbei gegebenenfalls vorhandene Tiefeninformationen des virtuellen Bilds verloren. Die Bewertung von speziell für 3D-Bilder wichtigen HUD-Designparametern wie des virtuelles Bildabstands oder der Bildwölbung oder von Performanceparametern wie der lokalen Punktdisparität sind somit nicht möglich. Die relative Lage des virtuellen Bilds zur Umwelt, welche für die Augmentierung (Augmented Reality, erweiterte Realität) durch kontaktanaloge, d. h. an realen Umfeldobjekten angelehnte virtuelle Darstellungen von größter Bedeutung ist, kann ebenfalls nicht objektiv erfasst und korrigiert werden. Dabei wird in der Head-Up-Display-Entwicklung zunehmend auf die Generierung dreidimensionaler virtueller Bildstrukturen und auf eine Bild- Augmentierung durch kontaktanaloge virtuelle Darstellungen gesetzt. Daher wird auch eine objektive Bewertung solcher Bildinhalte durch geeignete Messvorrichtungen zunehmend wichtiger, um eine gezielte Verbesserung und eine zuverlässige Kalibrierung entsprechender HUD-Systeme gewährleisten zu können. Sowohl eine quantitative Bewertung der Darstellungs-Performance als auch eine Kalibrierung eines zur 3D-Bilderzeugung bestimmten Head-Up- Displays erfordert eine präzise Erfassung der erzeugten dreidimensionalen virtuellen Strukturen durch Messungen. 22-1285 3 Im Stand der Technik ist zur Messung und Erfassung der räumlichen Struktur gegenständlicher dreidimensionaler Objekte die stereoskopische Messung mittels einer eigens hierzu ausgebildeten Stereokamera ein etabliertes Verfahren, wie beispielsweise in US 1,871,281 oder US 6,430,373 beschrieben. Hierbei wird mittels mindestens zwei kalibrierter Kameras, deren fixierte Positionierung im Raum relativ zueinander bekannt ist, jeweils ein Foto des zu untersuchenden Objekts erstellt. Durch einen Abgleich identischer Objektfeatures in den Fotos der linken und der rechten Kamera kann eine Pixel- Disparität der identischen Features im linken und im rechten Bild bestimmt werden. Das wiederum erlaubt die Berechnung einer 3D-Position der jeweiligen Objektfeatures relativ zur Stereokamera im Raum durch eine Triangulation. Die Kamera-Kalibrierung der Stereokamera erfolgt hierbei üblicherweise dadurch, dass verschiedene Targets, d. h. reale Gegenstände, deren räumliche Positionierung und Ausdehnung bekannt sind, von den zueinander fest positionierten Kameras fotografiert werden. Daraus können mittels bekannter mathematischer Verfahren extrinsische Kameraparameter wie Rotation und Translation der Koordinatensysteme beider Kameras zueinander und, falls nicht ohnehin bekannt, auch intrinsische Kameraparameter wie Brennweite und optisches Zentrum bestimmt werden. Eine bekannte Schwierigkeit bei der Vermessung eines realen 3D-Objekts mit der Stereokamera besteht dabei in einer schnellen und präzisen Bestimmung korrespondierender Features in beiden Bildern. Im Allgemeinen kann das beispielsweise durch die Verwendung eines geeigneten Ähnlichkeitsmaßes sowie z. B. eines Brute-Force-Suchalgorithmus geschehen, welcher das linke und das rechte Kamerabild abgleicht. Ein häufig verwendeter Schritt, der die Suche zusätzlich vereinfachen soll, ist eine Rektifizierung beider Stereobilder. Dabei werden die Bilder mittels der bekannten extrinsischen Parameter (wie einer Rotationsmatrix und eines Translationsvektors der beiden Kamerakoordinatensysteme der Stereokamera relativ zueinander) so transformiert, als wären beide Kameras perfekt parallel zueinander ausgerichtet. Dadurch haben korrespondierende Features im rechten und im 22-1285 4 linken Kamerabild dieselbe vertikale Pixelkoordinate, und korrespondierende Features befinden sich somit auf einer horizontalen Linie. Um eine schnelle, präzise und robuste Vermessung der Oberfläche eines gegenständlichen 3D-Objekts zu ermöglichen, wird ferner in der Literatur, wie beispielsweise in DE 102006049695 A1, ein Vorschlag gemacht, das stereoskopische Kamerasystem um eine Projektionseinheit (etwa in Form eines Diaprojektors) zu erweitern, die ein visuelles Streifenmuster und gegebenenfalls einen zur Identifizierung einzelner Linienpaare geeigneten Graycode auf das 3D-Objekt projiziert. Das aufprojizierte Muster dient einem schnellen, robusten Auffinden korrespondierender Features im linken und rechten Kamerabild, beispielsweise auf großen einfarbigen Flächen des 3D-Objekts, durch ein geeignetes Ähnlichkeitsmaß. Um auch transparente oder stark reflektierende 3D-Objekte, die beispielsweise glatte oder lackierte Oberflächen haben, vermessen zu können, wird ferner in DE 102015211954 A1 als Variation dieser Projektor-Idee vorgeschlagen, die optischen Kameras der Stereokamera durch Wärmebildkameras zu ersetzen und die Projektionseinheit mit einem Infrarotstrahler auszustatten. Insbesondere wird dabei vorgeschlagen, ein unregelmäßiges, etwa ein beliebiges (quasi-) statistisches thermisches Muster (z. B. ein Speckle-Muster) auf die zu untersuchende Objektoberfläche aufzuprägen. Auf virtuelle 3D-Objekte sind diese Vorschläge nicht anwendbar. Im Vergleich zur 3D-Messung realer Objekte ergeben sich bei der Erfassung virtueller 3D-Bilder eines HUDs zudem folgende zusätzliche Probleme: Während reale Objekte ortsfest bleiben, hängt die Position und Form eines virtuellen 3D-Objekts von der Betrachtungsrichtung ab, aus der das virtuelle Bild beobachtet wird. Folglich ist zum einen die Position des virtuellen Bilds im Raum abhängig von der tatsächlichen Augenposition des Nutzers (wie des Fahrers). Zum anderen ändert sich auch die Tiefenwahrnehmung des virtuellen 3D-Bilds durch Überlagerung der Bilder im linken und im rechten Auge mit unterschiedlichen Augenabständen der jeweiligen Nutzer. Eine Kalibrierung einer Stereokamera für einen exakten gewünschten Augenabstand lässt sich aufgrund von Herstellungstoleranzen der Einzelkameras im Allgemeinen nicht 22-1285 5 ohne großen Aufwand realisieren. Darüber hinaus ist die Erzeugung eines virtuellen Idealbildes gemäß den Performance-Vorgaben des HUDs beispielswese aufgrund von Herstellungstoleranzen der Windschutzscheibe nicht ohne weiteres möglich und erfordert eine genaue Bewertung des Einflusses etwaiger Bauabweichungen auf das virtuelle Bild. Es ist daher eine Aufgabe der vorliegenden Erfindung, ein technisches Konzept (Verfahren und Vorrichtung) zur Vermessung dreidimensionaler virtueller Bilder und Objekte eines Head-Up-Displays oder einer anderen Blickfeldanzeigevorrichtung anzugeben, die es ermöglichen, die geschilderten Probleme und Schwierigkeiten zu überwinden. Insbesondere soll dadurch eine schnelle, präzise und robuste Evaluierung der Performance einer zur 3D- Darstellung ausgelegten Blickfeldanzeigevorrichtung und dadurch auch deren gezielte Verbesserung ermöglicht werden. Die Blickfeldanzeigevorrichtung soll sich dabei insbesondere zum Einsatz in einem Fahrzeug eignen. Diese Aufgabe wird durch ein Verfahren gemäß Anspruch 1 zum Vermessen virtueller 3D-Bilder einer Blickfeldanzeigevorrichtung sowie durch eine entsprechende Steuereinheit, Blickfeldanzeigevorrichtung und ein damit ausgestattetes Fahrzeug gemäß den nebengeordneten Ansprüchen gelöst. Weitere Ausgestaltungen sind in den abhängigen Ansprüchen angegeben. Alle in den Ansprüchen und der nachfolgen Beschreibung für das Verfahren genannten weiterführenden Merkmale und Wirkungen gelten auch in Bezug auf die Steuereinheit, die Blickfeldanzeigevorrichtung und das Fahrzeug, wie auch umgekehrt. Gemäß einem ersten Aspekt ist ein Verfahren zum Vermessen virtueller 3D- Bilder einer Blickfeldanzeigevorrichtung, beispielsweise eines Head-up-Displays (HUD), vorgesehen, die insbesondere zum Einsatz in einem Fahrzeug ausgelegt sein kann. Die Blickfeldanzeigevorrichtung ist zum Einblenden von dreidimensionalen Bildern und Objekten ins Blickfeld eines Nutzers, wie etwa eines Fahrers oder eines anderen Insassen des Fahrzeugs, über Reflexion an einer in seinem Blickfeld angeordneten teiltransparenten Reflexionsscheibe, 22-1285 6 beispielsweise einer Frontscheibe oder einer anderen Fahrzeugscheibe oder aber einer eigens hierzu vorgesehenen Combinerscheibe, ausgebildet. Beim Fahrzeug kann es sich um ein Kraftfahrzeug, aber auch um ein beliebiges anderes Land-, Luft- oder Wasserfahrzeug handeln. Die Darstellung eines jeweiligen 3D-Objekts durch die Blickfeldanzeigevorrichtung kann insbesondere auch kontaktanalog, d. h. an realen Umfeldobjekten außerhalb des Fahrzeugs orientiert sein. Das Verfahren umfasst dabei folgende Schritte: Zunächst werden einer bilderzeugenden Einheit der Blickfeldanzeigevorrichtung oder deren Steuereinheit Bilderzeugungsdaten eines virtuellen 3D-Testobjekts bereitgestellt. Dabei wird eine dreidimensional darzustellende virtuelle Objektoberfläche des 3D-Testobjekts softwareseitig mit einem vorbestimmten visuellen Flächenmuster überlagert, damit sie dem Flächenmuster entsprechende Variationen beispielsweise in der Helligkeit und/oder Farbe aufweist. Sowohl das 3D-Testobjekt als auch das Flächenmuster können hierbei in Position, Form und Ausdehnung in vorbestimmter Weise zeitlich variieren. Durch das Flächenmuster kann die Erkennbarkeit der einzelnen Oberflächenpunkte oder -Bereiche des virtuellen 3D-Testobjekts bei seiner späteren stereoskopischen Erfassung und Auswertung erheblich präzisiert, vereinfacht und/oder beschleunigt werden. Grundsätzlich kann die gesamte darzustellende Objektoberfläche des virtuellen 3D-Testobjekts beim Bereitstellen seiner Bilderzeugungsdaten so vollständig mit dem Flächenmuster überlagert/überzogen/bedeckt werden, dass eine robuste, zügige und zugleich lückenlose Erkennbarkeit einzelner Oberflächenpunkte ermöglicht wird. Beispiele für hierfür geeignete Flächenmuster werden weiter unten angegeben. Das zur Vermessung verwendete virtuelle 3D-Testobjekt kann eine beliebige drei-dimensionale Form und Ausdehnung aufweisen sowie aus beliebig vielen nicht-zusammenhängenden 3D-Teilobjekten bestehen, welche jeweils beliebig im Raum angeordnet sein können. Dabei können insbesondere auch die nicht- zusammenhängenden virtuellen 3D-Teilobjekte selbst so angeordnet sein, dass 22-1285 7 sie ein vorbestimmtes, beispielsweise reguläres, irreguläres, statistisches oder quasi-statistisches dreidimensionales Muster (nachfolgend 3D-Muster genannt) im Raum darstellen bzw. ergeben. Ein auf diese Weise (virtuell) erzeugtes 3D- Muster kann beim vorliegenden Verfahren alternativ oder zusätzlich zu der genannten Überlagerung der dreidimensionalen virtuellen Objektoberfläche mit dem vorbestimmten Flächenmuster zum Einsatz kommen, um die hierin nachfolgend beschriebenen Wirkungen bei der Vermessung des 3D- Testobjekts zu erzielen. Die Überlagerung der Objektoberfläche mit einem Flächenmuster kann beispielsweise dann im Vergleich zur Erzeugung eines virtuellen 3D-Testobjekts in Form eines vorbestimmten (virtuellen) 3D-Musters günstiger sein, wenn das virtuelle 3D-Testobjekt eine vorgegebene dreidimensionale Objekt- oder Oberflächenform aufweisen soll, die beispielsweise beim normalen Betrieb der Blickfeldanzeigevorrichtung besonders oft vorkommt und daher vorzugsweise auch bei der hierin beschriebenen Evaluierung von deren Performance heranzuziehen ist. Das virtuelle 3D-Testobjekt wird nun durch die Blickfeldanzeigevorrichtung gemäß den bereitgestellten Bilderzeugungsdaten erzeugt und aus mindestens zwei verschiedenen Perspektiven durch ein optisches Stereo-Kamerasystem erfasst. Hierzu weist das Stereo-Kamerasystem im Strahlengang der Blickfeldanzeigevorrichtung nach der Reflexionsscheibe mindestens eine bewegbare Kamera und/oder mindestens zwei Kameras in einem definierbaren Abstand voneinander. Durch das Bewegen der Kameras des Stereo- Kamerasystems relativ zueinander und zum Strahlengang können insbesondere unterschiedliche Augenpositionen und/oder Augenabstände eines Nutzers berücksichtigt bzw. simuliert werden. Die jeweilige Kamera kann beim Erfassen des erzeugten virtuellen 3D-Testobjekts beispielsweise an einer für das entsprechende Auge des Nutzers vorgesehen Position im Raum angeordnet sein. Dies ist jedoch nicht zwingend. In den dadurch erhaltenen Kamera-Aufnahmen des virtuellen 3D-Testobjekts aus den zwei verschiedenen Perspektiven werden anhand der darin enthaltenen Flächenmuster und/oder 3D-Muster Bildpunkte identifiziert, die 22-1285 8 jeweils von einem und demselben Objektoberflächenpunkt stammen. Daraus wird mindestens ein Ist-Darstellungsparameter des erzeugten virtuellen 3D- Testobjekts ermittelt, der zur Evaluierung der 3D-Darstellungs-Performance der Blickfeldanzeigevorrichtung verwendbar ist. Der mindestens eine Ist-Darstellungsparameter kann beispielsweise eine Projektionsdistanz (auch Projektionstiefe oder Bildabstand genannt) und/oder eine räumliche Position und/oder eine räumliche Orientierung des erzeugten virtuellen 3D-Testobjekts bzw. seiner Oberflächenpunkte umfassen. Alternativ oder zusätzlich kann der mindestens eine Ist-Darstellungsparameter des erzeugten virtuellen 3D-Testobjekts eine lokale vertikale Punktdisparität, die einen vertikalen Versatz der paarweise einander entsprechenden Objektoberflächenpunkte in den Kamera-Aufnahmen aus den zwei verschiedenen Perspektiven angibt, umfassen. Der jeweilige Ist- Darstellungsparameter kann beispielsweise bezüglich eines Koordinatensystems des Stereo-Kamerasystems, der Blickfeldanzeigevorrichtung oder des Fahrzeugs, in dem sie montiert ist, oder bezüglich einer für deren Nutzer vorgesehenen Eyebox bestimmt sein. Als Eyebox wird hierin wie üblich ein für Nutzeraugen oder für das jeweilige Nutzerauge bestimmter zwei- oder dreidimensionaler Raumbereich verstanden, aus dem die erzeugten virtuellen 3D-Bilder für den Nutzer in vorgesehener Qualität sichtbar sind. Um die 3D-Darstellungs-Performance der Blickfeldanzeigevorrichtung zu bewerten, kann der jeweilige Ist-Darstellungsparameter mit einem vorgegebenen zugehörigen Soll-Darstellungsparameter des virtuellen 3D- Testobjekts verglichen werden. Abhängig davon kann die 3D-Darstellungs- Performance der Blickfeldanzeigevorrichtung evaluiert und beispielsweise bei Überschreitung einer vorgegebenen Abweichungstoleranz gezielt verbessert werden. Eine Idee zur Bewältigung eingangs beschriebener Schwierigkeiten bei der Evaluierung der 3D-Darstellungs-Performance einer 22-1285 9 Blickfeldanzeigevorrichtung besteht somit in einem Verfahren und einer entsprechenden Messvorrichtung in Form eines in geeigneter Weise im Strahlengang der Blickfeldanzeigevorrichtung positionierbaren Stereo- Kamerasystems, die zu einer Erfassung der 3D-Struktur eines virtuellen Bilds mit einer softwareseitigen Superposition des zu vermessenden virtuellen Bilds mit vordefinierten Mustern ausgebildet sind. Diese messtechnische Erfassung kann insbesondere auch augenpositionsabhängig gestaltet sein, d. h. wählbaren/einstellbaren bzw. variierbaren Augenpositionen und/oder Augenabständen eines Nutzers entsprechen. Die Blickfeldanzeigevorrichtung, insbesondere in Form eines Head-Up- Displays, kann dabei in grundsätzlich jeder technisch realisierbaren Weise zur 3D-Bilderzeugung ausgelegt sein. Es kann sich dabei also nicht nur um die bloße Erzeugung eines Tiefeneffekts durch Verwendung mehrerer oder geneigt im Raum liegender oder gewölbter zweidimensionaler virtueller Bildebenen und Bildflächen, sondern insbesondere auch um „echt“ dreidimensionale virtuelle 3D-Objekte handeln, die beispielsweise mit holografischen Techniken durch eine eigens hierzu ausgebildete bilderzeugende Einheit der Blickfeldanzeigevorrichtung erzeugt werden. Mit einem solchen 3D-HUD im Kraftfahrzeug können also beispielsweise Objekte wie etwa ein Pfeil in großer Entfernung dargestellt werden und gleichzeitig z. B. ein Hinweisschild in naher Distanz zum Fahrer. Zur leichteren Vermessung werden diese Objekte beispielsweise mit einem Schachbrettmuster überlagert dargestellt, um sie beispielsweise mit einem Stereokamera-Paar zu vermessen (in Abhängigkeit von der Position des Stereokamera-Paares). Anschließend können die Abweichungen zum Soll festgestellt werden. Wie eingangs erwähnt, besteht eine zentrale Besonderheit bei den virtuell dargestellten 3D-Objekten darin, dass sich ihre Position und auch ihre Form (sowohl bei der Verwendung zweidimensionaler Bildebenen und dreidimensional gebogener Bildflächen als auch bei „echt“ dreidimensional erzeugten virtuellen Objekten) mit der Augen- bzw. Kameraposition ändern kann. Insbesondere spielt dabei auch der individuelle Augenabstand des 22-1285 10 Nutzers eine Rolle, sodass Nutzer mit unterschiedlichen Augenabständen ein virtuelles 3D-Objekt entsprechend unterschiedlich wahrnehmen können. Beim Einsatz im Fahrzeug können eine korrekte Position und Ausrichtung eines virtuellen Objekts im Raum insbesondere bei der kontaktanalogen (d. h. an realen Umfeldobjekten angelehnten) Darstellung von entscheidender Wichtigkeit sein. Mit dem hierin vorgestellten technischen Konzept zur 3D-Vermessung der virtuellen Objekte einer Blickfeldanzeigevorrichtung können diese Effekte und etwaige Abweichungen vom gewünschten Ergebnis schnell, robust und präzise erfasst und quantifiziert werden, um die Blickfeldanzeigevorrichtung in dieser Hinsicht zu evaluieren und gezielt verbessern zu können. Zu dem hierin beschriebenen Zweck kann das Flächenmuster beispielsweise mindestens eine von folgenden Musterarten oder Mustereigenschaften aufweisen, die auch miteinander kombiniert und/oder abwechselnd, d. h. nebeneinander, in der Objektoberfläche vorliegen können: ein regelmäßiges oder periodisches zweidimensionales Muster (die Periodizität kann ein- oder zweidimensional sein, d. h. das zweidimensionale Muster kann sich in der zweidimensionalen Fläche beispielsweise nur in einer Richtung periodisch ändern, während es in einer hierzu orthogonalen Richtung konstant bleibt, oder aber es kann sich in zwei unabhängigen Richtungen mit der jeweiligen Periodizität ändern); ein unregelmäßiges oder aperiodisches zweidimensionales Muster (beispielsweise statistisch oder quasi-statistisch); ein Schachbrettmuster; eine flächige Verteilung von Kreisen mit einem oder mehreren vorbestimmten Durchmessern; ein Speckle-Muster; ein flächendeckendes Grauwertmuster, dessen Grauwerte vorzugsweise in jedem Flächenpunkt in einer vorbestimmten Weise variieren; ein Schwarz-Weiß- Muster; ein Farbmuster, das eine oder mehrere verschiedene Farben aufweist. Grundsätzlich bieten dabei flächendeckende und/oder unregelmäßige Flächenmuster, wie z. B. aperiodische Sinusmuster oder Speckle-ähnliche Grauwertverteilungen, bei Bedarf mehr Möglichkeiten für eine schnelle und/oder 22-1285 11 zeitlich aufgelöste Feature-Zuordnung zwischen dem linken und dem rechten Kamerabild des erzeugten virtuellen 3D-Objekts. Gemäß einer Ausführungsform ist beim Erfassen des erzeugten virtuellen 3D- Testobjekts die jeweilige Kamera des Stereo-Kamerasystems an einer für das jeweilige Auge des Nutzers vorgesehenen Raumposition angeordnet. Insbesondere kann dabei ein gesamtes für das jeweilige Auge des Nutzers vorgesehenes Eyebox-Volumen der Blickfeldanzeigevorrichtung vom Stereo- Kamerasystem abgetastet werden, indem die jeweilige Kamera des Stereo- Kamerasystems das erzeugte virtuelle 3D-Testobjekt von mehreren verschiedenen Positionen innerhalb des Eyebox-Volumens aus nacheinander erfasst, um die 3D-Darstellungs-Performance der Blickfeldanzeigevorrichtung möglichst vollumfänglich für die gesamte Eyebox zu evaluieren. Gemäß einer weiterführenden oder alternativen Ausführungsform kann der definierbare relative Abstand der mindestens zwei Kameras zur Anpassung an unterschiedliche Augenabstände des Nutzers variierbar sein. Insbesondere kann er beim Erfassen des erzeugten virtuellen 3D-Testobjekts auch variiert werden, um die 3D-Darstellungs-Performance der Blickfeldanzeigevorrichtung für verschiedene Augenabstände der Nutzer zu evaluieren. Gemäß einer Ausführungsform umfasst das hierin vorgestellte Verfahren ferner eine Kalibrierung mindestens einer der genannten Kameras des Stereo- Kamerasystems, die insbesondere vor der Vermessung des eigentlichen 3D- Testobjekts durchgeführt werden kann. Hierzu kann diese Kamera beispielsweise an einer oder mehreren diskreten Kalibrierpositionen positioniert werden und dabei jeweils eine Kalibrierung durch Ermittlung einer räumlichen Position und/oder Orientierung und/oder bei Bedarf auch mindestens einer internen Abbildungseigenschaft dieser Kamera bezüglich eines Koordinatensystems des Stereo-Kamerasystems oder der Blickfeldanzeigevorrichtung durchgeführt werden. Daraus wird bei dieser Ausführungsform anschließend eine parametrische Rekalibrier-Funktion bestimmt, die abhängig von mindestens einem (insbesondere kontinuierlich) messbaren Kamerapositionsparameter die räumliche Position und/oder Orientierung dieser Kamera an unendlich vielen dazwischen und/oder darüber hinaus liegenden Kamerapositionen angibt. Anhand dieser parametrischen Rekalibrier-Funktion erhältliche räumliche Positionen und/oder Orientierungen dieser Kamera können als deren Kalibrierung bei der eigentlichen Vermessung des virtuellen 3D-Testobjekts verwendet werden, d. h. zur Ermittlung seines mindestens einen Ist- Darstellungsparameters, wie z. B. seiner Projektionsdistanz mittels Triangulation. Auf diese Weise kann zum einen eine zeit- und kostenintensive Rekalibrierung jeder einzelnen Kamera des Stereo-Kamerasystems bei jeder Kamerabewegung umgangen werden. Zum anderen eröffnet eine solche Parametrisierung der Kamerakalibrierung die Möglichkeit, schnell und zugleich präzise unterschiedliche Augenpositionen und/oder Augenabstände der Nutzer beim Vermessen des virtuellen 3D-Testobjekts zu berücksichtigen. Einige Ausführungsbeispiele hierzu werden weiter unten angegeben. Insbesondere kann dabei die genannte Kamera entlang mindestens einer translatorischen Schiene mit einem linearen Positionsfeedback verschiebbar sein, sodass der genannte messbare Kamerapositionsparameter eine lineare Kameraposition oder ein linearer Kameraabstand zur zweiten Kamera des Stereo-Kamerasystems auf dieser Schiene gemäß dem aktuell erhaltenen Positionsfeedback ist. Das Positionsfeedback kann beispielsweise direkt bei der Erfassung des erzeugten virtuellen 3D-Testobjekts oder auch unmittelbar davor oder danach gemessene bzw. erhalten werden, sodass insbesondere eine Rekalibrierung in Echtzeit durch solch eine parametrische Rekalibrier-Funktion ermöglicht wird. Gemäß einem weiteren Aspekt ist eine Steuereinheit vorgesehen, die zur automatischen Durchführung des hierin vorgestellten Verfahrens ausgebildet und eingerichtet ist. Hierzu kann in der Steuereinheit beispielsweise ein 13 entsprechendes Computerprogramm installiert sein und beim Betrieb der Blickfeldanzeigevorrichtung laufen. Gemäß einem weiteren Aspekt ist eine Blickfeldanzeigevorrichtung vorgesehen, die insbesondere zum Einsatz in einem Fahrzeug ausgebildet sein kann. Die Blickfeldanzeigevorrichtung umfasst eine Projektionseinheit, die zum Erzeugen und Ausgeben eines Lichtstrahlenbündels mit einem darin transportierten 3D- Bildinhalt zu einer im Blickfeld eines Nutzers anzuordnenden oder angeordneten teiltransparenten Reflexionsscheibe ausgebildet ist. Die Ausgestaltung und gegenseitige Anordnung der Projektionseinheit und der Reflexionsscheibe sind derart gewählt, dass dem Nutzer dahinter ein gewünschtes virtuelles 3D-Bild dargestellt wird, sofern sich seine Augen in einem dafür bestimmten Raumbereich (Eyebox) gegenüber der Reflexionsscheibe befinden. Hierzu kann die Projektionseinheit eine bilderzeugende Einheit, beispielsweise in Form eines geeigneten Displays oder Projektors, sowie gegebenenfalls weitere optische Elemente im Strahlengang des vom Display/Projektor ausgehenden Lichtstrahlenbündels zu dessen weiterer Strahlformung und -Umlenkung umfassen. Die Blickfeldanzeigevorrichtung umfasst ferner ein optisches Stereo- Kamerasystem, das mindestens eine bewegbare Kamera und/oder mindestens zwei Kameras in einem definierbaren Abstand voneinander umfasst, die im Strahlengang des Lichtstrahlenbündels nach dessen Reflexion an der Reflexionsscheibe positionierbar sind und dazu ausgebildet sind, das dargestellte virtuelle 3D-Bild aus mindestens zwei verschiedenen Perspektiven zu erfassen. Des Weiteren umfasst die Blickfeldanzeigevorrichtung die obige Steuereinheit, die zum Ansteuern der Projektionseinheit und des Stereo- Kamerasystems bei der automatischen Durchführung des hierin vorgestellten Verfahrens ausgebildet und eingerichtet ist. Auch die genannte Reflexionsscheibe kann als Bestandteil der Blickfeldanzeigevorrichtung oder, alternativ, auch separat hergestellt und/oder vertrieben sein. Bei der Verwendung in einem Fahrzeug kann die Reflexionsscheibe insbesondere als ein Abschnitt einer Frontscheibe eines Fahrzeugs oder einer anderen 22-1285 14 Fahrzeugscheibe ausgebildet sein. Sie kann aber auch als eine eigens zum hierin genannten Zweck ausgebildete Combinerscheibe ausgebildet sein. Gemäß einem weiteren Aspekt ist ein Fahrzeug, insbesondere ein Kraftfahrzeug oder ein beliebiges anderes Land-, Luft- oder Wasserfahrzeug vorgesehen. Die hierin verwendeten räumlichen Orientierungsbegriffe wie „oberhalb“, „unterhalb“, „vor“, „seitlich“, „horizontal“, „vertikal“ etc. können sich insbesondere auf das übliche fahrzeugfeste kartesische Koordinatensystem mit zueinander senkrechten Längs-, Quer- und Höhenachsen des Fahrzeugs beziehen. Das Fahrzeug umfasst eine Frontscheibe und eine darunter angeordnete Instrumententafel und ist mit der obigen Blickfeldanzeigevorrichtung ausgestattet. Deren bilderzeugende Einheit oder gegebenenfalls deren gesamte Projektionseinheit (die neben der bilderzeugenden Einheit zusätzlich geeignete Projektionsoptik umfassen kann) kann insbesondere im Inneren der Instrumententafel oder in/auf deren Oberseite angeordnet, beispielsweise direkt auf oder unterhalb der Oberseite der Instrumententafel verbaut sein, derart dass das Lichtstrahlenbündel von der Projektionseinheit auf die Frontscheibe oder eine fahrzeuginnenseitig davor im Blickfeld des Fahrers oder eines anderen Insassen positionierte Combinerscheibe geworfen wird, die als oben erwähnte teiltransparente Reflexionsscheibe dient. Alternativ kann die Blickfeldanzeigevorrichtung aber auch an jedem anderen geeigneten Ort im Fahrzeug verbaut sein. Die obigen Aspekte der Erfindung und deren spezifische Ausgestaltungsvarianten, Ausführungsformen und weiterführende Merkmale und Wirkungen werden nachfolgend anhand der in den beigefügten Zeichnungen dargestellten Beispiele näher erläutert. Die Zeichnungen sind als rein schematische Illustrationen, d. h. nicht als maßstabsgetreu, zu verstehen. Es zeigen: 22-1285 15 Figur 1 in schematischer Draufsicht eine Blickfeldanzeigevorrichtung in einem Kraftfahrzeug, die zum Einblenden von 3D-Bildern ins Blickfeld eines Insassen über Reflexion an einer in seinem Blickfeld angeordneten Fahrzeugscheibe und zur Durchführung eines Verfahrens gemäß einem Ausführungsbeispiel der Erfindung ausgebildet ist; Figur 2 ein Flussdiagramm eines Ausführungsbeispiels eines hierin vorgestellten Verfahrens zum Vermessen virtueller 3D-Bilder einer Blickfeldanzeigevorrichtung; Figur 3 einen beispielhaften Schritt der Bereitstellung von Bilderzeugungsdaten eines virtuellen 3D-Testobjekts beim Verfahren der Fig. 2, das durch eine Blickfeldanzeigevorrichtung erzeugt werden soll und dessen quaderförmige dreidimensionale Objektoberfläche zu seiner 3D-Vermessung softwareseitig mit einem Schachbrett-Flächenmuster überlagert wird; Figur 4 eine schematische Darstellung eines weiteren Beispiels eines virtuellen 3D-Testobjekts aus zwei verschiedenen Perspektiven, die beim Verfahren der Fig. 2 durch das Stereo-Kamerasystem erfasst werden, wobei die quaderförmige dreidimensionale Objektoberfläche zu deren 3D-Vermessung softwareseitig mit einem vordefinierten Flächenmuster in Form von Vollkreisen überlagert ist; Figur 5 eine schematische Darstellung eines weiteren Beispiels eines virtuellen 3D-Testobjekts aus zwei verschiedenen Perspektiven, die beim Verfahren der Fig. 2 durch das Stereo-Kamerasystem erfasst werden, wobei die pyramidenförmige dreidimensionale Objektoberfläche zu deren 3D-Vermessung softwareseitig mit einem vordefinierten Flächenmuster in Form eines Speckle-artigen Grauwertmusters überlagert ist. 22-1285 16 Alle weiter oben in der Beschreibung und in den nachfolgenden Ansprüchen erwähnten verschiedenen Ausführungsformen, Varianten und spezifischen Ausgestaltungsmerkmale des Verfahrens, der Blickfeldanzeigevorrichtung, der Steuerungseinheit und des Fahrzeugs gemäß den obigen Aspekten der Erfindung können bei den in den Figuren 1 bis 5 gezeigten Beispielen implementiert sein. Sie werden daher nachfolgend nicht alle nochmals wiederholt. Das Gleiche gilt entsprechend für die weiter oben bereits angegebenen Begriffsdefinitionen und Wirkungen in Bezug auf einzelne Merkmale, die in den Fig.1-5 gezeigt sind. Fig. 1 zeigt in einer stark vereinfachten schematischen Draufsicht ein Ausführungsbeispiel eines Fahrzeugs 1 mit einer Blickfeldanzeigevorrichtung 2 gemäß den weiter oben und in den Ansprüchen angegebenen Aspekten der Erfindung. Es handelt sich in diesem Beispiel um ein Kraftfahrzeug, das nur durch seine Frontscheibe 3 angedeutet ist. Gegenüber der Frontscheibe 3, beispielsweise darunter ist in einer nicht näher dargestellten Instrumententafel 4 des Fahrzeugs 1, ist eine Projektionseinheit 5 der Blickfeldanzeigevorrichtung 2 angeordnet. Die Blickfeldanzeigevorrichtung 2 ist in diesem Beispiel als ein 3D- Head-up-Display (3D-HUD) ausgebildet. Die Projektionseinheit 5 ist zur Erzeugung eines Lichtstrahlenbündels L mit einem gewünschten 3D-Bildinhalt ausgebildet. Das von der Projektionseinheit 5 ausgehende Lichtstrahlenbündel L wird so auf die Frontscheibe 3 geworfen, die in diesem Beispiel als teiltransparente Reflexionsscheibe der Blickfeldanzeigevorrichtung 2 dient, dass es nach der Reflexion an der Frontscheibe 3 zu einer Eyebox E eines Nutzers 6 gelangt, der in diesem Beispiel ein Fahrer des Fahrzeugs 1 ist. Die Eyebox E ist dabei ein zwei- oder dreidimensional definierter Raumbereich im Fahrzeug 1 an einer vorbestimmten Position gegenüber der Frontscheibe 3, der für die Augen des Nutzers 6 bestimmt ist, sodass er ein von der Blickfeldanzeigevorrichtung 2 erzeugtes virtuelles 3D-Bild O mit beiden Augen sehen kann. Wie in Fig. 1 veranschaulicht, sieht der Nutzer 6 dabei mit seinem linken Auge ein virtuelles 22-1285 17 Bild OL und mit seinem rechten Auge ein virtuelles Bild OR, deren relative Position und Form mit dem Augenabstand und der Augenposition des Nutzers 6 relativ zum Lichtstrahlenbündel L variieren können, sodass auch die resultierende Wahrnehmung und räumliche Position des erzeugten 3D-Objekts abhängig von dem Augenabstand und der Augenposition des Nutzers 6 variieren kann. Ferner ist im Fahrzeug 1 bzw. in der Blickfeldanzeigevorrichtung 2 ein optisches Stereo-Kamerasystem 7 vorgesehen, das mindestens eine bewegbare Kamera und/oder mindestens zwei Kameras in einem definierbaren Abstand voneinander umfassen kann (nicht einzeln dargestellt), die im Strahlengang des Lichtstrahlenbündels L nach dessen Reflexion an der Frontscheibe 3 positionierbar sind, um das dargestellte virtuelle 3D-Bild O aus zwei verschiedenen Perspektiven zur Bewertung der 3D-HUD-Performance zu erfassen (selbstverständlich ohne das der Nutzer 6 dabei ist). Beispielsweise kann das Stereo-Kamerasystem 7 hierzu direkt in der Eyebox E des Nutzers 6 oder, wie in Fig. 1 angedeutet, unmittelbar davor positioniert werden. Das Stereo-Kamerasystem 7 und dessen Position sind in Fig.1 rein beispielhaft und schematisch angedeutet. Zum Ausführen eines Verfahrens gemäß dem obigen ersten Aspekt der Erfindung ist ferner eine entsprechend eingerichtete Steuereinheit 8 vorgesehen, die in hierzu geeigneter Weise mit der Projektionseinheit 5 und dem Stereo-Kamerasystem 7 informations- und ansteuerungstechnisch kommunizieren kann. Die Steuereinheit 8 kann beispielsweise in der Projektionseinheit 5 oder außerhalb dieser im Fahrzeug 1, beispielsweise in der Instrumententafel 4, angeordnet sein. Fig. 2 zeigt ein Flussdiagramm eines Ausführungsbeispiels eines Verfahrens gemäß dem obigen ersten Aspekt der Erfindung zum Vermessen virtueller 3D- Bilder O einer Blickfeldanzeigevorrichtung 2, wie sie beispielsweise in Fig. 1 gezeigt ist. Der Bezug zu Fig. 1 ist jedoch nicht beschränkend aufzufassen, sondern dient allein einer beispielhaften Veranschaulichung der möglichen 22-1285 18 Schritte. Das Verfahren kann insbesondere die folgenden Grundschritte umfassen, wobei weitere Details, Varianten und optionale weitere Schritte anschließend weiter unten angegeben werden: Bei einem Schritt S1 werden der Projektionseinheit 5 der Blickfeldanzeigevorrichtung 2 oder deren Steuereinheit 8 Bilderzeugungsdaten eines virtuellen 3D-Testobjekts O bereitgestellt. Dabei wird eine dreidimensional darzustellende virtuelle Objektoberfläche 9 des 3D-Testobjekts softwareseitig mit einem vorbestimmten visuellen Flächenmuster überlagert, damit sie dem Flächenmuster entsprechende Variationen beispielsweise in der Helligkeit und/oder Farbe aufweist. Fig. 3 veranschaulicht diesen Schritt am Beispiel eines Schachbrett- Flächenmusters. In diesem Beispiel ist die gesamte darzustellende Objektoberfläche 9 des virtuellen 3D-Testobjekts O beim Bereitstellen seiner Bilderzeugungsdaten mit dem Flächenmuster überlagert worden. In Fig.3 links ist das zu erzeugende virtuelle 3D-Objekt vor der softwareseitigen Überlagerung mit dem Flächenmuster gezeigt. Rechts in Fig. 3 ist das zu erzeugende virtuelle 3D-Objekt O in seiner zur Vermessung/ Kalibrierung verwendeten Darstellungsform gezeigt. Seine in diesem Beispiel quaderförmige Objektoberfläche 9 ist zu einer besonders schnellen und präzisen Vermessung des 3D-HUDs im Hinblick auf die Projektionsdistanz und Local Point Disparity (lokale Punktdisparität, siehe weiter unten) softwareseitig mit einer bekannten Struktur überlagert, wie z. B. einem Schachbrettmuster, dessen Ecken 10 nach der Erfassung durch das Stereo-Kamerasystem 7 durch Gradientenbildung besonders leicht zu lokalisieren sind. Alternativ können aber auch allgemeinere (quasi-) statistische Muster als Flächenmuster verwendet werden. Die Überlagerung mit einem geeigneten Flächenmuster beim Schritt S1 dient hierbei rein der Vermessung und gegebenenfalls Kalibrierung der Blickfeldanzeigevorrichtung 2 (siehe weiter unten). Bei einem Schritt S2 wird das virtuelle 3D-Testobjekt O durch die Blickfeldanzeigevorrichtung 2 gemäß den bereitgestellten Bilderzeugungsdaten 22-1285 19 erzeugt und aus mindestens zwei verschiedenen Perspektiven durch ein optisches Stereo-Kamerasystem 7 erfasst. Hierzu weist das Stereo- Kamerasystem 7 im Strahlengang der Blickfeldanzeigevorrichtung 2 nach der Reflexionsscheibe mindestens eine bewegbare Kamera und/oder mindestens zwei Kameras in einem definierbaren Abstand voneinander. Durch das Bewegen der Kameras des Stereo-Kamerasystems 7 relativ zueinander und zum Strahlengang des Lichtstrahlenbündels L können insbesondere unterschiedliche Augenpositionen und/oder Augenabstände eines Nutzers 6 berücksichtigt bzw. simuliert werden. Bei einem weiteren Schritt S3 werden in den so erhaltenen Kamera-Aufnahmen des virtuellen 3D-Testobjekts O aus den zwei verschiedenen Perspektiven (vgl. Fig. 4 und 5) anhand der darin enthaltenen Flächenmuster Bildpunkte identifiziert, die jeweils von einem und demselben Objektoberflächenpunkt bzw. -Feature stammen (sogenanntes Feature-Matching). Daraus wird mindestens ein Ist-Darstellungsparameter des erzeugten virtuellen 3D-Testobjekts O ermittelt, der zur Evaluierung der 3D-Darstellungs-Performance der Blickfeldanzeigevorrichtung 2 verwendbar ist. Dieses Verfahren und diese Vorrichtung machen insbesondere eine schnelle, robuste und präzise Vermessung virtueller 3D-Testobjekte O möglich, welche beispielsweise durch ein HUD erzeugt werden, wodurch unter anderem auch eine schnelle Kalibrierung des HUDs ermöglicht wird. Wichtige Messgrößen oder Ausgangsparameter bei der 3D-Vermessung der erzeugten virtuellen Testobjekte O zur HUD-Bewertung mit einem Stereo-Kamerasystem 7 (auch 3D-Kamera genannt) sind z. B. die Projektionsdistanz (um die Frage zu beantworten, ob die Projektionsdistanz den Vorgaben entspricht) und die vertikale lokale Punktdisparität (Local Point Disparity Y, um die Frage zu beantworten, wie stark das virtuelle Bild OL für das linke Auge und das virtuelle Bild OR für das rechte Auge vertikal voneinander abweichen, s. Fig.1). Die Projektionsdistanz kann z. B. durch Bautoleranzen der Blickfeldanzeigevorrichtung 2 von der Vorgabe abweichen. Die vertikale lokale 22-1285 20 Punktdisparität entspricht einem vertikalen Versatz der Features zwischen linkem und rechtem Auge und entsteht dadurch, dass das linke und das rechte Auge des Fahrers im Fall der HUD-Projektion ein unterschiedliches virtuelles Bild sehen. Letzteres tritt beispielsweise bei der Vermessung realer Objekte nicht auf, d. h. dort ist die vertikale lokale Punktdisparität naturgemäß gleich Null. Zur Bestimmung der Projektionsdistanz und der lokalen Punktdisparität können die beim Schritt S2 aus den zwei verschiedenen Perspektiven aufgenommenen Kamerabilder zunächst in an sich bekannter Weise rektifiziert werden, d. h. auf eine parallele Ausrichtung beider Kameras umgerechnet werden. Danach können die korrespondierenden Pixelkoordinaten ( ) und ( ) im (rektifizierten) linken und rechten Kamerabild bestimmt werden. In den rektifizierten Kamerabildern eines realen Objekts würde hierbei bekanntlich gelten. In Fall eines virtuell dargestellten 3D-Objekts nimmt das rechte und das linke Auge jedoch unterschiedliche virtuelle Bilder OL und OR wahr (vgl. Fig. 1) und in den rektifizierten Kamerabildern gilt entsprechend . Die Projektionsdistanz ergibt sich dabei beispielsweise durch Triangulation bzw. aus der horizontalen Pixelabweichung der Pixelkoordinaten ( ) der korrespondieren Features im (rektifizierten) linken und rechten Kamerabild sowie dem Kameraabstand aus dem Strahlensatz. Um die Vermessung zu verbessern und zu beschleunigen, wird beim vorliegenden Verfahren vorgeschlagen, die typischerweise im HUD für den Fahrer dargestellten 3D-Objekte (wie z. B. einen Pfeil auf der Straße, eine Markierung von Schildern oder Fußgängern, eine Karte zur Navigation u.v.m.) vor oder bei deren Erzeugung durch die Projektionseinheit 5 (wie ein Augmented-Reality-HUD-Display) allein zum Zweck der Vermessung und/oder Kalibrierung softwareseitig mit regelmäßigen (wie z. B. das Schachbrettmuster der Fig. 3), unregelmäßigen, statistischen oder quasistatistischen Flächenmustern zu überlagern. Das wiederum erlaubt eine schnelle und präzise Zuordnung korrespondierender Features im linken und rechten Kamerabild und dient somit der Vermessung der Abbildungsqualität oder Kalibrierung des HUDs. Mittels eines Schachbrettmusters lässt sich z. B. die vertikale lokale Punktdisparität an den Eckpunkten 10 des Schachbrettmusters hochpräzise bestimmen. Eine Kalibrierung des HUDs kann hierbei beispielsweise auch in der Vermessung des virtuellen, gemusterten 3D-Testobjekts in Referenz zu einem bekannten realen Objekt im Sichtfeld des Fahrers geschehen. Wie oben erwähnt, besteht eine weitere Problematik bei virtuellen Objekten eines HUDs in der Abhängigkeit der Lage des virtuellen Objekts vom Augenabstand sowie von der Augenposition des Nutzers 6. Das spielt sowohl bei der Stereokamerakalibrierung als auch bei der Vermessung des 3D- Testobjekts O mit dem Stereo-Kamerasystem 7 eine Rolle. Das hierin beschriebene Verfahren ermöglicht eine Lösung dieses Problems, die im Folgenden am Beispiel eines Stereo-Kamerasystems mit flexibel relativ zueinander positionierbaren Kameras beschrieben: Die Einbindung des Augenabstandes in die hierin vorgeschlagene Vermessung erfordert hierbei im ersten Schritt die Bestimmung einer Rotationsmatrix und eines Translationsvektors wie bei einer herkömmlichen Stereokamerakalibrierung. Hierbei kann zum einen die Verzeichnung der beiden Kameras bestimmt (sofern diese optische Verzeichnung aufweisen) und algorithmisch herausgerechnet werden. Außerdem werden hierbei die intrinsischen Kameraparameter (Brennweiten, optisches Zentrum) bestimmt, sofern diese nicht bekannt sind, sowie die extrinsischen Parameter (Rotationsmatrix, Translationsvektor der beiden Kamerakoordinatensysteme relativ zueinander oder zum Fahrzeug) bestimmt. Um eine Rekalibrierung für jede Verschiebung der relativen Position der Kameras des Stereo-Kamerasystems 7 zu vermeiden, können die beiden Kameras z. B. auf einer translatorischen Schiene oder einer anderen Bewegungseinrichtung mit Positionsfeedback angebracht werden. Auf Basis einer Stereokamerakalibrierung, die in einigen wenigen festen und bekannten relativen Positionen der Kameras zueinander durchgeführt wird, wird die Stereokamerakalibrierung gemäß der hierin weiter oben beschriebenen Ausführungsform der Erfindung mit mathematischen Mitteln (wie beispielsweise mathematische Modellierung oder polynomiale Inter- oder Extrapolation u.v.m.) auf dazwischen und/oder darüber hinaus liegende Positionen erweitert. Mit anderen Worten lässt sich auf Basis tatsächlicher Kalibrierung an einigen bekannten Positionspunkten der Kameras eine parametrische Rekalibrier- Funktion angeben, die von einem oder mehreren (beispielsweise kontinuierlich) messbaren Kamerapositionsparametern abhängt. Die parametrische Rekalibrier-Funktion kann beispielsweise eine präzise relative 3D- Kameraposition abhängig von einem messbaren Abstand der Kamera auf einer Schiene (die sich durch ein einfaches lineares Modell beschreiben lässt) angeben. Zur Einbindung des Augenabstandes und der Augenposition in die Vermessung eines virtuellen 3D-Objekts kann das Eyebox-Volumen des HUDs beispielsweise mittels des Stereo-Kamerasystem für variable Abstände der linken und der rechten Kamera abgerastert bzw. abgetastet werden. Die Augenposition kann dabei durch den jeweiligen Mittelpunkt des Stereo- Kamerasystems 7 parametrisiert werden. Für jede Kameraposition sowie jeden Augenabstand wird hierbei durch eine Stereo-Photoaufnahme des (mit dem Flächenmuster versehenen) virtuellen 3D-Testobjekts beispielsweise ein 3D- Punktmodell erstellt. Durch die Beschreibung des 3D-Punktmodells als Fitfunktion der Augenposition und des Augenabstandes lassen sich hierbei 3D- Punktwolkenmodelle für unbekannte Augenabstände und Augenpositionen inter- bzw. extrapolieren. Die notwendige Anzahl der Messpunkte des Rasters im Eyebox-Volumen bzw. die Komplexität der Fitfunktion (diese kann im einfachsten Fall durch eine lineare Interpolationsfunktion und im Extremfall 23 durch ein neuronales Netz beschrieben werden) hängt hierbei im Allgemeinen von der Komplexität der HUD-Optik bzw. der Reflexionsscheibe (wie der Frontscheibe 3) ab. Im einfachsten Fall kann das Eyebox-Volumen z.B. durch eine einzelne Augenposition mit einem vorbestimmen konstanten Augenabstand „abgetastet“ werden. Im Übrigen kann auch beim vorliegenden Verfahren zur Identifizierung einander entsprechender Oberflächenpunkte in beiden Kameraaufnahmen ein geeignetes Ähnlichkeitsmaß sowie z.B. ein Brute-Force-Suchalgorithmus verwendet werden, welcher das linke und das rechte Kamerabild abgleicht. Die Messvorrichtung kann beim vorgestellten Verfahren somit beispielsweise eine oder mehrere variabel positionierbare Kamera(s) umfassen (Stereo- Kamerasystem 7), deren relative Positionen entweder fest (nur für mindestens zwei Kameras) oder variabel sein können. Die Kalibrierung der Messvorrichtung geschieht hierbei idealerweise durch die oben vorgestellte parametrische Beschreibung mit Hilfe von Kamera-positionsabhängigen Rotationsmatrizen und Translationsvektoren bzw. sich daraus zusammensetzenden Projektionsmatrizen
Figure imgf000025_0001
wobei λ der oben erwähnte messbare Kamerapositionsparameter ist. In den Fotos des virtuellen Objekts aus zwei oder mehr verschiedenen Perspektiven können die Pixel-Disparitäten der identischen Features als Funktion der so ermittelten Kamerapositionen interpretiert werden. Dadurch lässt sich durch eine parametrische Darstellung dieses funktionellen Zusammenhangs die 3D-Struktur der Oberfläche 9 des virtuellen 3D- Testobjekts O positionsabhängig berechnen. Somit lässt sich das virtuelle 3D- Testobjekt O für verschiedene Augenpositionen und Augenabstände interpolieren. Auf diese Weise kann beim vorliegenden Messkonzept die Problematik einer nur sehr schwer zu erreichenden exakten Positionierung der beiden Kameras bei der Stereo-Kalibrierung (z.B. aufgrund von Bautoleranzen der Kameras), die 22-1285 24 zur Beschreibung/Bewertung der 3D-HUD-Performance für einen gewünschten Augenabstand benötigt wird, mit rigorosen mathematischen Mitteln vermieden werden. Somit kann eine schnelle und zuverlässige Vermessung der durch das HUD erzeugten virtuellen 3D-Strukturen für variable Augenabstände und Augenpositionen erreicht werden. Fig. 4 und 5 zeigen weitere Beispiele für die beim Schritt S1 der Fig. 2 erfolgende softwareseitige Überlagerung des zu vermessenden virtuellen 3D- Testobjekts O vor seiner Erzeugung mit vordefinierten Flächenmustern, bevor es in den Schritten S2 und S3 erzeugt und aus verschiedenen Kameraperspektiven fotografiert wird. Wird das virtuelle Objekt z.B. wie in Fig.4 mit Vollkreisen 11 überlagert, kann durch eine einfache Erkennung der Zentren der Kreise 11 ein schnelles, zuverlässiges und präzises Feature-Matching (Identifizierung einander entsprechender Objektoberflächenpunkte) zwischen den Fotos der einzelnen Perspektiven (die den vom Nutzer 6 wahrnehmbaren virtuellen Bildern OL und OR der Fig. 1 entsprechen können) gewährleistet werden. Eine weitere Umsetzungsmöglichkeit gemäß Fig. 5 besteht darin, das zu vermessende virtuelle 3D-Testobjekt (hier eine Pyramide mit einer rechteckigen Basis) softwareseitig mit einem Speckle-artigen Flächenmuster zu überlagern. Das Feature-Matching zwischen den Fotos der einzelnen Kameraperspektiven kann hier beispielsweise durch eine Rektifizierung der beiden Fotos und eine Zuordnung der Grauwertwerte um die entsprechenden Maxima der Speckles 12 in den Fotos der einzelnen Kameraperspektiven. Im Übrigen kann hier das Gleiche wie in Fig.4 gelten. Eine weitere Umsetzungsmöglichkeit (vgl. Fig. 3) besteht darin, das zu vermessende virtuelle 3D-Testobjekt O softwareseitig mit einem Schachbrettmuster zu überlagern. Das Feature-Matching zwischen den Fotos der einzelnen Kameraperspektiven geschieht hier beispielsweise durch Bestimmung der Eckpunkte 10 der Schachbrettmuster und eine Zuordnung der entsprechenden Koordinaten in den Fotos der einzelnen Kameraperspektiven. Um eine eindeutige Zuordnung der Eckpunkte 11 des Schachbrettmusters zwischen dem linkem und dem rechtem Kamerabild zu ermöglichen, können die 22-1285 25 einzelnen Vierecke des Schachbrettes z.B. durch Farben oder QR-ähnliche Muster codiert werden. Im Übrigen kann hier das Gleiche wie in Fig. 4 oder 5 gelten. Eine weitere Umsetzungsmöglichkeit besteht darin, dass das virtuelle 3D- Testobjekt O aus N beliebig im 3D-Raum verteilten virtuellen Unter- bzw. Teilobjekten besteht (z.B. kann es sich um eine reguläre oder gitterartige dreidimensionale Anordnung dreidimensionaler Kugeln handeln), welche jeweils mit einem Flächenmuster überlagert werden, dessen Feature(s) zum stereoskopische Feature-Matching verwendet wird bzw. werden. Eine weitere Umsetzungsmöglichkeit wäre es, das zu vermessende virtuelle 3D-Objekt softwareseitig mit einem aperiodischen Flächenmuster, beispielsweise einem Sinusmuster (nicht dargestellt) zu überlagern. Das Feature-Matching zwischen den Fotos der einzelnen Kameraperspektiven kann hier durch eine Rektifizierung der Fotos und eine Zuordnung der Grauwertwerte um die entsprechenden Maxima des Sinusmusters in den Fotos der einzelnen Kameraperspektiven implementiert sein.
22-1285 1 Description Device and method for measuring three-dimensional virtual images and objects of a head-up display The invention relates to a method for measuring virtual 3D images of a field of view display device, which is used to display 3D images in a user's field of vision via reflection on a partially transparent reflection disk arranged in its field of vision. The field of view display device can be designed in particular for use in a motor vehicle or another land, aircraft or water vehicle, with, for example, a front, rear or side window of the vehicle or a combiner window specifically provided for this purpose being in the field of vision of a user, the passenger of the vehicle , serves as a reflection disk. The invention is also directed to a corresponding control unit, an associated field of view display device and a vehicle equipped therewith. Field of view display devices for vehicles are known, among other things, as head-up displays (HUD). This allows, for example, speed information and other useful navigation and vehicle operating instructions or even entertainment content in the form of a virtual image to be superimposed on the real image of the surroundings in front of or in the vehicle observed by the driver or another occupant. For this purpose, a HUD in a classic design has a projection unit housed in the instrument panel. This includes an imaging unit, for example a display, for generating a light beam with the desired display content and, if necessary, suitable projection optics in order to further shape the light beam and to the 22-1285 2 called partially transparent reflection disk. By reflecting on the reflection disk, the bundle of light rays reaches a space in the vehicle interior that is intended for the user's eyes (also called an eyebox), from which he can perceive the display content as a virtual image floating behind the reflection disk. The evaluation of the virtual image and the improvement of the HUD performance requires an objective capture of the displayed virtual image content using measuring devices. For conventional HUDs in motor vehicles, photos of the virtual image are usually created using a mono camera in fixed positions relative to the windshield and some important performance parameters, such as. B. a double image distance or any distortions are evaluated. However, any existing depth information of the virtual image is lost. It is therefore not possible to evaluate HUD design parameters that are particularly important for 3D images, such as the virtual image distance or image curvature, or performance parameters such as local point disparity. The relative position of the virtual image to the environment, which is of utmost importance for augmentation (augmented reality) through contact-analog virtual representations, i.e. virtual representations based on real surrounding objects, cannot be objectively recorded and corrected either. Head-up display development is increasingly focusing on the generation of three-dimensional virtual image structures and image augmentation through contact-analog virtual representations. Therefore, an objective evaluation of such image content using suitable measuring devices is becoming increasingly important in order to be able to ensure targeted improvement and reliable calibration of corresponding HUD systems. Both a quantitative evaluation of the display performance and a calibration of a head-up display intended for 3D image generation require precise recording of the three-dimensional virtual structures generated through measurements. 22-1285 3 In the state of the art, stereoscopic measurement using a specially designed stereo camera is an established method for measuring and recording the spatial structure of physical three-dimensional objects, as described, for example, in US 1,871,281 or US 6,430,373. Here, a photo of the object to be examined is created using at least two calibrated cameras, whose fixed positioning in space relative to one another is known. By comparing identical object features in the photos from the left and right cameras, a pixel disparity of the identical features in the left and right images can be determined. This in turn allows the calculation of a 3D position of the respective object features relative to the stereo camera in space using triangulation. The camera calibration of the stereo camera is usually carried out by photographing various targets, ie real objects whose spatial positioning and extent are known, by the cameras that are fixedly positioned relative to one another. From this, extrinsic camera parameters such as rotation and translation of the coordinate systems of both cameras relative to one another and, if not already known, also intrinsic camera parameters such as focal length and optical center can be determined using known mathematical methods. A well-known difficulty when measuring a real 3D object with a stereo camera is quickly and precisely determining corresponding features in both images. In general, this can be done, for example, by using a suitable similarity measure and e.g. B. a brute force search algorithm that compares the left and right camera images. A frequently used step that is intended to further simplify the search is to rectify both stereo images. The images are transformed using the known extrinsic parameters (such as a rotation matrix and a translation vector of the two camera coordinate systems of the stereo camera relative to one another) as if both cameras were perfectly aligned parallel to one another. This means that corresponding features in the right and in the 22-1285 4 left camera image has the same vertical pixel coordinate, and corresponding features are therefore on a horizontal line. In order to enable a quick, precise and robust measurement of the surface of a physical 3D object, a proposal is also made in the literature, such as in DE 102006049695 A1, to expand the stereoscopic camera system by a projection unit (e.g. in the form of a slide projector). , which projects a visual stripe pattern and, if necessary, a gray code suitable for identifying individual line pairs onto the 3D object. The projected pattern is used to quickly and robustly locate corresponding features in the left and right camera images, for example on large monochrome areas of the 3D object, using a suitable similarity measure. In order to be able to measure transparent or highly reflective 3D objects that have, for example, smooth or painted surfaces, DE 102015211954 A1 also proposes, as a variation of this projector idea, to replace the optical cameras of the stereo camera with thermal imaging cameras and to replace the projection unit with one Equip infrared heaters. In particular, it is proposed to imprint an irregular, for example any (quasi-) statistical thermal pattern (e.g. a speckle pattern) on the object surface to be examined. These suggestions do not apply to virtual 3D objects. Compared to the 3D measurement of real objects, the following additional problems arise when capturing virtual 3D images of a HUD: While real objects remain stationary, the position and shape of a virtual 3D object depends on the viewing direction from which the virtual image is viewed is observed. Consequently, on the one hand, the position of the virtual image in space depends on the actual eye position of the user (such as the driver). On the other hand, the depth perception of the virtual 3D image also changes by overlaying the images in the left and right eyes with different eye distances for the respective user. It is generally not possible to calibrate a stereo camera for an exact desired eye relief due to manufacturing tolerances of the individual cameras 22-1285 5 can be implemented without much effort. In addition, the generation of a virtual ideal image in accordance with the performance specifications of the HUD is not easily possible, for example due to manufacturing tolerances of the windshield, and requires a precise assessment of the influence of any construction deviations on the virtual image. It is therefore an object of the present invention to provide a technical concept (method and device) for measuring three-dimensional virtual images and objects of a head-up display or other field of view display device, which make it possible to overcome the problems and difficulties described. In particular, this is intended to enable a quick, precise and robust evaluation of the performance of a field-of-view display device designed for 3D representation and thus also its targeted improvement. The field of view display device should be particularly suitable for use in a vehicle. This object is achieved by a method according to claim 1 for measuring virtual 3D images of a field-of-view display device and by a corresponding control unit, field-of-view display device and a vehicle equipped therewith according to the independent claims. Further refinements are specified in the dependent claims. All further features and effects mentioned in the claims and the following description for the method also apply with regard to the control unit, the field of view display device and the vehicle, and vice versa. According to a first aspect, a method is provided for measuring virtual 3D images of a field of view display device, for example a head-up display (HUD), which can be designed in particular for use in a vehicle. The field of view display device is designed to display three-dimensional images and objects into the field of vision of a user, such as a driver or another occupant of the vehicle, via reflection on a partially transparent reflection disk arranged in his field of vision, 22-1285 6, for example a windshield or another vehicle window or a combiner window designed specifically for this purpose. The vehicle can be a motor vehicle, but also any other land, air or water vehicle. The representation of a respective 3D object by the field of view display device can in particular also be contact-analogous, ie oriented towards real surrounding objects outside the vehicle. The method includes the following steps: First, an image-generating unit of the field of view display device or its control unit is provided with image generation data of a virtual 3D test object. In this case, a virtual object surface of the 3D test object to be displayed in three dimensions is overlaid on the software side with a predetermined visual surface pattern so that it has variations corresponding to the surface pattern, for example in brightness and/or color. Both the 3D test object and the surface pattern can vary in position, shape and extent over time in a predetermined manner. The surface pattern allows the recognition of the individual surface points or areas of the virtual 3D test object to be significantly more precise, simplified and/or accelerated during its later stereoscopic detection and evaluation. In principle, the entire object surface to be displayed of the virtual 3D test object can be so completely overlaid/overlaid/covered with the surface pattern when its image generation data is provided that robust, rapid and at the same time complete recognition of individual surface points is made possible. Examples of surface patterns suitable for this are given below. The virtual 3D test object used for the measurement can have any three-dimensional shape and extent and can consist of any number of non-connected 3D partial objects, each of which can be arranged anywhere in space. In particular, the non-contiguous virtual 3D partial objects themselves can be arranged in such a way that 22-1285 7 they represent or result in a predetermined, for example regular, irregular, statistical or quasi-statistical three-dimensional pattern (hereinafter referred to as 3D pattern) in space. A 3D pattern generated in this way (virtually) can be used in the present method as an alternative or in addition to the above-mentioned overlay of the three-dimensional virtual object surface with the predetermined surface pattern in order to achieve the effects described below when measuring the 3D test object. The overlay of the object surface with a surface pattern can, for example, be more favorable than generating a virtual 3D test object in the form of a predetermined (virtual) 3D pattern if the virtual 3D test object is to have a predetermined three-dimensional object or surface shape, for example occurs particularly often during normal operation of the field of view display device and is therefore preferably also used in the evaluation of its performance described herein. The virtual 3D test object is now generated by the field of view display device according to the image generation data provided and captured from at least two different perspectives by an optical stereo camera system. For this purpose, the stereo camera system has at least one movable camera and/or at least two cameras at a definable distance from one another in the beam path of the field of view display device after the reflection disk. By moving the cameras of the stereo camera system relative to each other and to the beam path, different eye positions and/or eye distances of a user can be taken into account or simulated. When capturing the generated virtual 3D test object, the respective camera can be arranged, for example, at a position in space intended for the corresponding eye of the user. However, this is not mandatory. In the resulting camera recordings of the virtual 3D test object from the two different perspectives, image points are identified based on the surface patterns and/or 3D patterns contained therein 22-1285 8 each come from one and the same object surface point. From this, at least one actual display parameter of the generated virtual 3D test object is determined, which can be used to evaluate the 3D display performance of the field of view display device. The at least one actual representation parameter can include, for example, a projection distance (also called projection depth or image distance) and/or a spatial position and/or a spatial orientation of the generated virtual 3D test object or its surface points. Alternatively or additionally, the at least one actual representation parameter of the generated virtual 3D test object can include a local vertical point disparity, which indicates a vertical offset of the pairwise corresponding object surface points in the camera images from the two different perspectives. The respective actual display parameter can be determined, for example, with respect to a coordinate system of the stereo camera system, the field of view display device or the vehicle in which it is mounted, or with respect to an eyebox intended for its user. As usual, an eyebox is understood here to be a two- or three-dimensional spatial area intended for the user's eyes or for the respective user's eye, from which the generated virtual 3D images are visible to the user in the intended quality. In order to evaluate the 3D display performance of the field of view display device, the respective actual display parameter can be compared with a predetermined, associated target display parameter of the virtual 3D test object. Depending on this, the 3D display performance of the field of view display device can be evaluated and, for example, specifically improved if a predetermined deviation tolerance is exceeded. An idea to overcome the difficulties described above when evaluating the 3D display performance of a 22-1285 9 field of view display device thus consists of a method and a corresponding measuring device in the form of a stereo camera system that can be positioned in a suitable manner in the beam path of the field of view display device, which is used to record the 3D structure of a virtual image with a software-side superposition of the virtual image to be measured predefined patterns are formed. This metrological recording can in particular also be designed to be eye position-dependent, ie correspond to selectable/adjustable or variable eye positions and/or eye distances of a user. The field of view display device, in particular in the form of a head-up display, can be designed for 3D image generation in basically any technically feasible manner. This can therefore not only involve the mere creation of a depth effect through the use of several two-dimensional virtual image planes and image surfaces that are inclined or curved in space, but in particular also “real” three-dimensional virtual 3D objects, which can be created, for example, using holographic techniques a specially designed image-generating unit of the field of view display device can be generated. With such a 3D HUD in a motor vehicle, objects such as an arrow can be displayed at a great distance and at the same time, for example. B. a sign close to the driver. To make measurement easier, these objects are displayed superimposed with a checkerboard pattern, for example, so that they can be measured with a pair of stereo cameras (depending on the position of the pair of stereo cameras). The deviations from the target can then be determined. As mentioned at the beginning, a central special feature of virtually represented 3D objects is that their position and shape (both when using two-dimensional image planes and three-dimensional curved image surfaces as well as “real” three-dimensional virtual objects) change with the eyes - or camera position can change. In particular, the individual eye distance also plays a role 22-1285 10 a role for the user, so that users with different eye distances can perceive a virtual 3D object differently. When used in a vehicle, the correct position and orientation of a virtual object in space can be of crucial importance, especially in the case of contact-analog representation (ie based on real surrounding objects). With the technical concept presented here for 3D measurement of the virtual objects of a field-of-view display device, these effects and any deviations from the desired result can be recorded and quantified quickly, robustly and precisely in order to be able to evaluate and specifically improve the field-of-view display device in this respect. For the purpose described herein, the surface pattern can, for example, have at least one of the following pattern types or pattern properties, which can also be combined with one another and/or alternately, ie next to one another, in the object surface: a regular or periodic two-dimensional pattern (the periodicity can be one- or two-dimensional be, ie the two-dimensional pattern can change periodically in the two-dimensional surface, for example only in one direction, while it remains constant in a direction orthogonal thereto, or it can change in two independent directions with the respective periodicity); an irregular or aperiodic two-dimensional pattern (e.g., statistical or quasi-statistical); a checkerboard pattern; a flat distribution of circles with one or more predetermined diameters; a speckle pattern; an area-wide gray value pattern, the gray values of which preferably vary in a predetermined manner in each area point; a black and white pattern; a color pattern that has one or more different colors. Basically, comprehensive and/or irregular surface patterns, such as: B. aperiodic sine patterns or speckle-like gray value distributions, if necessary more options for quick and/or 22-1285 11 time-resolved feature mapping between the left and right camera images of the created virtual 3D object. According to one embodiment, when capturing the generated virtual 3D test object, the respective camera of the stereo camera system is arranged at a spatial position intended for the user's respective eye. In particular, an entire eyebox volume of the field of view display device intended for the respective eye of the user can be scanned by the stereo camera system in that the respective camera of the stereo camera system successively captures the generated virtual 3D test object from several different positions within the eyebox volume in order to evaluate the 3D display performance of the field of view display device as fully as possible for the entire eyebox. According to a further or alternative embodiment, the definable relative distance of the at least two cameras can be varied to adapt to different eye distances of the user. In particular, it can also be varied when capturing the generated virtual 3D test object in order to evaluate the 3D display performance of the field of view display device for different user eye distances. According to one embodiment, the method presented here further comprises a calibration of at least one of the cameras of the stereo camera system, which can be carried out in particular before the measurement of the actual 3D test object. For this purpose, this camera can, for example, be positioned at one or more discrete calibration positions and a calibration can be carried out by determining a spatial position and/or orientation and/or, if necessary, at least one internal imaging property of this camera with respect to a coordinate system of the stereo camera system or the field of view display device become. In this embodiment, a parametric recalibration function is then determined from this, which, depending on at least one (in particular continuously) measurable camera position parameter, indicates the spatial position and/or orientation of this camera at an infinite number of camera positions lying in between and/or beyond. Spatial positions and/or orientations of this camera that can be obtained using this parametric recalibration function can be used as its calibration in the actual measurement of the virtual 3D test object, ie to determine its at least one actual representation parameter, such as. B. its projection distance using triangulation. In this way, on the one hand, a time-consuming and cost-intensive recalibration of each individual camera in the stereo camera system can be avoided with each camera movement. On the other hand, such a parameterization of the camera calibration opens up the possibility of quickly and precisely taking into account different eye positions and/or eye distances of the user when measuring the virtual 3D test object. Some exemplary embodiments of this are given below. In particular, said camera can be displaceable along at least one translational rail with linear position feedback, so that said measurable camera position parameter is a linear camera position or a linear camera distance to the second camera of the stereo camera system on this rail according to the currently received position feedback. The position feedback can, for example, be measured or obtained directly during the capture of the generated virtual 3D test object or immediately before or after, so that in particular recalibration in real time is made possible by such a parametric recalibration function. According to a further aspect, a control unit is provided which is designed and set up to automatically carry out the method presented here. For this purpose, for example, in the control unit 13 corresponding computer program must be installed and run during operation of the field of view display device. According to a further aspect, a field of view display device is provided, which can be designed in particular for use in a vehicle. The field of view display device comprises a projection unit which is designed to generate and output a light beam with a 3D image content transported therein to a partially transparent reflection disk to be arranged or arranged in the field of vision of a user. The design and mutual arrangement of the projection unit and the reflection disk are chosen such that the user is presented with a desired virtual 3D image behind it, provided his eyes are in a designated spatial area (eyebox) opposite the reflection disk. For this purpose, the projection unit can comprise an image-generating unit, for example in the form of a suitable display or projector, and possibly further optical elements in the beam path of the light beam emanating from the display/projector for further beam shaping and deflection. The field of view display device further comprises an optical stereo camera system which comprises at least one movable camera and/or at least two cameras at a definable distance from one another, which can be positioned in the beam path of the light beam after its reflection on the reflection disk and are designed to display the virtual 3D shown -Capture image from at least two different perspectives. Furthermore, the field of view display device includes the above control unit, which is designed and set up to control the projection unit and the stereo camera system when automatically carrying out the method presented herein. The reflection disk mentioned can also be manufactured and/or sold as part of the field of view display device or, alternatively, separately. When used in a vehicle, the reflection pane can in particular be used as a section of a windshield of a vehicle or another 22-1285 14 vehicle window can be formed. However, it can also be designed as a combiner disk designed specifically for the purpose mentioned here. According to a further aspect, a vehicle, in particular a motor vehicle or any other land, air or water vehicle, is provided. The spatial orientation terms used here such as “above”, “below”, “in front”, “side”, “horizontal”, “vertical” etc. can in particular refer to the usual vehicle-fixed Cartesian coordinate system with mutually perpendicular longitudinal, transverse and height axes of the vehicle. The vehicle includes a windshield and an instrument panel located underneath and is equipped with the above field of view display device. Their image-generating unit or, if appropriate, their entire projection unit (which, in addition to the image-generating unit, can additionally include suitable projection optics) can be arranged in particular inside the instrument panel or in/on its top side, for example installed directly on or below the top side of the instrument panel, such that the light beam bundle is thrown by the projection unit onto the windshield or a combiner disk positioned inside the vehicle in front of it in the field of vision of the driver or another occupant, which serves as the above-mentioned partially transparent reflection disk. Alternatively, the field of view display device can also be installed at any other suitable location in the vehicle. The above aspects of the invention and their specific design variants, embodiments and further features and effects are explained in more detail below using the examples shown in the accompanying drawings. The drawings are to be understood as purely schematic illustrations, ie not to scale. Show it: 22-1285 15 Figure 1 shows a schematic top view of a field of view display device in a motor vehicle, which is designed to display 3D images into an occupant's field of vision via reflection on a vehicle window arranged in his field of vision and to carry out a method according to an exemplary embodiment of the invention; Figure 2 shows a flowchart of an exemplary embodiment of a method presented herein for measuring virtual 3D images of a field of view display device; 3 shows an exemplary step of providing image generation data of a virtual 3D test object in the method of FIG. 4 shows a schematic representation of a further example of a virtual 3D test object from two different perspectives, which are captured by the stereo camera system in the method of FIG is overlaid by full circles; 5 shows a schematic representation of a further example of a virtual 3D test object from two different perspectives, which are captured by the stereo camera system in the method of FIG a speckle-like gray value pattern is superimposed. 22-1285 16 All of the various embodiments, variants and specific design features of the method, the field of view display device, the control unit and the vehicle according to the above aspects of the invention mentioned above in the description and in the following claims can be used in the ones shown in Figures 1 to 5 Examples to be implemented. They will therefore not all be repeated again below. The same applies to the definitions and effects already given above in relation to individual features shown in Figures 1-5. 1 shows, in a highly simplified schematic top view, an exemplary embodiment of a vehicle 1 with a field of view display device 2 according to the aspects of the invention specified above and in the claims. This example is a motor vehicle that is only indicated by its windshield 3. A projection unit 5 of the field of view display device 2 is arranged opposite the windshield 3, for example below it in an instrument panel 4 of the vehicle 1 (not shown). In this example, the field of view display device 2 is designed as a 3D head-up display (3D HUD). The projection unit 5 is designed to generate a light beam L with a desired 3D image content. The light beam L emanating from the projection unit 5 is thrown onto the windshield 3, which in this example serves as a partially transparent reflection disk of the field of view display device 2, so that after reflection on the windshield 3 it reaches an eyebox E of a user 6, which in this example is a driver of vehicle 1. The eyebox E is a two- or three-dimensionally defined spatial area in the vehicle 1 at a predetermined position relative to the windshield 3, which is intended for the eyes of the user 6, so that he can see a virtual 3D image O generated by the field of view display device 2 with both eyes able to see. As illustrated in FIG. 1, the user 6 sees a virtual eye with his left eye 22-1285 17 image OL and with his right eye a virtual image OR, the relative position and shape of which can vary with the eye distance and the eye position of the user 6 relative to the light beam L, so that the resulting perception and spatial position of the generated 3D object depending on the eye distance and the eye position of the user 6 can vary. Furthermore, an optical stereo camera system 7 is provided in the vehicle 1 or in the field of view display device 2, which can include at least one movable camera and / or at least two cameras at a definable distance from one another (not shown individually), which are in the beam path of the light beam L whose reflection can be positioned on the windshield 3 in order to capture the displayed virtual 3D image O from two different perspectives to evaluate the 3D HUD performance (of course without the user 6 being there). For example, the stereo camera system 7 can be positioned directly in the eyebox E of the user 6 or, as indicated in FIG. 1, immediately in front of it. The stereo camera system 7 and its position are indicated purely by way of example and schematically in FIG. To carry out a method according to the above first aspect of the invention, a correspondingly configured control unit 8 is also provided, which can communicate in an appropriate manner with the projection unit 5 and the stereo camera system 7 in terms of information and control technology. The control unit 8 can be arranged, for example, in the projection unit 5 or outside it in the vehicle 1, for example in the instrument panel 4. 2 shows a flowchart of an exemplary embodiment of a method according to the above first aspect of the invention for measuring virtual 3D images O of a field of view display device 2, as shown, for example, in FIG. 1. However, the reference to FIG. 1 should not be construed as limiting, but rather serves solely as an exemplary illustration of the possible 22-1285 18 steps. The method can in particular include the following basic steps, with further details, variants and optional further steps being specified below: In a step S1, the projection unit 5 of the field of view display device 2 or its control unit 8 is provided with image generation data of a virtual 3D test object O. In this case, a virtual object surface 9 of the 3D test object to be displayed in three dimensions is overlaid on the software side with a predetermined visual surface pattern so that it has variations corresponding to the surface pattern, for example in brightness and/or color. Fig. 3 illustrates this step using the example of a checkerboard surface pattern. In this example, the entire object surface 9 of the virtual 3D test object O to be displayed has been overlaid with the surface pattern when its image generation data is provided. In Fig.3 on the left, the virtual 3D object to be created is shown before the software overlay with the surface pattern. On the right in Fig. 3, the virtual 3D object O to be created is shown in its representation form used for measurement/calibration. In this example, its cuboid object surface 9 is superimposed on the software side with a known structure, such as e.g. B. a checkerboard pattern, the corners 10 of which are particularly easy to localize by gradient formation after detection by the stereo camera system 7. Alternatively, more general (quasi-) statistical patterns can also be used as area patterns. The overlay with a suitable surface pattern in step S1 serves purely to measure and, if necessary, calibrate the field of view display device 2 (see below). At a step S2, the virtual 3D test object O is displayed by the field of view display device 2 according to the provided image formation data 22-1285 19 generated and captured from at least two different perspectives by an optical stereo camera system 7. For this purpose, the stereo camera system 7 has at least one movable camera and/or at least two cameras at a definable distance from one another in the beam path of the field of view display device 2 after the reflection disk. By moving the cameras of the stereo camera system 7 relative to one another and to the beam path of the light beam L, in particular different eye positions and/or eye distances of a user 6 can be taken into account or simulated. In a further step S3, image points are identified in the resulting camera recordings of the virtual 3D test object O from the two different perspectives (cf. FIGS. 4 and 5) based on the surface patterns contained therein, each of which originates from one and the same object surface point or feature (so-called feature matching). From this, at least one actual display parameter of the generated virtual 3D test object O is determined, which can be used to evaluate the 3D display performance of the field of view display device 2. This method and this device make possible, in particular, a fast, robust and precise measurement of virtual 3D test objects O, which are generated, for example, by a HUD, which also enables, among other things, a quick calibration of the HUD. Important measured variables or output parameters in the 3D measurement of the generated virtual test objects O for HUD evaluation with a stereo camera system 7 (also called 3D camera) are, for example: B. the projection distance (to answer the question of whether the projection distance corresponds to the specifications) and the vertical local point disparity (Local Point Disparity Y, to answer the question of how strong the virtual image OL is for the left eye and the virtual image OR differ vertically for the right eye, see Fig.1). The projection distance can e.g. B. deviate from the specification due to construction tolerances of the field of view display device 2. The vertical local 22-1285 20 Point disparity corresponds to a vertical offset of the features between the left and right eyes and is caused by the driver's left and right eyes seeing a different virtual image in the case of HUD projection. The latter does not occur, for example, when measuring real objects, ie there the vertical local point disparity is naturally equal to zero. To determine the projection distance and the local point disparity, the camera images recorded in step S2 from the two different perspectives can first be rectified in a manner known per se, that is, converted to a parallel alignment of both cameras. The corresponding pixel coordinates ( ) and ( ) in the (rectified) left and right camera images can then be determined. As is well known, this would apply in the rectified camera images of a real object. In the case of a virtually represented 3D object, however, the right and left eyes perceive different virtual images OL and OR (see Fig. 1) and the following applies in the rectified camera images. The projection distance results, for example, from triangulation or from the horizontal pixel deviation of the pixel coordinates ( ) of the corresponding features in the (rectified) left and right camera image as well as the camera distance from the set of rays. In order to improve and speed up the measurement, the present method proposes that the 3D objects typically displayed in the HUD for the driver (such as an arrow on the road, a marking of signs or pedestrians, a map for navigation, etc ) before or during their generation by the projection unit 5 (such as an augmented reality HUD display) solely for the purpose of measurement and / or calibration on the software side with regular (such as the checkerboard pattern 3), irregular, statistical or quasi-statistical surface patterns. This in turn allows a quick and precise assignment of corresponding features in the left and right camera image and is therefore used to measure the image quality or calibrate the HUD. Using a checkerboard pattern, for example: B. determine the vertical local point disparity at the corner points 10 of the checkerboard pattern with high precision. A calibration of the HUD can also take place, for example, by measuring the virtual, patterned 3D test object in reference to a known real object in the driver's field of vision. As mentioned above, another problem with virtual objects on a HUD is the dependence of the position of the virtual object on the distance between the eyes and the eye position of the user 6. This plays a role both in the stereo camera calibration and in the measurement of the 3D test object O with the stereo -Camera system 7 a role. The method described here enables a solution to this problem, which is described below using the example of a stereo camera system with cameras that can be positioned flexibly relative to one another: The integration of the eye distance into the measurement proposed here requires, in the first step, the determination of a rotation matrix and a translation vector as in a conventional stereo camera calibration. On the one hand, the distortion of the two cameras can be determined (if they have optical distortion) and calculated out algorithmically. In addition, the intrinsic camera parameters (focal lengths, optical center) are determined if these are not known, as well as the extrinsic parameters (rotation matrix, translation vector of the two camera coordinate systems relative to each other or to the vehicle). In order to avoid recalibration for any shift in the relative position of the cameras of the stereo camera system 7, the two cameras can z. B. be attached to a translational rail or other movement device with position feedback. Based on a stereo camera calibration, which is carried out in a few fixed and known relative positions of the cameras to one another, the stereo camera calibration according to the embodiment of the invention described above is carried out using mathematical means (such as mathematical modeling or polynomial interpolation or extrapolation and much more) in between and/or positions beyond this are expanded. In other words, a parametric recalibration function can be specified based on actual calibration at some known position points of the cameras, which depends on one or more (for example continuously) measurable camera position parameters. For example, the parametric recalibration function can specify a precise relative 3D camera position depending on a measurable distance of the camera on a rail (which can be described by a simple linear model). To integrate the eye distance and eye position into the measurement of a virtual 3D object, the eyebox volume of the HUD can be scanned or scanned, for example, using the stereo camera system for variable distances of the left and right cameras. The eye position can be parameterized by the respective center of the stereo camera system 7. For each camera position and each eye distance, a 3D point model is created, for example, by taking a stereo photograph of the virtual 3D test object (provided with the surface pattern). By describing the 3D point model as a fit function of the eye position and eye distance, 3D point cloud models can be interpolated or extrapolated for unknown eye distances and eye positions. The necessary number of measuring points of the grid in the eyebox volume or the complexity of the fit function (in the simplest case this can be achieved by a linear interpolation function and in the extreme case 23 are described by a neural network) generally depends on the complexity of the HUD optics or the reflection pane (such as the windshield 3). In the simplest case, the eyebox volume can be “sampled”, for example by a single eye position with a predetermined constant eye distance. Furthermore, in the present method, a suitable similarity measure and, for example, a brute force search algorithm can be used to identify corresponding surface points in both camera images, which compares the left and right camera images. In the method presented, the measuring device can therefore include, for example, one or more variably positionable camera(s) (stereo camera system 7), whose relative positions can be either fixed (only for at least two cameras) or variable. The calibration of the measuring device is ideally carried out using the parametric description presented above with the help of camera position-dependent rotation matrices and translation vectors or projection matrices composed thereof
Figure imgf000025_0001
where λ is the measurable camera position parameter mentioned above. In the photos of the virtual object from two or more different perspectives, the pixel disparities of the identical features can be interpreted as a function of the camera positions determined in this way. This allows the 3D structure of the surface 9 of the virtual 3D test object O to be calculated depending on the position using a parametric representation of this functional relationship. This means that the virtual 3D test object O can be interpolated for different eye positions and eye distances. In this way, with the present measurement concept, the problem of exact positioning of the two cameras during stereo calibration, which is very difficult to achieve (e.g. due to construction tolerances of the cameras), can be eliminated 22-1285 24 needed to describe/evaluate 3D HUD performance for a desired eye relief can be avoided using rigorous mathematical means. This allows quick and reliable measurement of the virtual 3D structures generated by the HUD for variable eye distances and eye positions. 4 and 5 show further examples of the software overlay of the virtual 3D test object O to be measured in step S1 of FIG. 2 before it is generated with predefined surface patterns, before it is generated in steps S2 and S3 and photographed from different camera perspectives . If the virtual object is overlaid with full circles 11, for example as in FIG User 6 perceivable virtual images OL and OR of FIG. 1 can correspond). Another possible implementation according to FIG. 5 is to overlay the virtual 3D test object to be measured (here a pyramid with a rectangular base) with a speckle-like surface pattern in the software. The feature matching between the photos from the individual camera perspectives can be done here, for example, by rectifying the two photos and assigning the gray value values around the corresponding maxima of the speckles 12 in the photos from the individual camera perspectives. Otherwise, the same thing as in Fig. 4 can apply here. Another possible implementation (see FIG. 3) is to overlay the virtual 3D test object O to be measured with a checkerboard pattern in the software. The feature matching between the photos from the individual camera perspectives is done here, for example, by determining the corner points 10 of the checkerboard patterns and assigning the corresponding coordinates in the photos from the individual camera perspectives. In order to enable a clear assignment of the corner points 11 of the checkerboard pattern between the left and right camera images, the 22-1285 25 individual squares of the chessboard can be coded, for example, by colors or QR-like patterns. Otherwise, the same thing as in Fig. 4 or 5 can apply here. Another possible implementation is that the virtual 3D test object O consists of N virtual sub-objects or sub-objects distributed arbitrarily in 3D space (e.g. it can be a regular or grid-like three-dimensional arrangement of three-dimensional spheres), each with an area pattern are superimposed, the feature(s) of which are used for stereoscopic feature matching. Another possible implementation would be to overlay the virtual 3D object to be measured with an aperiodic surface pattern, for example a sine pattern (not shown), on the software side. The feature matching between the photos from the individual camera perspectives can be implemented here by rectifying the photos and assigning the gray value values around the corresponding maxima of the sine pattern in the photos from the individual camera perspectives.
22-1285 26 Bezugszeichenliste 1 Fahrzeug 2 Blickfeldanzeigevorrichtung 3 Frontscheibe 4 Instrumententafel 5 Projektionseinheit 6 Nutzer 7 Stereo-Kamerasystem 8 Steuereinheit 9 dreidimensional darzustellende virtuelle Objektoberfläche 10 Ecken des Schachbrettmusters 11 Vollkreise, Kreise 12 Speckles L Lichtstrahlenbündel O virtuelles 3D-(Test-)Objekt bzw. virtuelles 3D-Bild OL fürs linke Auge wahrnehmbares virtuelles Bild OR fürs rechte Auge wahrnehmbares virtuelles Bild E Eyebox 22-1285 26 List of reference symbols 1 Vehicle 2 Field of view display device 3 Windshield 4 Instrument panel 5 Projection unit 6 User 7 Stereo camera system 8 Control unit 9 Virtual object surface to be displayed in three dimensions 10 Corners of the checkerboard pattern 11 Full circles, circles 12 Speckles L Light beam bundle O Virtual 3D (test) object or . virtual 3D image OL virtual image visible to the left eye OR virtual image visible to the right eye E Eyebox

Claims

22-1285 27 Ansprüche 1. Verfahren zum Vermessen virtueller 3D-Bilder (O) einer Blickfeldanzeigevorrichtung (2), insbesondere für ein Fahrzeug (1), die zum Einblenden von 3D-Bildern (O) ins Blickfeld eines Nutzers (6) über Reflexion an einer in seinem Blickfeld angeordneten teiltransparenten Reflexionsscheibe ausgebildet ist, umfassend die Schritte: - Bereitstellen von Bilderzeugungsdaten eines virtuellen 3D- Testobjekts (O), wobei dessen dreidimensional darzustellende Objektoberfläche (9) in den Bilderzeugungsdaten mit einem vorbestimmten visuellen Flächenmuster überlagert wird und/oder wobei das virtuelle 3D-Testobjekt (O) selbst oder dessen einzelne nicht-zusammenhängende Teil-Objekte ein vorbestimmtes 3D-Muster darstellt/darstellen; - Erzeugen des virtuellen 3D-Testobjekts (O) durch die Blickfeldanzeigevorrichtung (2) gemäß den bereitgestellten Bilderzeugungsdaten; - Erfassen des erzeugten virtuellen 3D-Testobjekts (O) aus zwei verschiedenen Perspektiven durch ein optisches Stereo- Kamerasystem (7), das im Strahlengang der Blickfeldanzeigevorrichtung (2) mindestens eine bewegbare Kamera und/oder mindestens zwei Kameras in einem definierbaren Abstand voneinander umfasst; - Identifizieren paarweise einander entsprechender Objektoberflächenpunkte in den Kamera-Aufnahmen aus den zwei verschiedenen Perspektiven anhand der darin erfassten Flächenmuster und/oder 3D-Muster und Ermitteln daraus mindestens eines Ist-Darstellungsparameters des erzeugten virtuellen 3D-Testobjekts (O). 2. Verfahren nach Anspruch 1, wobei - der mindestens eine Ist-Darstellungsparameter eine Projektionsdistanz und/oder eine räumliche Position und/oder eine räumliche Orientierung des erzeugten virtuellen 3D- Testobjekts (O) und/oder eine lokale vertikale Punktdisparität, die einen vertikalen Versatz der paarweise einander entsprechenden Objektoberflächenpunkte in den Kamera- Aufnahmen aus den zwei verschiedenen Perspektiven angibt, umfasst. 3. Verfahren nach Anspruch 1 oder 2, wobei - der jeweilige Ist-Darstellungsparameter mit einem vorgegebenen zugehörigen Soll-Darstellungsparameter des virtuellen 3D-Testobjekts (O) verglichen und abhängig davon die 3D-Darstellungs-Performance der Blickfeldanzeigevorrichtung (2) bewertet wird. 4. Verfahren nach einem der vorhergehenden Ansprüche, wobei - im Wesentlichen die gesamte darzustellende Objektoberfläche (9) des virtuellen 3D-Testobjekts (O) beim Bereitstellen seiner Bilderzeugungsdaten mit dem Flächenmuster überlagert wird. 5. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Flächenmuster mindestens eine von folgenden Musterarten oder - Eigenschaften aufweist: - ein regelmäßiges oder periodisches 2D-Muster; - ein unregelmäßiges oder aperiodisches 2D-Muster; - ein Schachbrettmuster; - eine flächige Verteilung von Kreisen (11) mit einem oder mehreren vorbestimmten Durchmessern; - ein Speckle-Muster; - ein flächendeckendes Grauwertmuster, dessen Grauwerte vorzugsweise in jedem Flächenpunkt in einer vorbestimmten Weise variieren; 29 - ein Schwarz-Weiß-Muster; - ein Farbmuster, das eine oder mehrere verschiedene Farben aufweist. 6. Verfahren nach einem der vorhergehenden Ansprüche, wobei - beim Erfassen des erzeugten virtuellen 3D-Testobjekts (O) die jeweilige Kamera des Stereo-Kamerasystems (7) an einer für das jeweilige Auge des Nutzers (6) vorgesehenen Raumposition angeordnet ist; und/oder - beim Erfassen des erzeugten virtuellen 3D-Testobjekts (O) ein gesamtes für das jeweilige Auge des Nutzers (6) vorgesehenes Eyebox-Volumen der Blickfeldanzeigevorrichtung (2) vom Stereo-Kamerasystem (7) abgetastet wird, indem die jeweilige Kamera das erzeugte virtuelle 3D-Testobjekt (O) nacheinander von mehreren verschiedenen Positionen innerhalb des Eyebox-Volumens aus erfasst; und/oder - der definierbare relative Abstand der mindestens zwei Kameras zur Anpassung an unterschiedliche Augenabstände des Nutzers (6) variierbar ist und vorzugsweise beim Erfassen des erzeugten virtuellen 3D-Testobjekts (O) auch variiert wird. 7. Verfahren nach einem der vorhergehenden Ansprüche, ferner umfassend eine Kalibrierung mindestens einer der genannten Kameras des Stereo-Kamerasystems (7), indem - die genannte Kamera an einer oder mehreren diskreten Kalibrierpositionen positioniert wird und dabei jeweils eine Kalibrierung durch Ermittlung einer räumlichen Position und/oder Orientierung dieser Kamera bezüglich eines Koordinatensystems des Stereo-Kamerasystems (7) oder der Blickfeldanzeigevorrichtung (2) oder des Fahrzeugs (1) durchgeführt wird; und 22-1285 30 - daraus eine parametrische Rekalibrier-Funktion bestimmt wird, die abhängig von mindestens einem messbaren Kamerapositionsparameter die räumliche Position und/oder Orientierung dieser Kamera an unendlich vielen dazwischen und/oder darüber hinaus liegenden Kamerapositionen angibt; - wobei die genannte räumliche Position und/oder Orientierung dieser Kamera als deren Kalibrierung bei der Ermittlung des mindestens einen Ist-Darstellungsparameters des erzeugten virtuellen 3D-Testobjekts (O) verwendet wird. 8. Verfahren nach Anspruch 7, wobei - die genannte Kamera entlang mindestens einer translatorischen Schiene mit einem linearen Positionsfeedback verschiebbar ist, sodass der zugehörige messbare Kamerapositionsparameter eine lineare Kameraposition auf dieser Schiene gemäß dem aktuell erhaltenen Positionsfeedback ist. 9. Steuereinheit (8), die zur automatischen Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche ausgebildet und eingerichtet ist. 10. Blickfeldanzeigevorrichtung (2), insbesondere zum Einsatz in einem Fahrzeug (1), umfassend: - eine Projektionseinheit (5), die zum Erzeugen und Ausgeben eines Lichtstrahlenbündels (L) mit einem 3D-Bildinhalt zu einer im Blickfeld eines Nutzers (6) anzuordnenden oder angeordneten teiltransparenten Reflexionsscheibe derart ausgebildet ist, dass dem Nutzer (6) dahinter ein virtuelles 3D- Bild (O) dargestellt wird, sofern sich seine Augen in einer für sie bestimmten Eyebox (E) befinden; - ein optisches Stereo-Kamerasystem (7), das mindestens eine bewegbare Kamera und/oder mindestens zwei Kameras in 22-1285 31 einem definierbaren Abstand voneinander umfasst, die im Strahlengang des Lichtstrahlenbündels (L) nach der Reflexionsscheibe positionierbar und dazu ausgebildet sind, das dargestellte virtuelle 3D-Bild (O) aus zwei verschiedenen Perspektiven zu erfassen; - eine Steuereinheit (8) nach Anspruch 9, die zum Ansteuern der Projektionseinheit (5) und des Stereo-Kamerasystems (7) bei der automatischen Durchführung des Verfahrens nach einem der Ansprüche 1 bis 8 ausgebildet und eingerichtet ist; und - vorzugsweise auch die genannte Reflexionsscheibe, die insbesondere als ein Abschnitt einer Frontscheibe (3) eines Fahrzeugs (1) ausgebildet ist. 11. Fahrzeug (1), insbesondere ein Kraftfahrzeug, mit zueinander senkrechten Längs-, Quer- und Höhenachsen eines fahrzeugeigenen kartesischen Koordinatensystems, umfassend: - eine Frontscheibe (3) und eine darunter angeordnete Instrumententafel (4); sowie - eine Blickfeldanzeigevorrichtung (2) nach Anspruch 10, deren Reflexionsscheibe insbesondere als ein Abschnitt der Frontscheibe (3) oder als eine fahrzeuginnenseitig davor angeordnete Combinerscheibe ausgebildet ist. 22-1285 27 Claims 1. Method for measuring virtual 3D images (O) of a field of view display device (2), in particular for a vehicle (1), which is used to display 3D images (O) into the field of vision of a user (6) via reflection is formed on a partially transparent reflection disk arranged in its field of vision, comprising the steps: - providing image generation data of a virtual 3D test object (O), the object surface (9) of which is to be displayed in three dimensions being superimposed in the image generation data with a predetermined visual surface pattern and/or where the virtual 3D test object (O) itself or its individual non-connected sub-objects represents/represent a predetermined 3D pattern; - Generating the virtual 3D test object (O) by the field of view display device (2) according to the provided image generation data; - Capturing the generated virtual 3D test object (O) from two different perspectives by an optical stereo camera system (7), which comprises at least one movable camera and/or at least two cameras at a definable distance from one another in the beam path of the field of view display device (2); - Identifying pairs of corresponding object surface points in the camera recordings from the two different perspectives based on the surface patterns and/or 3D patterns recorded therein and determining from this at least one actual representation parameter of the generated virtual 3D test object (O). 2. The method according to claim 1, wherein - the at least one actual display parameter is a projection distance and/or a spatial position and/or a spatial orientation of the generated virtual 3D test object (O) and/or a local vertical point disparity, which represents a vertical offset of the object surface points corresponding in pairs in the camera - Includes shots from two different perspectives. 3. The method according to claim 1 or 2, wherein - the respective actual display parameter is compared with a predetermined associated target display parameter of the virtual 3D test object (O) and the 3D display performance of the field of view display device (2) is evaluated depending on this. 4. The method according to any one of the preceding claims, wherein - essentially the entire object surface (9) to be displayed of the virtual 3D test object (O) is overlaid with the surface pattern when its image generation data is provided. 5. The method according to any one of the preceding claims, wherein the surface pattern has at least one of the following pattern types or properties: - a regular or periodic 2D pattern; - an irregular or aperiodic 2D pattern; - a checkerboard pattern; - a flat distribution of circles (11) with one or more predetermined diameters; - a speckle pattern; - an area-wide gray value pattern, the gray values of which preferably vary in a predetermined manner in each area point; 29 - a black and white pattern; - a color pattern that has one or more different colors. 6. The method according to any one of the preceding claims, wherein - when detecting the generated virtual 3D test object (O), the respective camera of the stereo camera system (7) is arranged at a spatial position intended for the respective eye of the user (6); and/or - when detecting the generated virtual 3D test object (O), an entire eyebox volume of the field of view display device (2) intended for the respective eye of the user (6) is scanned by the stereo camera system (7) by the respective camera generated virtual 3D test object (O) sequentially captured from several different positions within the eyebox volume; and/or - the definable relative distance of the at least two cameras can be varied to adapt to different eye distances of the user (6) and is preferably also varied when capturing the generated virtual 3D test object (O). 7. The method according to any one of the preceding claims, further comprising a calibration of at least one of said cameras of the stereo camera system (7), in that - said camera is positioned at one or more discrete calibration positions and in each case a calibration is carried out by determining a spatial position and /or orientation of this camera is carried out with respect to a coordinate system of the stereo camera system (7) or the field of view display device (2) or the vehicle (1); and 22-1285 30 - a parametric recalibration function is determined from this, which, depending on at least one measurable camera position parameter, indicates the spatial position and / or orientation of this camera at an infinite number of camera positions lying in between and / or beyond; - wherein the said spatial position and/or orientation of this camera is used as its calibration when determining the at least one actual display parameter of the generated virtual 3D test object (O). 8. The method according to claim 7, wherein - said camera is displaceable along at least one translational rail with a linear position feedback, so that the associated measurable camera position parameter is a linear camera position on this rail according to the currently received position feedback. 9. Control unit (8), which is designed and set up to automatically carry out the method according to one of the preceding claims. 10. Field of view display device (2), in particular for use in a vehicle (1), comprising: - a projection unit (5) which is used to generate and output a light beam (L) with a 3D image content in the field of vision of a user (6). The partially transparent reflection disk to be arranged or arranged is designed in such a way that a virtual 3D image (O) is displayed to the user (6) behind it, provided that his eyes are in an eyebox (E) intended for them; - an optical stereo camera system (7) which has at least one movable camera and/or at least two cameras 22-1285 31 comprises a definable distance from one another, which can be positioned in the beam path of the light beam (L) after the reflection disk and is designed to capture the displayed virtual 3D image (O) from two different perspectives; - a control unit (8) according to claim 9, which is designed and set up to control the projection unit (5) and the stereo camera system (7) when automatically carrying out the method according to one of claims 1 to 8; and - preferably also said reflection disk, which is designed in particular as a section of a windshield (3) of a vehicle (1). 11. Vehicle (1), in particular a motor vehicle, with mutually perpendicular longitudinal, transverse and height axes of a vehicle's own Cartesian coordinate system, comprising: - a windshield (3) and an instrument panel (4) arranged underneath; and - a field of view display device (2) according to claim 10, the reflection disk of which is designed in particular as a section of the windshield (3) or as a combiner disk arranged in front of it on the inside of the vehicle.
PCT/EP2023/068086 2022-08-09 2023-06-30 Device and method for measuring three-dimensional virtual images and objects on a head-up display WO2024032971A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022120088.4 2022-08-09
DE102022120088.4A DE102022120088A1 (en) 2022-08-09 2022-08-09 Device and method for measuring three-dimensional virtual images and objects of a head-up display

Publications (1)

Publication Number Publication Date
WO2024032971A1 true WO2024032971A1 (en) 2024-02-15

Family

ID=87074755

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/068086 WO2024032971A1 (en) 2022-08-09 2023-06-30 Device and method for measuring three-dimensional virtual images and objects on a head-up display

Country Status (2)

Country Link
DE (1) DE102022120088A1 (en)
WO (1) WO2024032971A1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1871281A (en) 1926-07-26 1932-08-09 Savage Lawrence Francis Stereoscopic photography
US6430373B1 (en) 2000-05-24 2002-08-06 Minoru Inaba Stereo camera
DE102006049695A1 (en) 2006-10-16 2008-04-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Device and method for contactless detection of a three-dimensional contour
JP2012058076A (en) * 2010-09-09 2012-03-22 3D Media Co Ltd Three-dimensional measurement device and three-dimensional measurement method
DE102014013221A1 (en) * 2014-09-05 2015-04-02 Daimler Ag Apparatus and method for calibrating an image display unit of a vehicle
US9503703B1 (en) * 2012-10-05 2016-11-22 Amazon Technologies, Inc. Approaches for rectifying stereo cameras
DE102015211954A1 (en) 2015-06-26 2016-12-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and device for contactless measuring of an object surface
JP2019219929A (en) * 2018-06-20 2019-12-26 株式会社フォーディーアイズ Constant calibration system and method thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018001969A1 (en) 2018-03-12 2018-09-20 Daimler Ag Method for calibrating a contact-analogue head-up display of a vehicle in a workshop
DE102019004816A1 (en) 2019-07-10 2020-01-16 Daimler Ag Method for calibrating a head-up display of a vehicle
DE102019131740A1 (en) 2019-11-25 2021-05-27 Audi Ag Method and display device for generating a depth effect in the perspective of an observer on a flat display medium and a motor vehicle
DE102020003921A1 (en) 2020-06-30 2020-08-13 Daimler Ag Method for calibrating a head-up display and a vehicle with such a head-up display

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1871281A (en) 1926-07-26 1932-08-09 Savage Lawrence Francis Stereoscopic photography
US6430373B1 (en) 2000-05-24 2002-08-06 Minoru Inaba Stereo camera
DE102006049695A1 (en) 2006-10-16 2008-04-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Device and method for contactless detection of a three-dimensional contour
JP2012058076A (en) * 2010-09-09 2012-03-22 3D Media Co Ltd Three-dimensional measurement device and three-dimensional measurement method
US9503703B1 (en) * 2012-10-05 2016-11-22 Amazon Technologies, Inc. Approaches for rectifying stereo cameras
DE102014013221A1 (en) * 2014-09-05 2015-04-02 Daimler Ag Apparatus and method for calibrating an image display unit of a vehicle
DE102015211954A1 (en) 2015-06-26 2016-12-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and device for contactless measuring of an object surface
JP2019219929A (en) * 2018-06-20 2019-12-26 株式会社フォーディーアイズ Constant calibration system and method thereof

Also Published As

Publication number Publication date
DE102022120088A1 (en) 2024-02-15

Similar Documents

Publication Publication Date Title
DE69826753T2 (en) Optical profile sensor
AT506110B1 (en) DEVICE AND METHOD FOR DETECTING BODY MEASURE DATA AND CONTOUR DATA
DE112010005008B4 (en) System and method for determining camera calibration in runtime
EP2040026B1 (en) Method and system for calibrating an apparatus for measuring the shape of a reflective surface
DE112010005646B4 (en) Camera distance measuring device
DE102018108027B4 (en) Object detection device
EP2329222B1 (en) Method and measuring assembly for determining the wheel or axle geometry of a vehicle
DE102006055758B4 (en) Method for calibrating cameras and projectors
EP2166510B1 (en) Method for calculating the position and orientation of a camera in a vehicle
DE102012108567A1 (en) Method and apparatus for obtaining depth information using a light pattern
WO2008064892A1 (en) Method for determining a position, device and computer program product
EP2989594B1 (en) Device and method for recognising inscriptions on vehicle tyres
DE102011075703A1 (en) Method and device for calibrating a projection device of a vehicle
DE102015122172A1 (en) Headlamp based projection of patterns to measure spatial characteristics of a vehicle environment
DE102007013664A1 (en) Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient
DE112017007347T5 (en) OBJECT DETECTION DEVICE AND VEHICLE
DE102008002725A1 (en) Distance image generating method for three-dimensional reconstruction of object surface from correspondence of pixels of stereo image, involves pixelwisely setting object surface in proportional to relative image
DE102017011177A1 (en) Method for determining a bending angle of a vehicle combination, determination device and vehicle combination
EP3931798A1 (en) Estimating the movement of an image position
EP1352363B1 (en) Method and device for compensating for the maladjustment of an image producing device
DE102017010683A1 (en) Method for automatic restoration of a measured state of a projection system
DE102007037131A1 (en) Surface i.e. specular reflecting surface, three-dimensional measurement method, involves calculating disparity between synthetic image and real image, which is recorded by one camera, and corrected depth chart
WO2024032971A1 (en) Device and method for measuring three-dimensional virtual images and objects on a head-up display
DE102011055967B4 (en) Measuring method and device for carrying out the measuring method
DE102004007049A1 (en) Method for classifying an object with a stereo camera

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23736723

Country of ref document: EP

Kind code of ref document: A1