WO2024251542A1 - Device for capturing a spatial image of a surrounding area which is moving relative to the device, and method for operating same - Google Patents

Device for capturing a spatial image of a surrounding area which is moving relative to the device, and method for operating same Download PDF

Info

Publication number
WO2024251542A1
WO2024251542A1 PCT/EP2024/064363 EP2024064363W WO2024251542A1 WO 2024251542 A1 WO2024251542 A1 WO 2024251542A1 EP 2024064363 W EP2024064363 W EP 2024064363W WO 2024251542 A1 WO2024251542 A1 WO 2024251542A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
detection
cameras
image
flash
Prior art date
Application number
PCT/EP2024/064363
Other languages
German (de)
French (fr)
Inventor
Jens Schick
Original Assignee
Tripleye Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tripleye Gmbh filed Critical Tripleye Gmbh
Publication of WO2024251542A1 publication Critical patent/WO2024251542A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof

Definitions

  • the invention relates to a device for spatial image capture of an environment moving relative to the device.
  • the invention further relates to a method for operating such a device.
  • Such devices are known from WO 2022/069 424 A1, WO 2022/069 425 A2, WO 2022/179 998 A1 and DE 10 2011 080 702 B3.
  • WO 2014/009 945 A1 discloses a stereo imaging system and an associated imaging method.
  • US 2014/0 282 224 A1 discloses a detection of a scroll gesture.
  • WO 2017/189 185 A1 discloses 3D imaging systems.
  • the functions of at least one stereo camera on the one hand and of image capture using an illumination time-of-flight method on the other hand advantageously complement each other.
  • Both the stereo camera and the components enabling a time-of-flight method, namely the flash light source and sensor array, via which the time-of-flight method image capture parameters can be specified allow the determination of a distance from objects within the environment.
  • the device can be used for spatial image capture of an environment that is moving relative to the device.
  • the at least one stereo camera can be used for triangular object position determination within the captured environment in the forward direction of a relative movement of the device to the environment. This can be used to improve the reliability of the environment capture, particularly in connection with driver-assisted or autonomous driving.
  • the device can be part of a vehicle, for example a car or truck.
  • the control device can in particular specify a delay period between the start of the flash illumination of the at least one flash light source and the start of detection of the respective sensor array of the cameras of the at least one stereo camera.
  • the distance between the cameras of the stereo camera results in a length of a baseline, i.e. a distance between the centers of the entrance pupils of the cameras of the at least one stereo camera.
  • the device can be used to combine the principles of a TOF (Time of Flight) camera with a triangulatory distance-measuring stereo camera.
  • a corresponding TOF image acquisition is described, for example, in US 2019/056 498 AL.
  • the flash light source can be designed in the same way as is known in principle from TOF cameras or LIDAR systems. The same applies to the sensor arrays of the cameras.
  • a sensor array used in TOF image acquisition can be constructed as a Single Photon Avalanche Diode (SPAD) array.
  • SP AD Single Photon Avalanche Diode
  • Such a SP AD array and its application in connection with a TOF measurement is known from a technical article by T. Swedish et al.: "Beyond the Line of Sight? What's New in Optical Perception", AUVSI XPONENTIAL 2022-SWEDISH (conference handout), pp. 1-8, https://www.xponential.org/xponential2022/Custom/Handout/Speaker51584_Session4220_l .pdf and from US 2022/0174255 AL
  • the two cameras of the stereo camera are synchronized with each other via a synchronization unit.
  • This synchronization makes it possible to achieve an exactly simultaneous recording of the respective object via the cameras of the stereo camera.
  • the use of an SP AD array can lead to a reduction in motion blur and can be used to improve the contrast of an image acquisition.
  • the synchronization and in particular the simultaneous object detection in the triangulatory object distance determination makes it possible to precisely determine the distance of even externally moving objects, since the influence of an additional relative speed due to the external movement of the object does not then affect the distance determination.
  • the device can be designed such that a corresponding object distance range is detected via the TOF image acquisition functionality of the device.
  • the flash light source can be a controlled flash lamp or a time-controlled LED or laser light source. Flash light sources can be used that are known for use in LID AR devices, for example.
  • a flash illumination duration of the flash light source can be in the range between 10 ns and 200 ns, for example in the range of 100 ns.
  • a detection time of the sensor arrays of at least one stereo camera is regularly set to be twice as long as the flash illumination time of the flash light source.
  • the Detection time can be in the range between 20 ns and 400 ns, for example in the range of 200 ns.
  • Both the flash illumination duration and the detection duration can be set via the control device.
  • the synchronization unit can be part of the control device.
  • Part of the control device can be a storage unit, in particular in the form of a flash memory.
  • the synchronization unit can be part of a synchronization device for synchronizing the flash light source and the sensor arrays of the cameras of the at least one stereo camera.
  • the synchronization device can in turn be part of the control device of the image capture device.
  • Synchronization that can be provided by the synchronization device may be better than 5 ns, may be better than 2 ns, may be better than 1 ns, and may be even better.
  • the cameras of the stereo camera can be spaced apart laterally to the forward direction. Depending on the detection angle of the cameras and depending on the application and main detection direction of the stereo camera, other camera arrangements of the stereo camera are also possible.
  • the cameras of at least one stereo camera can have a telephoto lens for detecting objects at a distance between 50 m and 300 m.
  • the cameras of the stereo camera can also be equipped with lenses of other focal lengths. These camera lenses are designed in such a way that an entire specified distance range is covered, in particular between 3 m and 300 m. In principle, even smaller distances can be covered.
  • the distance ranges of the triangulatory object detection on the one hand and the TOF distance detection on the other hand are coordinated and can, for example, be the same. Partial overlap of these distance ranges is also possible, so that in a In some distance ranges both distance determination principles “triangulatory” and “TOF” are available and in other distance ranges one of these principles is available.
  • a correspondence analysis can be carried out to identify objects that are different from a background and are present in a field of view of interest.
  • Methods of a corresponding correspondence analysis are known from WO 2022/069 424 A1 and WO 2022/069 425 A2.
  • a stereo calibration of the cameras of the at least one stereo camera can be carried out, which is basically known from WO 2022/069 424 A1 and DE 10 2011 080 702 B3.
  • the at least one stereo camera can have more than two cameras spaced apart from each other, which in particular enables switching between different baselines, which is also described, for example, in WO 2022/069 424 A1.
  • the device can have at least two stereo cameras with a relatively large baseline and at least one further stereo camera with a comparatively significantly smaller baseline, wherein the smaller baseline can be at most 50%, at most 25% or even at most 10% of the larger baseline.
  • the device can also have several stereo cameras with the small baseline.
  • object position information can be obtained by evaluating an object shadow that is cast by an object within the captured environment as a shadow of the flash lighting and is imaged differently by the two cameras of the at least one stereo camera that are spaced apart from each other.
  • the height of the object can be determined because an image of an object shadow depends on the height and lateral position of the object.
  • the device can be used to capture spatial images of the environment, whether moving or stationary relative to the device, which enables a driver-assisting function or even the function of autonomous driving, for example when the device is used as part of a vehicle.
  • the flash light source of the device or another light source of the device for ambient lighting can have a measuring light beam that is textured or structured across its beam cross-section. Such texturing/structuring of the measuring light beam can be achieved by constructing it as a plurality of individual beams that capture the environment in the form of a grid.
  • Such a light source for generating a textured/structured measuring light beam can be designed as a laser.
  • Examples of a detection device that works using such a textured/structured measuring light beam can be found in DE 10 2018 213 976 A1 and the references cited therein, in particular in WO 2012/095 258 A1, US 9,451,237 and WO 2013/020 872 A1.
  • optically unstructured, in particular diffuse scattering media within the enclosed environment can be measured with regard to their distance.
  • diffuse scattering media can be, for example, fog, smoke or dust.
  • Form redundancy and/or function redundancy can be achieved using the spatial image acquisition device.
  • Form redundancy is achieved when different technologies are used to determine one and the same measurement variable.
  • Function redundancy exists when several devices of the same technology are used to measure one and the same measurement variable.
  • the terms "form redundancy” and “function redundancy” are mainly used in the aviation sector. There, a combination of form and function redundancy is required to avoid multiple effects of an error. Such redundancies can be required by law, depending on the application of the device.
  • At least one further flash light source and/or at least one further stereo camera according to claim 2 enable additional functional redundancy of the device. If at least one further flash light source is provided, it is possible to switch to the further flash light source after the failure of the initially used flash light source, so that a longer break in operation of the device is avoided. If at least one further stereo camera is used, for example with parallel triangulation measurements using two stereo cameras, further redundancy in the object distance determination can be achieved.
  • the cameras of the additional stereo camera can each have a sensor array with a controlled specification of a detection start and a detection duration, so that the additional stereo camera can basically replace the function of the stereo camera originally used.
  • a redundant TOF determination of object distances is also possible using two corresponding stereo cameras with a controlled specification of the detection start and the detection duration, which provides additional security when determining the object distance and helps to identify synchronization problems, for example.
  • the camera pair that proves to be particularly suitable for triangulation determination in relation to a specific surrounding object can be selected as the baseline.
  • At least one fisheye stereo camera enables the use of additional triangulation baselines, which can be used to detect additional objects in the environment and/or to check object distance results of the other stereo cameras and/or to calibrate the other stereo cameras, in particular stereo cameras designed with telephoto optics cameras.
  • the main detection direction can be the forward direction of a relative movement of the device to the environment.
  • the use of fisheye cameras is known from the above-mentioned references and from WO 2022/179 998 A1.
  • a fisheye camera that is attached as rigidly as possible to a telephoto optics camera allows a more precise calibration of the stereo cameras to one another due to the larger opening angle of the fisheye camera.
  • IMU inertial measurement unit
  • the IMU can be used to determine a rotation rate, i.e. a relative tilt of the respective camera around a defined tilt axis.
  • the device can contain several fish-eye stereo cameras, which allows additional redundancy.
  • the cameras of the at least one fish-eye stereo camera can also each have sensor arrays with controlled specification of a detection start and a detection duration, so that a TOF determination of object distances is also possible.
  • the at least one fisheye stereo camera can also be designed without a TOF function. If the device has several fisheye stereo cameras, it is also possible for at least one of the fisheye stereo cameras to be designed with a TOF function and at least one other of the fisheye stereo cameras to be designed without a TOF function.
  • the device according to the above claims can be used in such a way that a precise distance range is detected by means of the TOF components, for example in the distance range between 30 m and 300 m, in particular between 100 m and 200 m, from the device.
  • the operating method according to claim 5 enables real-time operation of the device, so that, for example, autonomous driving is possible when using the device as part of a vehicle.
  • a covered total distance range is divided into a plurality of distance ranges that are adjacent to one another or partially overlap one another. For example, three to 100 such distance ranges can be specified using corresponding image acquisition parameters, for example 50 distance ranges that lie within the total distance range.
  • the total distance range can be recorded over the specified individual distance ranges several times a second, for example at a rate of 10 Hertz.
  • the most distant distance range within the total distance range can be started.
  • the last updated output image is a 2D image with unfiltered objects in all distance ranges recorded within the total distance range. Information from distance ranges recorded earlier within the total distance range that was overwritten during the operating procedure can also be retained for independent spatial (3D) evaluation.
  • the method results in a distance range in which the object is present relative to the device.
  • This resulting object distance information which is determined using the TOF image capture, enables a form redundancy of the operating method in conjunction with a triangular distance capture made possible by the at least one stereo camera.
  • the distance information can be output as the smallest distance of the detected object or as a distance per object pixel of the respective sensor array.
  • the overall result is an image capture that is both safe and predictive, and is well adapted to the requirements of driver assistance or autonomous driving in particular.
  • a stereo correspondence determination can be used, which is described, for example, in WO 2022/069 424 Al.
  • a temporal overlap according to claim 6 enables a rapid execution of the operating method.
  • the temporal overlap can be such that at least two distance ranges with simultaneous detection start and the same detection duration with the sensor arrays, whereby these detection areas are specified by different specifications of the respective flash illumination start and/or the respective flash illumination duration with regard to their image acquisition parameters. It is also possible to design the repetition sequence of the operating procedure in such a way that a detection actually takes place at exactly one time, i.e. at a specified detection start and with a specified detection duration, for all specified distance ranges. This simultaneous detection of at least two detection areas can reduce the image processing effort and speed up the entire process.
  • Different distance extensions of the distance ranges according to claim 7 make it possible in particular to specify a distance sensitivity depending on the distance, which also helps to shorten the duration of the operating method.
  • the distance extension of the respective distance range can be increased, in particular increased progressively.
  • An additional triangulation determination according to claim 8 enables a comparison of object distance values which were determined on the one hand via the distance-range-resolved detection using the TOF image acquisition parameters and on the other hand by means of triangulation.
  • a ROI specification according to claim 9 enables a reduction in the image data to be processed, which can also shorten the method.
  • the specified ROI can be a road area in the forward direction.
  • An operating method according to claim 10 can be used as an alternative or in addition to the operating method explained above. Such an operating method enables redundant distance determination of a respective object distance. In particular, this can provide form redundancy, i.e. redundancy provided by using different technologies for distance detection.
  • the use of the detected TOF distance as an input variable for the triangulatory detection according to claim 11 can enable a correspondence analysis in the triangulatory detection facilitate.
  • the correspondence analysis can be used to limit the disparity range to be covered.
  • the triangulatory distance can also be used as an input variable for a TOF detection.
  • the use of a detected object distance can be used in the operation of the device for tracking detected objects. Exactly one such object can be tracked or a plurality of such objects can be tracked simultaneously. Object tracking steps can alternate with detection steps for an entire specified distance range.
  • image acquisition parameters of the TOF distance detection and/or the triangulatory distance detection can be adapted to an object distance to be expected during tracking.
  • a flash intensity/distance range adjustment according to claim 12 makes it possible in particular to draw a conclusion about diffuse scattering media present in the flashlight and/or camera detection path. Safe device operation is then possible even in foggy, dusty or smoky environments.
  • a quadratic dependence of the flash intensity on the distance to be detected according to claim 13 enables, in particular when the illumination intensity increases quadratically with increasing distance range, a tuning such that with identical ambient backscattering and negligible scattering along a flash path and along a detection path between source and object, a control of a constant intensity illumination of the at least one sensor array is possible. This can be used to determine diffuse scattering media in the detected distance range.
  • a regulation of a pixel sensitivity according to claim 14 can in particular not be carried out linearly to the incident light intensity.
  • a gamma correction (y) can be carried out.
  • the sensitivity of the at least one sensor array can then be specifically adapted to the lighting and/or detection conditions present in the application.
  • An adapted distance range Z movement mode selection according to claim 15 enables efficient utilization in particular of a computing power of the device and can also increase operational reliability.
  • two images are compared so that possible changes in brightness due to changes in density can be neglected in a first approximation.
  • AI neural networks
  • Fig. 1 schematically shows a plan view of a device for spatial image capture of an environment moving relative to the device, wherein an environmental object in the forward direction of a relative movement of the device to the environment is illustrated by way of example and in perspective;
  • Fig. 2 is a timing diagram illustrating image acquisition parameters during operation of the device of Fig. 1;
  • FIG. 3 shows, in a representation similar to Fig. 1, a further embodiment of a device for spatial image capture of an environment moving relative to the device, wherein environmental objects in the forward direction of a relative movement of the device to the environment are illustrated by way of example and in perspective;
  • Fig. 4 shows, in a representation similar to Fig. 2, a time sequence of an operating method of the device according to Fig. 3;
  • Fig. 5 shows a side view of the main components of an embodiment of the device for spatial imaging of an environment within three exemplary distance parameters, wherein a cloud-shaped diffuse scattering medium is present within the captured environment.
  • Fig. 1 shows a plan view of a device 1 for spatial image capture of an environment moving relative to the device 1, which is illustrated by an environmental object 2 in the form of a cylindrical body.
  • the device 1 can be part of a vehicle 3, for example a car or a truck.
  • a forward direction of the relative movement of the device 1 to the environment is illustrated in Fig. 1 by an arrow 4.
  • the device 1 has several stereo cameras for triangulatory object distance measurement of objects within the detected environment in the forward direction 4, i.e. in particular for determining the distance of the object 2.
  • a first stereo camera 5 of these stereo cameras has two cameras 5i, 52 spaced apart from one another.
  • a distance A between these cameras 5i, 52 of the stereo camera 5 results in a length of a baseline of the stereo camera 5, i.e. a length of a distance from the centers of entrance pupils of the cameras 5i, 52 of the stereo camera.
  • the cameras 5i, 52 of the stereo camera 5 each have a sensor array 6i, 62 with controlled specification of a start of detection of the respective camera 5i and 52 and a detection duration of the respective camera 5i, 52.
  • the sensor arrays 61, 62 are designed in the manner of corresponding sensors of time of flight (TOF) cameras and can realize a detection duration in the range between 1 ns and 500 ns.
  • a typical detection time is in the range between 50 ns and 400 ns, for example between 150 ns and 250 ns.
  • the sensor arrays 61, 62 can each have 100 x 100 pixels or 200 x 200 pixels. In principle, a higher number of pixels is also possible, in particular a number of 640 x 480 or 1440 x 1080 pixels.
  • the sensor arrays 61, 62 can be designed as CMOS arrays.
  • the 5i, 52 cameras have a telephoto lens for detecting objects at distances between 50 m and 300 m.
  • the device 1 also includes a flash light source 7, which can also be designed like the light source of a TOF camera and enables a controlled specification of a flash illumination start and a flash illumination duration of successive illumination flashes.
  • a flash illumination duration can be in the range between 5 ns and 150 ns, for example in the range of 100 ns.
  • Fig. 2 illustrates a temporal sequence during operation of the device 1 with the stereo camera 5 and the flash light source 7.
  • an illumination flash of the flash light source 7 begins.
  • a flash illumination duration of the illumination flash 8 is indicated in Fig. 2 with Atfiash.
  • a delay time Ati ag starts, which is also called delay time.
  • This delay time Ati ag is in the range between 300 ns and 2 ms and can, for example, be in the range between 500 ns and 1 ms, for example in the range between 700 ns and 900 ns, for example 800 ns.
  • tE thus represents the start of detection.
  • the respective sensor array 61, 62 detects incident light from the flash light source 7 during a detection period At exp .
  • the detection 9 by the respective sensor array 61, 62 of the stereo camera 5 is again illustrated in Fig. 2 by a temporal box.
  • a synchronization unit of a synchronization device of the control device 10 can be used for this purpose.
  • the control device 10 has an image processor for real-time data processing. This can be a processor with a field programmable gate array (FPGA).
  • the image processor can be trimmed for ultra-fast image grabbing of the individual images captured by the sensor arrays 6i, triggered by the control device 10.
  • the object 2 is at a distance from the device 1 along the forward direction 4 that lies within this distance range 11, so that the object 2 is recorded by the stereo camera 5.
  • the recorded distance range 11 is approximately 100 m to 150 m away from the device 1 and has an extension of, for example, 30 m along the forward direction 4.
  • This distance is indicated in Fig. 1 at 12 and is not to scale compared to the distance range 11.
  • a reference distance determination of the object 2 to the device 1 can then be carried out in a triangulatory manner redundantly to the TOF distance measurement over the delay period Ati ag .
  • the device 1 is therefore in principle a TOF camera with additional triangulation.
  • the stereo camera 5 can also perform a correspondence analysis of individual camera images recorded with the two cameras 5i, 52 in order to separate stereoscopically captured objects from background noise that is only present in one of the two cameras 5i, 52.
  • a correspondence analysis is described, for example, in WO 2022/069424 A1 and in WO 2022/069425 A2.
  • a stereo calibration of the stereo camera 5, in particular of the alignments and positions of the cameras 5i, 52 of the stereo camera 5, can be carried out using a method that is also described in WO 2022/069424 A1.
  • a TOF distance of at least one captured object captured using the TOF principle can be compared with a triangular distance of the object captured using the at least one stereo camera using the triangular principle.
  • the TOF distance can be used, for example, as an input variable for the triangular capture. This can facilitate the correspondence analysis during the triangular capture, for example by limiting a disparity range to be covered in the correspondence analysis.
  • a shadow cast by the object 2 can also be captured for the illumination light of the flash light source 7.
  • the device 1 has a further flash light source 13, the function of which corresponds to that of the flash light source 7, which is also used for the controlled specification of a flash lighting start and a flash lighting duration of successive lighting flashes.
  • the further flash light source 13 can be used redundantly to the initially described flash light source 7, for example in the event of a failure of the initially described flash light source 7.
  • the initially described flash light source 7 can then be replaced, for example, so that uninterrupted operation of the device 1 is possible, for example during a journey to be monitored by the car or truck on which the device 1 is mounted.
  • the device 1 has a further stereo camera 14 with cameras 14i, 142, the structure and function of which corresponds to what was already explained above with reference to the stereo camera 5.
  • the stereo camera 14i is arranged directly adjacent to the stereo camera 5i and covers practically the same field of view in the forward direction 4 as the camera 5i.
  • the camera 142 is in turn arranged directly adjacent to the camera 52 and covers the same field of view in the forward direction 4 as the camera 52.
  • the stereo camera 14 is in turn redundant to the stereo camera 5. The same applies here as was said for the flash sources 7 and 13.
  • the two fisheye cameras 15i and 152 arranged on the left of the vehicle 3 in Fig. 1 have a main capture direction 17 which, like the main capture directions of the cameras 5i and 6i, runs horizontally, but in the case of the fisheye cameras 15i and 152, forms an angle of 45° to the forward direction 4.
  • fisheye cameras 15i, 152 therefore cover both the forward direction 4 and the lateral direction opposite to the lateral direction 16 (left in Fig. 1) of the vehicle 3 on which the device 1 is mounted. Accordingly, the two further fisheye cameras 153, 154, whose main detection directions 18 also form an angle of 45° to the forward direction 4, also cover a right-hand area in the lateral direction 16 in addition to the forward direction 4.
  • the fisheye cameras 15i have a detection angle around the main detection directions 17, 18 of 180°.
  • the limiting angles of the detection ranges of these fisheye cameras 15i are indicated by dashed lines in Fig. 1. These opening areas overlap in an overlap area 19, which is indicated by hatching in Fig. 1. In particular, the object 2 is located in this overlap area 19.
  • the illumination light source 7 emits flash light of the illumination flashes along the forward direction in an illumination cone, the edge rays of which are illustrated in Fig. 1 at 8a.
  • the object 2 and also the overlap area 19 lie within the illumination cone 8a of the flash light source 7.
  • the fisheye stereo camera 15 can optionally carry out a triangulatory object distance determination using at least two of the four fisheye cameras 15i, whereby it is possible to work with short baselines, distances of the fisheye cameras 151, 152 on the one hand and 15s, 154 on the other hand, or also with long baselines (distances of the fisheye cameras 151 and 153 or 15i and 154 or 152 and 153 or 152 and 154). This in turn can be used to carry out a redundant triangulatory object distance determination.
  • the device 1 also has a further fisheye stereo camera 20 with fisheye cameras 20i to 2Ü4, which correspond to the fisheye cameras 15i to 154 in terms of their structure, orientation and pairwise arrangement.
  • the fisheye stereo camera 20 can be used redundantly to the fisheye stereo camera 15. What was stated above for the flash light sources 7 and 13 or for the stereo cameras 5 and 14 applies accordingly here.
  • the cameras 15i of the fisheye stereo camera 15 in turn have sensor arrays in the manner of the sensor arrays 6i described above, and can therefore in turn be used as part of a TOF detection, as already explained above.
  • the control device 10 is in signal connection with the stereo cameras 5, 14, 15 and 20 and with the flash light sources 7 and 13. Furthermore, the control device 10 can be in signal connection with components of the vehicle 3, for example with a drive and/or with a braking system and/or with vehicle display devices, for example in a dashboard of the vehicle 3.
  • the device 1 can take an image recording of, for example, ten images per second.
  • Fig. 3 shows a further embodiment of a device 21 which can be used instead of the device 1 for spatial image capture of an environment moving relative to the device. Components and functions of the device 21 which correspond to those of the device 1 have in particular the same reference numbers and are not discussed again in detail.
  • the device 21 is equipped with two stereo cameras 5, 14, which record the surroundings of the device 21, which is in turn mounted on a vehicle 3, in the forward direction 4. Three environmental objects 22, 23 and 24 are illustrated within this recorded environment.
  • the maximum number max of these distance ranges 22i can be in the range between 3 and 50, for example in the range of 10.
  • These distance ranges 22i are also referred to as distance zones (gate zones) gz.
  • This image acquisition parameter specification is again carried out by means of the control device 10.
  • the distance range gz-1 for example the distance range 22 max , is then recorded using the image acquisition parameters specified in this way.
  • This specification is selected so that a Delay period (Ati ag , gz) with these further specified image acquisition parameters is somewhat shorter than the initially specified delay period Atiag, gz-i. This means that when capturing with the last specified image acquisition parameters, a further detection range gz is captured, which is adjacent to the initially captured distance range gz-1, i.e. the distance range 22max, at shorter distances from the device 21.
  • the further distance range gz adjoins or partially overlaps the preceding distance range gz-1 along the forward direction 4 in a detection progress direction +z.
  • Object 24 is located in this now recorded detection area gz.
  • the last captured image in the distance range gz is now digitally filtered to filter out unstructured image areas so that the object 24 remains.
  • the image captured in the detection area preceding the detection of the distance range gz (detection of the distance range gz-1) is then overwritten with the last captured image (distance range gz) in non-filtered image areas, i.e. in the area of the object 24, of this last captured image, so that an updated image is stored in the control device 10 which contains the information from the two distance ranges gz-1 and gz.
  • control device 10 specifies further image acquisition parameters so that a further distance range gz+1 is acquired, which in turn adjoins the distance range gz or partially overlaps with it in the opposite direction to the forward direction 4.
  • the operating procedure with scanning of all distance ranges 22max to 22i can take place in real time in 10 Hertz operation.
  • the result of such a complete scanning process of the distance ranges 22max to 22i is a 2D image with the non-filtered out objects 22, 23 and 24 in all distance ranges 22i recorded within the total distance range 25.
  • Overwritten information of the distance ranges 22max to 222 initially recorded within the total distance range 25 can also be retained in the last updated, output image after recording the distance range 22i for an independent spatial (3D) evaluation.
  • successive detection steps for distance ranges gz-1 and gz can overlap in time. More than two such detection steps can also overlap in time, so that, for example, during a delay period when detecting a first distance range gz, a flash of at least one further detection of a further distance range gz+1, gz+2 begins.
  • a detection period of a previous detection can also overlap, for example, with a flash period of a subsequent detection.
  • Distance extensions Az of the various distance ranges 22i, 22j can differ from one another.
  • the detection times can therefore differ in the various detection steps of the operating method.
  • a triangulation determination of a distance of the objects 22 to 24 in the non-filtered image areas can additionally be carried out using the at least one stereo camera 5, 14.
  • a stereo correspondence determination can again take place, as already explained above.
  • a region of interest can be specified as part of an image field that can be captured via the respective camera 5i, 14i, For example, a road area identified by appropriate object filtering in the forward direction 4.
  • Fig. 5 shows a side view of a further embodiment of the image capture device 1.
  • Components and functions which correspond to those already explained above with reference to Figures 1 to 4 have the same reference numerals and will not be discussed again in detail.
  • the use of the device 1 for determining and detecting a diffuse scattering medium along a flash light path 28 between the flash light source 7 and an exemplary environmental object 2 is explained with reference to Fig. 5.
  • the camera 5i of the stereo camera 5 is shown as an example in Fig. 5, which enables a TOF distance determination in addition to the triangulatory distance determination.
  • the device 1 detects a total of three distance ranges 22i, 222, 22s by specifying corresponding TOF image detection parameters.
  • the first, closest distance range 221 extends by a first distance di.
  • the specification of the image acquisition parameters for the three distance ranges 22i to 22a also includes specifying a flash intensity L for illuminating the respective distance range 22i.
  • the flash intensity E for illuminating the distance range 222 is four times as large as the flash intensity Ii for illuminating the first, closest distance range 22i.
  • the flash intensity I3 for illuminating the third distance range 22a which is the furthest away in the example according to Fig. 5, is nine times as large as the flash intensity Ii.
  • the flash intensity L is therefore quadratically dependent on a distance di within a total distance range 25 to be recorded.
  • the diffuse scattering medium 27 is within the currently recorded distance range, in the case shown in Fig. 5 therefore within the distance range 222. In this case, the diffuse scattering medium 27 is directly illuminated along the illumination path 3h and a corresponding scattering of the illumination light 8 through the diffuse scattering medium 27 into the sensor array 6i is measured during the TOF detection, which leads to an increase in the intensity illumination along the detection path 3Ü2.
  • the diffuse scattering medium 27 is located between the flash light source 7 and the sensor array 6i on the one hand and the currently recorded distance range, for example the distance range 22s, on the other. In this case, the illumination light is weakened along the flashlight path 3U when it passes through the diffuse scattering medium 27.
  • the illumination light scattered back from the detection area 223 in the direction of the sensor array 6i along the detection path 3Ü3 is further weakened due to further scattering by the diffuse scattering medium 27.
  • the intensity illumination of the sensor array 6i is weakened when detecting the distance range 223 due to the cloud of the diffuse scattering medium 27 present in the intermediate distance range 222.
  • a combination of an increased intensity illumination of the sensor array 6i when detecting the distance range 222 compared to the expected constant intensity illumination and a reduction in the intensity illumination of the sensor array 6i when detecting the distance range 22s thus enables the identification of the diffuse scattering medium 27 within the distance range 222.
  • a pixel sensitivity of sensor pixels of the various sensor arrays 6i, ... can be regulated as a function of an incident light intensity, i.e. as a function of an intensity illumination of the sensor array 6i, ...
  • a y-correction can be carried out during image processing using the respective sensor array 6i, ...
  • the exponent y used for the y-correction can vary in the range between 0.2 and 5, for example.
  • a pixel sensitivity can then be achieved to adapt a high dynamic range either with high or low intensity illumination of the sensor array.
  • a selection of object distance ranges 22i to be detected can be adapted to a movement mode of the device 1 or 21 relative to the environment in certain operating modes of the detection device 1 or 21.
  • the total distance range 25 can be adapted to a relative speed of the device 1, 21 to the environment. Adaptation to a reversing or cornering mode is also possible.
  • the respective device 1 or 21 can also be operated as follows:
  • a TOF distance of at least one object 2 or 22 to 24 is recorded using the TOF principle with the aid of the respective device 1, 21.
  • a triangulatory distance of the respective object 2 or 22 to 24 is recorded using the triangulatory principle using the one stereo camera 5, . . . of the device 1, 21.
  • the detection values "TOF distance” and "triangulatory distance” are then compared when the device 1, 21 is in operation.
  • a disparity range to be covered in the correspondence analysis can be limited.
  • the triangulatory distance is used as an input variable for the distance detection using the TOF principle. This can be used to determine or divide a given total distance range into section-by-section distance ranges 22i and to specify the TOF image detection parameters based on the distance.
  • An illumination intensity by the flash light source 7 can be specified in particular such that a common and in particular scalar brightness control of all images of the Z-buffering of the first figures 3 and 4 is carried out with in particular constant intensity illumination of the respective sensor arrays 6i, ...
  • This brightness control can be used in the form of a control loop in the device 1, 21.
  • a calibration of a dependence of an illumination intensity of the flash light source on the distance i.e. an illumination intensity function
  • an illumination intensity function can be carried out using a calibration setup using a scattering medium with a homogeneous scattering particle distribution.
  • the pixel sensitivity as a function of the incident light intensity can be set in the form of a proportional function or in the form of a non-linear function.
  • selected objects 2 or 22 to 24 can be tracked.
  • the triangulatory image detection parameters for example the length of the baseline of a respectively selected stereo camera, a lens focal length of the cameras of the respective stereo camera or a disparity range to be monitored
  • the triangulatory image detection parameters can be specified in such a way that the object once recorded can also be tracked in subsequent image captures. is again detected.
  • a relative movement of the object detected in each case to the device 1 or 21 can be taken into account, so that, for example, if it is expected that the object and the device will approach each other, the distance of the respectively selected distance range 22i is reduced in the TOF detection during tracking.
  • a light intensity of the flash light source can be adjusted to a distance range of the object to be tracked in each case and in particular can be regulated.
  • a tracking detection of the at least one tracked object and a scan over the entire distance range 25 can be carried out intermittently, which increases the overall detection reliability with a reasonable detection effort.
  • the image acquisition parameters can be adjusted for the TOF acquisition of several distance ranges 22i, 22i+i so that detection via the respective camera takes place during exactly one detection period (same detection start, same detection duration) for these distance ranges 22i, 22i+i. In extreme cases, this can apply to all distance ranges 22i within the total distance range 25.
  • the extent of the respective distance range 22i in which the object is expected can be determined by appropriately adjusting the flash illumination duration.
  • shorter flash illumination durations and shorter detection durations can be specified with a corresponding increase in the distance accuracy in the TOF distance determination.
  • the device 1 can contain a neural network or a Kl module, which can be used to train the respective operating procedure and to improve image recognition accordingly.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

The invention relates to a device (1) which is used to capture a spatial image of a surrounding area. The image capturing device (1) has at least one stereo camera (5, 14, 15, 20) for determining the object distance of the device (1) to the surrounding area using triangulation. At least one flash light source (7, 13) is used to illuminate the surrounding area. Each of the cameras of the stereo camera has a sensor array. A controller (10) is connected to the cameras so as to transmit signals and is used to specify image capturing parameters in a temporally synchronized manner, namely a flash illumination start, a flash illumination duration of the flash light source, and a detection start and a detection duration of the camera. The result is an image capturing device which is well adapted for the practice of capturing images in order to ensure a supporting or autonomous drive.

Description

Vorrichtung zur räumlichen Bilderfassung einer relativ zur Vorrichtung bewegten Umgebung sowie Betriebsverfahren hierfür Device for spatial image capture of an environment moving relative to the device and operating method therefor

Die vorliegende Patentanmeldung nimmt die Priorität der deutschen Patentanmeldung DE 10 2023 205 343.8 in Anspruch, deren Inhalt durch Bezugnahme hierin aufgenommen wird. The present patent application claims the priority of the German patent application DE 10 2023 205 343.8, the contents of which are incorporated herein by reference.

Die Erfindung betrifft eine Vorrichtung zur räumlichen Bilderfassung einer relativ zur Vorrichtung bewegten Umgebung. Ferner betrifft die Erfindung ein Verfahren zum Betrieb einer derartigen Vorrichtung. The invention relates to a device for spatial image capture of an environment moving relative to the device. The invention further relates to a method for operating such a device.

Derartige Vorrichtungen sind bekannt aus der WO 2022/069 424 Al, der WO 2022/069 425 A2, der WO 2022/179 998 Al und der DE 10 2011 080 702 B3. Such devices are known from WO 2022/069 424 A1, WO 2022/069 425 A2, WO 2022/179 998 A1 and DE 10 2011 080 702 B3.

Die WO 2014/009 945 Al offenbart ein Stereo-Abbildungssystem und ein zugehöriges Abbildungsverfahren. Die US 2014/0 282 224 Al offenbart eine Detektion einer Scroll-Geste. Die WO 2017/189 185 Al offenbart 3D-Abbildungssysteme. WO 2014/009 945 A1 discloses a stereo imaging system and an associated imaging method. US 2014/0 282 224 A1 discloses a detection of a scroll gesture. WO 2017/189 185 A1 discloses 3D imaging systems.

Es ist eine Aufgabe der vorliegenden Erfindung, eine Vorrichtung zur räumlichen Bilderfassung zu schaffen, die an die Praxis insbesondere der Bilderfassung zur Sicherstellung eines unterstützenden oder autonomen Fahrens gut angepasst ist. It is an object of the present invention to provide a device for spatial image acquisition which is well adapted to the practice, in particular of image acquisition for ensuring assisted or autonomous driving.

Diese Aufgabe ist erfindungsgemäß gelöst durch eine Vorrichtung mit den im Anspruch 1 angegeben Merkmalen. This object is achieved according to the invention by a device having the features specified in claim 1.

Erfindungsgemäß wurde erkannt, dass sich die Funktionen einerseits mindestens einer Stereokamera und andererseits einer Bilderfassung mittels eines Beleuchtungs-Laufzeitverfahrens vorteilhaft ergänzen. Sowohl die Stereokamera als auch die ein Laufzeitverfahren ermöglichenden Komponenten Blitzlichtquelle und Sensor- Array, über die Laufzeitverfahrens-Bilderfassungsparameter vorgegeben werden können, erlauben die Ermittlung eines Abstandes von Objekten innerhalb der Umgebung. Die Vorrichtung kann zur räumlichen Bilderfassung einer relativ zur Vorrichtung bewegten Umgebung dienen. Die mindestens eine Stereokamera kann zur triangulatori sehen Objekt- Ab Standsbestimmung innerhalb der erfassten Umgebung in Vorwärtsrichtung einer Relativbewegung der Vorrichtung zur Umgebung dienen. Dies kann zur Verbesserung einer Sicherheit der Umgebungserfassung insbesondere im Zusammenhang mit einem fahrerunterstützenden oder auch einem autonomen Fahren genutzt werden. Die Vorrichtung kann Bestandteil eines Fahrzeugs, beispielsweise eines PKW oder LKW, sein. According to the invention, it was recognized that the functions of at least one stereo camera on the one hand and of image capture using an illumination time-of-flight method on the other hand advantageously complement each other. Both the stereo camera and the components enabling a time-of-flight method, namely the flash light source and sensor array, via which the time-of-flight method image capture parameters can be specified, allow the determination of a distance from objects within the environment. The device can be used for spatial image capture of an environment that is moving relative to the device. The at least one stereo camera can be used for triangular object position determination within the captured environment in the forward direction of a relative movement of the device to the environment. This can be used to improve the reliability of the environment capture, particularly in connection with driver-assisted or autonomous driving. The device can be part of a vehicle, for example a car or truck.

Die Steuereinrichtung kann insbesondere einen Delay-Zeitraum zwischen dem Blitzbeleuchtungsbeginn der mindestens einen Blitzlichtquelle und dem Detektionsbeginn des jeweiligen Sensor-Arrays der Kameras der mindestens einen Stereokamera vorgeben. Der Abstand der Kameras der Stereokamera zueinander ergibt eine Länge einer Baseline, also eines Abstandes von Zentren von Eintrittspupillen der Kameras der mindestens einen Stereokamera. Mit der Vorrichtung können Prinzipien einer TOF (Time of Flightj-Kamera mit einer triangulatorisch abstandsvermessenden Stereokamera verknüpft werden. Eine entsprechende TOF-Bilderfassung ist beschrieben beispielsweise in der US 2019/056 498 AL Die Blitzlichtquelle kann so ausgeführt sein, wie dies prinzipiell von TOF-Kameras oder von LIDAR- Systemen bekannt ist. Entsprechendes gilt für die Sensor-Arrays der Kameras. Ein Sensor-Array, das bei der TOF- Bilderfassung genutzt wird, kann als Single Photon Avalanche Diode (SPAD)-Array aufgebaut sein. Ein derartiges SP AD- Array und seine Anwendung im Zusammenhang mit einer TOF- Messung ist bekannt aus einem Fachartikel von T. Swedish et al.: „Beyond the Line of Sight? What’s New in Optical Perception“, AUVSI XPONENTIAL 2022-SWEDISH (Konferenz- Handout), S. 1-8, https://www.xponential.org/xponential2022/Custom/Handout/Speaker51584_Session4220_l .pdf und aus der US 2022/0174255 AL The control device can in particular specify a delay period between the start of the flash illumination of the at least one flash light source and the start of detection of the respective sensor array of the cameras of the at least one stereo camera. The distance between the cameras of the stereo camera results in a length of a baseline, i.e. a distance between the centers of the entrance pupils of the cameras of the at least one stereo camera. The device can be used to combine the principles of a TOF (Time of Flight) camera with a triangulatory distance-measuring stereo camera. A corresponding TOF image acquisition is described, for example, in US 2019/056 498 AL. The flash light source can be designed in the same way as is known in principle from TOF cameras or LIDAR systems. The same applies to the sensor arrays of the cameras. A sensor array used in TOF image acquisition can be constructed as a Single Photon Avalanche Diode (SPAD) array. Such a SP AD array and its application in connection with a TOF measurement is known from a technical article by T. Swedish et al.: "Beyond the Line of Sight? What's New in Optical Perception", AUVSI XPONENTIAL 2022-SWEDISH (conference handout), pp. 1-8, https://www.xponential.org/xponential2022/Custom/Handout/Speaker51584_Session4220_l .pdf and from US 2022/0174255 AL

Zur triangulatorischen Objekt- Abstandsbestimmung sind die beiden Kameras der Stereokamera über eine Synchronisierungseinheit miteinander synchronisiert. Durch diese Synchronisation kann insbesondere eine exakt zeitgleiche Erfassung des jeweiligen Objekts über die Kameras der Stereokamera erreicht werden. Dies unterscheidet eine Stereokamera zur triangulatorischen Ob- jekt-Abstandsbestimmung von einer stereoskopischen Kamera, über die ausschließlich ein Raumeindruck einer Bilderfassung erzeugt wird und die beispielsweise beschrieben ist in der US 2015/296 200 Al. Der Einsatz eines SP AD- Arrays kann zu einer Verringerung einer Bewegungsunschärfe führen und kann zur Kontrastverbesserung einer Bilderfassung genutzt werden. For triangulatory object distance determination, the two cameras of the stereo camera are synchronized with each other via a synchronization unit. This synchronization makes it possible to achieve an exactly simultaneous recording of the respective object via the cameras of the stereo camera. This distinguishes a stereo camera for triangulatory object distance determination from a stereoscopic camera, which only creates a spatial impression of an image capture and which is described, for example, in the US 2015/296 200 Al. The use of an SP AD array can lead to a reduction in motion blur and can be used to improve the contrast of an image acquisition.

Die Synchronisation und insbesondere die zeitgleiche Objekterfassung bei der tri angulatori sehen Objekt-Abstandsbestimmung ermöglicht es, auch fremdbewegte Objekte in ihrer Entfernung präzise zu erfassen, da dann der Einfluss einer zusätzlichen Relativgeschwindigkeit aufgrund der Fremdbewegung des Objekts die Entfernungsbestimmung nicht beeinflusst. The synchronization and in particular the simultaneous object detection in the triangulatory object distance determination makes it possible to precisely determine the distance of even externally moving objects, since the influence of an additional relative speed due to the external movement of the object does not then affect the distance determination.

Eine Brennweite f der jeweiligen Kamera einer Stereokamera, die Baseline b der Stereokamera sowie eine Disparität D, also ein Unterschied zwischen Bildkoordinaten von Abbildungspositionen des gleichen Punktes auf den Sensor- Arrays der Kameras der Stereokamera, werden so aufeinander abgestimmt, dass unter Einbeziehung der Beziehung d = fb/D für den zu erfassenden Objekt- Ab standswert d gilt: A focal length f of the respective camera of a stereo camera, the baseline b of the stereo camera and a disparity D, i.e. a difference between image coordinates of imaging positions of the same point on the sensor arrays of the cameras of the stereo camera, are coordinated in such a way that, taking into account the relationship d = fb/D, the following applies to the object distance value d to be recorded:

3 m < d < 300 m 3 m < d < 300 m

Zusätzlich kann die Vorrichtung so ausgelegt sein, dass ein entsprechender Objekt-Entfemungs- bereich über die TOF-Bilderfassungsfunktionalität der Vorrichtung erfasst wird. In addition, the device can be designed such that a corresponding object distance range is detected via the TOF image acquisition functionality of the device.

Bei der Blitzlichtquelle kann es sich um eine gesteuerte Blitzlampe handeln oder auch um eine entsprechend zeitgesteuerte LED- oder Laser-Lichtquelle. Es können Blitzlichtquellen zum Einsatz kommen, die zum Einsatz beispielsweise bei LID AR- Vorrichtungen bekannt sind. The flash light source can be a controlled flash lamp or a time-controlled LED or laser light source. Flash light sources can be used that are known for use in LID AR devices, for example.

Eine Blitzbeleuchtungsdauer der Blitzlichtquelle kann im Bereich zwischen 10 ns und 200 ns, beispielsweise im Bereich von 100 ns, liegen. A flash illumination duration of the flash light source can be in the range between 10 ns and 200 ns, for example in the range of 100 ns.

Eine Detektionsdauer der Sensor- Arrays der mindestens einen Stereokamera ist regelmäßig so vorgegeben, dass sie doppelt so groß ist wie die Blitzbeleuchtungsdauer der Blitzlichtquelle. Die Detektionsdauer kann im Bereich zwischen 20 ns und 400 ns, beispielsweise im Bereich von 200 ns, liegen. A detection time of the sensor arrays of at least one stereo camera is regularly set to be twice as long as the flash illumination time of the flash light source. The Detection time can be in the range between 20 ns and 400 ns, for example in the range of 200 ns.

Sowohl die Blitzbeleuchtungsdauer als auch die Detektionsdauer können über die Steuereinrichtung einstellbar vorgebbar sein. Both the flash illumination duration and the detection duration can be set via the control device.

Die Synchronisierungseinheit kann Teil der Steuereinrichtung sein. Teil der Steuereinrichtung kann eine Speichereinheit insbesondere in Form eines Flash-Speichers sein. Die Synchronisationseinheit kann Bestandteil einer Synchronisationseinrichtung zur Synchronisation der Blitzlichtquelle und der Sensor- Arrays der Kameras der mindestens einen Stereokamera sein. Die Synchronisationseinrichtung kann wiederum Bestandteil der Steuereinrichtung der Bilderfassungs-Vorrichtung sein. The synchronization unit can be part of the control device. Part of the control device can be a storage unit, in particular in the form of a flash memory. The synchronization unit can be part of a synchronization device for synchronizing the flash light source and the sensor arrays of the cameras of the at least one stereo camera. The synchronization device can in turn be part of the control device of the image capture device.

Eine Synchronisation, die über die Synchronisationseinrichtung bereitgestellt werden kann, kann besser sein als 5 ns, kann besser sein als 2 ns, kann besser sein als 1 ns und kann auch noch besser sein. Synchronization that can be provided by the synchronization device may be better than 5 ns, may be better than 2 ns, may be better than 1 ns, and may be even better.

Die Kameras der Stereokamera können lateral zur Vorwärtsrichtung voneinander beabstandet sein. Je nach Erfassungswinkel der Kameras und je nach Anwendungszweck und Haupt-Erfassungsrichtung der Stereokamera sind auch andere Kamera- Anordnungen der Stereokamera möglich. The cameras of the stereo camera can be spaced apart laterally to the forward direction. Depending on the detection angle of the cameras and depending on the application and main detection direction of the stereo camera, other camera arrangements of the stereo camera are also possible.

Die Kameras der mindestens einen Stereokamera können eine Tele-Optik zur Erfassung von Objekten im Entfernungsbereich zwischen 50 m und 300 m aufweisen. Je nach Anwendungszweck können die Kameras der Stereokamera auch mit Optiken anderer Brennweiten ausgerüstet sein. Diese Kameraoptiken sind so ausgeführt, dass ein gesamter vorgegebener Entfemungsbereich insbesondere zwischen 3 m und 300 m abgedeckt wird. Grundsätzlich können auch noch kleinere Entfernungen abgedeckt werden. The cameras of at least one stereo camera can have a telephoto lens for detecting objects at a distance between 50 m and 300 m. Depending on the application, the cameras of the stereo camera can also be equipped with lenses of other focal lengths. These camera lenses are designed in such a way that an entire specified distance range is covered, in particular between 3 m and 300 m. In principle, even smaller distances can be covered.

Die Entfernungsbereiche der tri angulatori sehen Objekterfassung einerseits und der TOF- Entfemungserfassung andererseits sind aufeinander abgestimmt und können beispielsweise gleich sein. Auch eine Teilüberdeckung dieser Entfemungsbereiche ist möglich, sodass in einem Entfernungsbereich beide Entfernungsbestimmungsprinzipien „triangulatorisch“ und „TOF“ zur Verfügung stehen und in anderen Entfernungsbereichen eines dieser Prinzipien. The distance ranges of the triangulatory object detection on the one hand and the TOF distance detection on the other hand are coordinated and can, for example, be the same. Partial overlap of these distance ranges is also possible, so that in a In some distance ranges both distance determination principles “triangulatory” and “TOF” are available and in other distance ranges one of these principles is available.

Mittels der Kameras der mindestens einen Stereokamera kann eine Korrespondenzanalyse zur Identifizierung von sich von einem Hintergrund unterscheidenden, in einem interessierenden Sichtbereich vorliegenden Objekten stattfinden. Methoden einer entsprechenden Korrespondenzanalyse sind bekannt aus der WO 2022/069 424 Al und der WO 2022/069 425 A2. Zur Vorbereitung eines Betriebs der Vorrichtung kann eine Stereo-Kalibrierung der Kameras der mindestens einen Stereokamera erfolgen, die grundsätzlich bekannt ist aus der WO 2022/069 424 Al und der DE 10 2011 080 702 B3. Using the cameras of the at least one stereo camera, a correspondence analysis can be carried out to identify objects that are different from a background and are present in a field of view of interest. Methods of a corresponding correspondence analysis are known from WO 2022/069 424 A1 and WO 2022/069 425 A2. In preparation for operation of the device, a stereo calibration of the cameras of the at least one stereo camera can be carried out, which is basically known from WO 2022/069 424 A1 and DE 10 2011 080 702 B3.

Die mindestens eine Stereokamera kann mehr als zwei zueinander beabstandete Kameras aufweisen, was insbesondere einen Wechsel zwischen verschiedenen Baselines ermöglicht, was ebenfalls beispielsweise in der WO 2022/069 424 Al beschrieben ist. The at least one stereo camera can have more than two cameras spaced apart from each other, which in particular enables switching between different baselines, which is also described, for example, in WO 2022/069 424 A1.

Die Vorrichtung kann mindestens zwei Stereokameras mit relativ großer Baseline und mindestens eine weitere Stereokamera mit im Vergleich hierzu deutlich kleinerer Baseline aufweisen, wobei die kleinere Baseline höchstens 50 %, höchstens 25 % oder auch höchstens 10 % der größeren Baseline sein kann. Die Vorrichtung kann auch mehrere Stereokameras mit der kleinen Baseline aufweisen. The device can have at least two stereo cameras with a relatively large baseline and at least one further stereo camera with a comparatively significantly smaller baseline, wherein the smaller baseline can be at most 50%, at most 25% or even at most 10% of the larger baseline. The device can also have several stereo cameras with the small baseline.

Weitere Objektinformationen, insbesondere Objekt- Ab Standsinformationen, können durch Auswertung eines Objekt-Schattenwurfs erfolgen, der von einem Objekt innerhalb der erfassten Umgebung als Schatten der Blitzbeleuchtung geworfen wird und von den beiden zueinander beab- standeten Kameras der mindestens einen Stereokamera unterschiedlich abgebildet wird. Insbesondere eine Höhe des Objektes kann ermittelt werden, weil ein Bild eines Objektschattens von der Höhenlage und der seitlichen Ablage des Objekts abhängig ist. Further object information, in particular object position information, can be obtained by evaluating an object shadow that is cast by an object within the captured environment as a shadow of the flash lighting and is imaged differently by the two cameras of the at least one stereo camera that are spaced apart from each other. In particular, the height of the object can be determined because an image of an object shadow depends on the height and lateral position of the object.

Mit der Vorrichtung kann eine räumliche Bilderfassung der relativ zur Vorrichtung bewegten o- der auch unbewegten Umgebung erreicht werden, die, beispielsweise beim Einsatz der Vorrichtung als Bestandteil eines Fahrzeugs, eine fahrerunterstützende Funktion oder auch die Funktion eines autonomen Fahrens ermöglicht. Die Blitzlichtquelle der Vorrichtung oder eine weitere Lichtquelle der Vorrichtung zur Umgebungsbeleuchtung kann einen Messlichtstrahl aufweisen, der über seinen Strahlquerschnitt texturiert beziehungsweise strukturiert ist. Eine derartige Texturierung/Strukturierung des Messlichtstrahls kann dadurch erfolgen, dass dieser als Vielzahl von einzelnen, die Umgebung in Form eines Rasters erfassenden Einzelstrahlen aufgebaut ist. Eine derartige Lichtquelle zur Erzeugung eines texturierten/ strukturierten Messlichtstrahls kann als Laser ausgeführt sein. Beispiele für eine Detektionseinrichtung, die mittels eines solchen texturierten/ strukturierten Messlichtstrahls arbeitet, finden sich in der DE 10 2018 213 976 Al und den dort angegebenen Referenzen, insbesondere in der WO 2012/095 258 Al, der US 9,451,237 und der WO 2013/020 872 AL Mithilfe einer derartigen texturierten/ strukturierten Beleuchtung können optisch unstrukturierte, insbesondere diffuse Streumedien innerhalb der umfassten Umgebung hinsichtlich ihres Abstandes vermessen werden. Bei derartigen diffusen Streumedien kann es sich beispielsweise um Nebel, Rauch oder Staub handeln. The device can be used to capture spatial images of the environment, whether moving or stationary relative to the device, which enables a driver-assisting function or even the function of autonomous driving, for example when the device is used as part of a vehicle. The flash light source of the device or another light source of the device for ambient lighting can have a measuring light beam that is textured or structured across its beam cross-section. Such texturing/structuring of the measuring light beam can be achieved by constructing it as a plurality of individual beams that capture the environment in the form of a grid. Such a light source for generating a textured/structured measuring light beam can be designed as a laser. Examples of a detection device that works using such a textured/structured measuring light beam can be found in DE 10 2018 213 976 A1 and the references cited therein, in particular in WO 2012/095 258 A1, US 9,451,237 and WO 2013/020 872 A1. With the help of such textured/structured lighting, optically unstructured, in particular diffuse scattering media within the enclosed environment can be measured with regard to their distance. Such diffuse scattering media can be, for example, fog, smoke or dust.

Mittels der Vorrichtung zur räumlichen Bilderfassung kann eine Formredundanz und/oder eine Funktionsredundanz erreicht werden. Eine Formredundanz ist dann erreicht, wenn unterschiedliche Technologien zur Ermittlung ein und derselben Messgröße genutzt werden. Eine Funktionsredundanz liegt dann vor, wenn mehrere Vorrichtungen derselben Technologie zur Messung ein und derselben Messgröße verwendet werden. Diese Begriffe „Formredundanz“ und „Funktionsredundanz“ sind hauptsächlich im Bereich der Luftfahrt gebräuchlich. Dort wird eine Kombination aus Form- und Funktionsredundanz gefordert, damit Mehrfachauswirkungen eines Fehlers vermieden werden. Derartige Redundanzen können, je nach Applikation der Vorrichtung, gesetzlich vorgeschrieben sein. Form redundancy and/or function redundancy can be achieved using the spatial image acquisition device. Form redundancy is achieved when different technologies are used to determine one and the same measurement variable. Function redundancy exists when several devices of the same technology are used to measure one and the same measurement variable. The terms "form redundancy" and "function redundancy" are mainly used in the aviation sector. There, a combination of form and function redundancy is required to avoid multiple effects of an error. Such redundancies can be required by law, depending on the application of the device.

Mindestens eine weitere Blitzlichtquelle und/oder mindestens eine weitere Stereokamera nach Anspruch 2 ermöglichen eine zusätzliche Funktionsredundanz der Vorrichtung. Bei Vorsehen mindestens einer weiteren Blitzlichtquelle kann beispielsweise nach Ausfall der zunächst eingesetzten Blitzlichtquelle auf die weitere Blitzlichtquelle umgeschaltet werden, sodass eine längere Betriebspause der Vorrichtung vermieden ist. Bei Einsatz mindestens einer weiteren Stereokamera kann, beispielsweise bei parallelem triangulatorischen Vermessen über zwei Stereokameras, eine weitere Redundanz bei der Objekt- Abstandsbestimmung erreicht werden. Die Kameras der weiteren Stereokamera können wiederum jeweils ein Sensor- Array mit gesteuerter Vorgabe eines Detektionsbeginns und einer Detektionsdauer aufweisen, sodass die weitere Stereokamera in ihrer Funktion grundsätzlich die ursprünglich eingesetzte Stereokamera ersetzen kann. Auch eine redundante TOF -Bestimmung von Objekt- Ab ständen ist über zwei entsprechende Stereokameras mit gesteuerter Vorgabe des Detektionsbeginns und der Detektionsdauer möglich, was eine zusätzliche Sicherheit bei der Objekt- Abstandsbestimmung liefert und beispielsweise Synchronisationsprobleme erkennen hilft. At least one further flash light source and/or at least one further stereo camera according to claim 2 enable additional functional redundancy of the device. If at least one further flash light source is provided, it is possible to switch to the further flash light source after the failure of the initially used flash light source, so that a longer break in operation of the device is avoided. If at least one further stereo camera is used, for example with parallel triangulation measurements using two stereo cameras, further redundancy in the object distance determination can be achieved. The cameras of the additional stereo camera can each have a sensor array with a controlled specification of a detection start and a detection duration, so that the additional stereo camera can basically replace the function of the stereo camera originally used. A redundant TOF determination of object distances is also possible using two corresponding stereo cameras with a controlled specification of the detection start and the detection duration, which provides additional security when determining the object distance and helps to identify synchronization problems, for example.

Bei Verwendung mehrerer Stereokameras ist zudem eine Zuordnung von Kameras verschiedener Stereokameras zu einer neuen „virtuellen“ Stereokamera mit entsprechend veränderter Baseline möglich, was eine weitere Redundanz beziehungsweise Sicherheit bei der Objekt- Abstandsbestimmung ermöglicht. Es kann beispielsweise dasjenige Kamerapaar zur Baseline-Vorgabe ausgewählt werden, welches sich in Bezug auf ein bestimmtes Umgebungs-Objekt für eine Triangulationsbestimmung als besonders günstig herausstellt. When using multiple stereo cameras, it is also possible to assign cameras from different stereo cameras to a new "virtual" stereo camera with a correspondingly modified baseline, which allows for further redundancy or security when determining the distance to objects. For example, the camera pair that proves to be particularly suitable for triangulation determination in relation to a specific surrounding object can be selected as the baseline.

Mindestens eine Fischaugen-Stereokamera nach Anspruch 3 ermöglicht den Einsatz zusätzlicher Triangulations-Baselines, was zur Erfassung weiterer Umgebungs-Objekte und/oder zur Kontrolle von Objekt- Abstandsergebnissen der anderen Stereokameras und/oder zur Kalibrierung der anderen Stereokameras, insbesondere von mit Tele-Optik-Kameras ausgeführten Stereokameras, genutzt werden kann. Bei der Haupterfassungsrichtung kann es sich um die Vorwärtsrichtung einer Relativbewegung der Vorrichtung zur Umgebung handeln. Die Nutzung von Fischaugen-Kameras ist aus den oben genannten Referenzen sowie aus der WO 2022/179 998 Al bekannt. Eine Fischaugen-Kamera, die möglichst steif an eine Tele-Optik-Kamera befestigt ist, erlaubt eine genauere Kalibrierung der Stereokameras zueinander, wegen des größeren Öffnungswinkels der Fischaugen-Kamera. Eine inertiale Messeinheit (Inertial Measurement Unit, IMU) in den Kameras der jeweiligen Stereokamera erlaubt eine weitere Optimierung der relativen Kalibrierung. Mittels der IMU kann insbesondere eine Drehrate, also eine Relativverkippung der jeweiligen Kamera um eine definierte Kippachse, bestimmt werden. At least one fisheye stereo camera according to claim 3 enables the use of additional triangulation baselines, which can be used to detect additional objects in the environment and/or to check object distance results of the other stereo cameras and/or to calibrate the other stereo cameras, in particular stereo cameras designed with telephoto optics cameras. The main detection direction can be the forward direction of a relative movement of the device to the environment. The use of fisheye cameras is known from the above-mentioned references and from WO 2022/179 998 A1. A fisheye camera that is attached as rigidly as possible to a telephoto optics camera allows a more precise calibration of the stereo cameras to one another due to the larger opening angle of the fisheye camera. An inertial measurement unit (IMU) in the cameras of the respective stereo camera allows further optimization of the relative calibration. In particular, the IMU can be used to determine a rotation rate, i.e. a relative tilt of the respective camera around a defined tilt axis.

Die Vorrichtung kann mehrere Fi schaugen- Stereokameras beinhalten, was eine zusätzliche Redundanz ermöglicht. Auch die Kameras der mindestens einen Fi schaugen- Stereokamera können jeweils Sensor- Arrays mit gesteuerter Vorgabe eines Detektionsbeginns und einer Detektionsdauer aufweisen, sodass hierüber auch eine TOF -Bestimmung von Objekt- Ab ständen möglich ist. Grundsätzlich kann die mindestens eine Fi schaugen- Stereokamera auch ohne TOF-Funktion ausgeführt sein. Soweit die Vorrichtung mehrere Fi schaugen- Stereokameras aufweist, ist auch möglich, dass mindestens eine der Fi schaugen- Stereokameras mit TOF-Funktion und mindestens eine weitere der Fischaugen-Stereokameras ohne TOF-Funktion ausgeführt ist. The device can contain several fish-eye stereo cameras, which allows additional redundancy. The cameras of the at least one fish-eye stereo camera can also each have sensor arrays with controlled specification of a detection start and a detection duration, so that a TOF determination of object distances is also possible. In principle, the at least one fisheye stereo camera can also be designed without a TOF function. If the device has several fisheye stereo cameras, it is also possible for at least one of the fisheye stereo cameras to be designed with a TOF function and at least one other of the fisheye stereo cameras to be designed without a TOF function.

Grundsätzlich kann die Vorrichtung gemäß den obigen Ansprüchen so genutzt werden, dass hierüber mittels der TOF -Komponenten genau ein Entfernungsbereich erfasst wird, beispielsweise im Abstandsbereich zwischen 30 m und 300 m, insbesondere zwischen 100 m und 200 m, zur Vorrichtung. In principle, the device according to the above claims can be used in such a way that a precise distance range is detected by means of the TOF components, for example in the distance range between 30 m and 300 m, in particular between 100 m and 200 m, from the device.

Die eingangs genannte Aufgabe ist zudem gelöst durch ein Betriebsverfahren mit den im Anspruch 5 angegebenen Merkmalen. The object mentioned at the outset is also achieved by an operating method having the features specified in claim 5.

Das Betrieb sverfahren nach Anspruch 5 ermöglicht einen Echtzeitbetrieb der Vorrichtung, sodass beispielsweise autonomes Fahren beim Einsatz der Vorrichtung als Bestandteil eines Fahrzeugs möglich ist. The operating method according to claim 5 enables real-time operation of the device, so that, for example, autonomous driving is possible when using the device as part of a vehicle.

Beim Betrieb sverfahren nach Anspruch 5 wird ein abgedeckter Gesamt-Entfemungsbereich unterteilt in eine Mehrzahl von aneinander angrenzenden oder miteinander teilweise überlappenden Entfernungsbereichen. Es können dabei beispielsweise drei bis 100 derartige Entfernungsbereiche über entsprechende Bilderfassungsparameter vorgegeben werden, beispielsweise 50 Entfernungsbereiche, die innerhalb des Gesamt-Entfernungsbereichs liegen. Beim Betrieb der Vorrichtung kann der Gesamt-Entfernungsbereich über die vorgegebenen einzelnen Entfernungsbereiche mehrmals in der Sekunde, beispielsweise mit einer Rate von 10 Hertz, erfasst werden. Beim Betrieb kann mit dem innerhalb des Gesamt-Entfernungsbereichs entferntesten Entfernungsbereich begonnen werden. Dies stellt sicher, dass beim Überschreiben von in einem vorhergehenden Erfassungsschritt erfassten Bildern mit einem jeweils zuletzt erfassten Bild in nicht herausgefilterten Bildbereichen des zuletzt erfassten Bildes nahe Objekte entferntere Objekte überschreiben, sodass das Ergebnis des Betriebsverfahrens, nämlich das zuletzt aktualisierte, ausgegebene Bild, in jedem Fall die der Vorrichtung nächst benachbarten Objekte darstellt, worauf dann beispielsweise durch Eingriff in eine Bewegung der Vorrichtung reagiert werden kann. Ein Zwischenspeichern von in jeweils vorhergehenden Erfassungsschritten erfassten Bildern kann dann entfallen, was die Geschwindigkeit des Verfahrensablaufs erhöht. In the operating method according to claim 5, a covered total distance range is divided into a plurality of distance ranges that are adjacent to one another or partially overlap one another. For example, three to 100 such distance ranges can be specified using corresponding image acquisition parameters, for example 50 distance ranges that lie within the total distance range. When the device is operating, the total distance range can be recorded over the specified individual distance ranges several times a second, for example at a rate of 10 Hertz. During operation, the most distant distance range within the total distance range can be started. This ensures that when overwriting images recorded in a previous recording step with a last recorded image, close objects overwrite more distant objects in non-filtered image areas of the last recorded image, so that the result of the operating method, namely the last updated, output image, in any case, the objects closest to the device are represented, which can then be responded to, for example, by intervening in a movement of the device. Buffering of images captured in previous capture steps can then be omitted, which increases the speed of the process.

Das zuletzt aktualisierte, ausgegebene Bild ist ein 2D-Bild mit nicht herausgefilterten Objekten in allen innerhalb des Gesamt-Entfernungsbereichs erfassten Entfernungsbereichen. Auch im Laufe des Betriebsverfahrens überschriebene Informationen der innerhalb des Gesamt-Entfernungsbereichs früher erfassten Entfemungsbereiche können für eine unabhängige räumliche (3D-) Auswertung erhalten bleiben. The last updated output image is a 2D image with unfiltered objects in all distance ranges recorded within the total distance range. Information from distance ranges recorded earlier within the total distance range that was overwritten during the operating procedure can also be retained for independent spatial (3D) evaluation.

Zu den jeweils nicht herausgefilterten Objekten, die dem jeweiligen Erfassungsschritt zugeordnet sind, ergibt das Verfahren als Ergebnis einen Entfernungsbereich, in dem das Objekt relativ zur Vorrichtung vorliegt. Diese resultierenden Objekt-Entfemungsinformationen, die mittels der TOF-Bilderfassung ermittelt werden, ermöglichen im Zusammenspiel mit einer über die mindestens eine Stereokamera ermöglichten tri angulatori sehen Entfernungserfassung eine Formredundanz des Betriebsverfahrens. For the non-filtered out objects that are assigned to the respective detection step, the method results in a distance range in which the object is present relative to the device. This resulting object distance information, which is determined using the TOF image capture, enables a form redundancy of the operating method in conjunction with a triangular distance capture made possible by the at least one stereo camera.

Als Entfernungsinformation kann eine jeweils geringste Entfernung des erfassten Objekts ausgegeben werden oder auch eine Entfernung pro Objekt-Bildpunkt des jeweiligen Sensor- Arrays. The distance information can be output as the smallest distance of the detected object or as a distance per object pixel of the respective sensor array.

Insgesamt resultiert eine einerseits sichere und andererseits vorausschauende Bilderfassung, die an die Erfordernisse insbesondere einer Fahrerunterstützung oder auch eines autonomen Fahrens gut angepasst ist. The overall result is an image capture that is both safe and predictive, and is well adapted to the requirements of driver assistance or autonomous driving in particular.

Beim digitalen Filtern zum Herausfiltern strukturloser Bildbereiche kann eine Stereo-Korrespondenzbestimmung zum Einsatz kommen, die beispielsweise beschrieben ist in der WO 2022/069 424 Al. When digitally filtering to filter out structureless image areas, a stereo correspondence determination can be used, which is described, for example, in WO 2022/069 424 Al.

Ein zeitlicher Überlapp nach Anspruch 6 ermöglicht einen schnellen Ablauf des Betriebsverfahrens. Der zeitliche Überlapp kann derart sein, dass mindestens zwei Entfernungsbereiche mit gleichzeitigem Detektionsbeginn und gleicher Detektionsdauer mit den Sensor-Arrays gleichzeitig erfasst werden, wobei diese Erfassungsbereiche durch unterschiedliche Vorgabe des jeweiligen Blitzlichtbeleuchtungsbeginns und/oder der jeweiligen Blitzbeleuchtungsdauer hinsichtlich ihrer Bilderfassungsparameter vorgegeben werden. Es ist auch möglich, die Wiederholungssequenz des Betriebsverfahrens so zu gestalten, dass tatsächlich eine Detektion genau zu einem Zeitraum, also bei einem vorgegebenen Detektionsbeginn und mit einer vorgegebenen Detektionsdauer, für alle vorgegebenen Entfernungsbereiche erfolgt. Durch diese gleichzeitige Detektionserfassung von mindestens zwei Erfassungsbereichen kann ein Bildverarbeitungsaufwand reduziert und eine Beschleunigung des gesamten Verfahrens erreicht werden. A temporal overlap according to claim 6 enables a rapid execution of the operating method. The temporal overlap can be such that at least two distance ranges with simultaneous detection start and the same detection duration with the sensor arrays, whereby these detection areas are specified by different specifications of the respective flash illumination start and/or the respective flash illumination duration with regard to their image acquisition parameters. It is also possible to design the repetition sequence of the operating procedure in such a way that a detection actually takes place at exactly one time, i.e. at a specified detection start and with a specified detection duration, for all specified distance ranges. This simultaneous detection of at least two detection areas can reduce the image processing effort and speed up the entire process.

Sich voneinander unterscheidende Entfernungs- Ausdehnungen der Entfernungsbereiche nach Anspruch 7 ermöglichen insbesondere, eine Entfernungs-Empfindlichkeit abhängig von der Entfernung vorzugeben, was ebenfalls hilft, eine Ablaufdauer des Betriebsverfahrens zu verkürzen. Mit zunehmender Entfernung kann beispielsweise die Entfernungs- Ausdehnung des jeweiligen Entfernungsbereiches vergrößert werden, insbesondere progressiv vergrößert werden. Different distance extensions of the distance ranges according to claim 7 make it possible in particular to specify a distance sensitivity depending on the distance, which also helps to shorten the duration of the operating method. With increasing distance, for example, the distance extension of the respective distance range can be increased, in particular increased progressively.

Eine zusätzliche Triangulationsbestimmung nach Anspruch 8 ermöglicht einen Abgleich von Objekt- Ab standswerten, die einerseits über das Entfernungsbereich-aufgelöste Erfassen mithilfe der TOF-Bilderfassungsparameter und andererseits mittels der Triangulation bestimmt wurden. An additional triangulation determination according to claim 8 enables a comparison of object distance values which were determined on the one hand via the distance-range-resolved detection using the TOF image acquisition parameters and on the other hand by means of triangulation.

Eine ROI-Vorgabe nach Anspruch 9 ermöglicht eine Reduktion der zu verarbeitenden Bilddaten, was das Verfahren zudem verkürzen kann. Bei der vorgegebenen ROI kann es sich um einen Straßenbereich in der Vorwärtsrichtung handeln. A ROI specification according to claim 9 enables a reduction in the image data to be processed, which can also shorten the method. The specified ROI can be a road area in the forward direction.

Ein Betriebsverfahren nach Anspruch 10 kann alternativ oder zusätzlich zum vorstehend erläuterten Betriebsverfahren zum Einsatz kommen. Ein derartiges Betriebsverfahren ermöglicht eine redundante Entfernungsbestimmung eines jeweiligen Objektab Standes. Hierüber kann insbesondere eine Formredundanz bereitgestellt werden, also eine Redundanz, gegeben durch Verwendung unterschiedlicher Technologien zur Entfernungserfassung. An operating method according to claim 10 can be used as an alternative or in addition to the operating method explained above. Such an operating method enables redundant distance determination of a respective object distance. In particular, this can provide form redundancy, i.e. redundancy provided by using different technologies for distance detection.

Die Nutzung der erfassten TOF -Entfernung als Eingangsgröße für die tri angulatori sehe Erfassung nach Anspruch 11 kann eine Korrespondenzanalyse bei der triangulatorischen Erfassung erleichtern. Insbesondere kann bei der Korrespondenzanalyse ein abzudeckender Disparitätsbereich eingegrenzt werden. Umgekehrt kann auch die triangulatorisch erfasste Entfernung als Eingangsgröße für eine TOF -Erfassung genutzt werden. Die Verwendung einer erfassten Objektent- femung kann im Betrieb der Vorrichtung zum Nachverfolgen beziehungsweise Tracken von erfassten Objekten genutzt werden. Es kann genau ein derartiges Objekt nachverfolgt werden oder auch eine Mehrzahl derartiger Objekte kann gleichzeitig nachverfolgt werden. Objekt-Nachverfolgungsschritte können sich mit Erfassungsschritten eines gesamten vorgegebenen Entfernungsbereichs abwechseln. Zum Objekt-Tracken können Bilderfassungsparameter der TOF- Entfernungserfassung und/oder der triangulatorischen Entfernungserfassung an eine bei der Nachverfolgung zu erwartende Objektentfemung angepasst werden. The use of the detected TOF distance as an input variable for the triangulatory detection according to claim 11 can enable a correspondence analysis in the triangulatory detection facilitate. In particular, the correspondence analysis can be used to limit the disparity range to be covered. Conversely, the triangulatory distance can also be used as an input variable for a TOF detection. The use of a detected object distance can be used in the operation of the device for tracking detected objects. Exactly one such object can be tracked or a plurality of such objects can be tracked simultaneously. Object tracking steps can alternate with detection steps for an entire specified distance range. For object tracking, image acquisition parameters of the TOF distance detection and/or the triangulatory distance detection can be adapted to an object distance to be expected during tracking.

Eine Blitzintensitäts-ZEntfemungsbereichs- Abstimmung nach Anspruch 12 ermöglicht es insbesondere, einen Rückschluss auf im Blitzlicht- und/oder im Kamera-Erfassungsweg vorliegende diffuse Streumedien zu ziehen. Ein sicherer Vorrichtungsbetrieb auch in nebliger, staubiger oder verrauchter Umgebung ist dann möglich. A flash intensity/distance range adjustment according to claim 12 makes it possible in particular to draw a conclusion about diffuse scattering media present in the flashlight and/or camera detection path. Safe device operation is then possible even in foggy, dusty or smoky environments.

Eine quadratische Abhängigkeit der Blitzintensität von der zu erfassenden Entfernung nach Anspruch 13 ermöglicht insbesondere dann, wenn sich die Beleuchtungsintensität quadratisch mit wachsendem Entfernungsbereich erhöht, eine Abstimmung derart, dass bei identischer Umgebungs-Rückstreuung und zu vernachlässigender Streuung längs eines Blitz- und längs eines Erfassungsweges zwischen Quelle und Objekt eine Aussteuerung einer konstanten Intensitätsausleuchtung des mindestens einen Sensor-Arrays. Dies kann zur Bestimmung diffuser Streumedien im erfassten Entfemungsbereich genutzt werden. A quadratic dependence of the flash intensity on the distance to be detected according to claim 13 enables, in particular when the illumination intensity increases quadratically with increasing distance range, a tuning such that with identical ambient backscattering and negligible scattering along a flash path and along a detection path between source and object, a control of a constant intensity illumination of the at least one sensor array is possible. This can be used to determine diffuse scattering media in the detected distance range.

Eine Regelung einer Pixelempfmdlichkeit nach Anspruch 14 kann insbesondere nicht linear zur einfallenden Lichtintensität erfolgen. Es kann insbesondere eine Gamma-Korrektur (y) erfolgen. Die Empfindlichkeit des mindestens einen Sensor-Arrays kann dann spezifisch an bei der Anwendung vorliegende Beleuchtungs- und/oder Detektionsverhältnisse angepasst werden. A regulation of a pixel sensitivity according to claim 14 can in particular not be carried out linearly to the incident light intensity. In particular, a gamma correction (y) can be carried out. The sensitivity of the at least one sensor array can then be specifically adapted to the lighting and/or detection conditions present in the application.

Eine angepasste Entfernungsbereichs-ZBewegungsmodus- Auswahl nach Anspruch 15 ermöglicht eine effiziente Ausnutzung insbesondere einer Rechnerleistung der Vorrichtung und kann auch eine Betriebssicherheit erhöhen. Bei der Auswertung mit triangulatori scher Stereoskopie bei binokularem Sehen werden zwei Bilder verglichen, so dass eventuelle Helligkeitsänderungen durch veränderte Dichteverläufe in erster Näherung vernachlässigt werden können. Bei Vergleich der Bilder mit trainierten Daten (Neuronale Netze, KI) bei monokularem Sehen erhöht eine homogene Helligkeitsverteilung über die Entfernung die Entdeckungsleistung, sich verändernde Dichteverteilungen erschweren dagegen eine sichere Objekterkennung. An adapted distance range Z movement mode selection according to claim 15 enables efficient utilization in particular of a computing power of the device and can also increase operational reliability. When evaluating with triangulatory stereoscopy in binocular vision, two images are compared so that possible changes in brightness due to changes in density can be neglected in a first approximation. When comparing the images with trained data (neural networks, AI) in monocular vision, a homogeneous brightness distribution over the distance increases the detection performance, whereas changing density distributions make reliable object recognition more difficult.

Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnung näher erläutert. In dieser zeigen: Embodiments of the invention are explained in more detail below with reference to the drawing, in which:

Fig. 1 schematisch eine Aufsicht auf eine Vorrichtung zur räumlichen Bilderfassung einer relativ zur Vorrichtung bewegten Umgebung, wobei ein Umgebungs-Objekt in Vorwärtsrichtung einer Relativbewegung der Vorrichtung zur Umgebung beispielhaft und perspektivisch veranschaulicht ist; Fig. 1 schematically shows a plan view of a device for spatial image capture of an environment moving relative to the device, wherein an environmental object in the forward direction of a relative movement of the device to the environment is illustrated by way of example and in perspective;

Fig. 2 ein Zeitdiagramm zur Verdeutlichung von Bilderfassungsparametern beim Betrieb der Vorrichtung nach Fig. 1; Fig. 2 is a timing diagram illustrating image acquisition parameters during operation of the device of Fig. 1;

Fig. 3 in einer zur Fig. 1 ähnlichen Darstellung eine weitere Ausführung einer Vorrichtung zur räumlichen Bilderfassung einer relativ zur Vorrichtung bewegten Umgebung, wobei Umgebungs-Objekte in Vorwärtsrichtung einer Relativbewegung der Vorrichtung zur Umgebung beispielhaft und perspektivisch veranschaulicht sind; Fig. 3 shows, in a representation similar to Fig. 1, a further embodiment of a device for spatial image capture of an environment moving relative to the device, wherein environmental objects in the forward direction of a relative movement of the device to the environment are illustrated by way of example and in perspective;

Fig. 4 in einer zur Fig. 2 ähnlichen Darstellung einen zeitlichen Ablauf eines Betriebsverfahrens der Vorrichtung nach Fig. 3; und Fig. 4 shows, in a representation similar to Fig. 2, a time sequence of an operating method of the device according to Fig. 3; and

Fig. 5 in einer Seitenansicht Hauptkomponenten einer Ausführung der Vorrichtung bei der räumlichen Bilderfassung einer Umgebung innerhalb von drei beispielhaften Entfernungsparametem, wobei innerhalb der erfassten Umgebung ein wolkenförmiges diffuses Streumedium vorliegt. Fig. 1 zeigt eine Aufsicht auf eine Vorrichtung 1 zur räumlichen Bilderfassung einer relativ zu der Vorrichtung 1 bewegten Umgebung, die anhand eines Umgebungs-Objekts 2 in Form eines zylindrischen Körpers veranschaulicht ist. Fig. 5 shows a side view of the main components of an embodiment of the device for spatial imaging of an environment within three exemplary distance parameters, wherein a cloud-shaped diffuse scattering medium is present within the captured environment. Fig. 1 shows a plan view of a device 1 for spatial image capture of an environment moving relative to the device 1, which is illustrated by an environmental object 2 in the form of a cylindrical body.

Die Vorrichtung 1 kann Bestandteil eines Fahrzeugs 3, beispielsweise eines PKW oder eines LKW, sein. Eine Vorwärtsrichtung der Relativbewegung der Vorrichtung 1 zur Umgebung ist in der Fig. 1 durch einen Pfeil 4 veranschaulicht. The device 1 can be part of a vehicle 3, for example a car or a truck. A forward direction of the relative movement of the device 1 to the environment is illustrated in Fig. 1 by an arrow 4.

Die Vorrichtung 1 hat mehrere Stereokameras zur triangulatorischen Objekt- Ab Standsmessung von Objekten innerhalb der erfassten Umgebung in der Vorwärtsrichtung 4, also insbesondere zur Abstandsbestimmung des Objekts 2. The device 1 has several stereo cameras for triangulatory object distance measurement of objects within the detected environment in the forward direction 4, i.e. in particular for determining the distance of the object 2.

Eine erste Stereokamera 5 dieser Stereokameras hat zwei zueinander beabstandete Kameras 5i, 52. Ein Abstand A dieser Kameras 5i, 52 der Stereokamera 5 ergibt eine Länge einer Baseline der Stereokamera 5, also eine Länge eines Abstandes von Zentren von Eintrittspupillen der Kameras 5i, 52 der Stereokamera. Die Kameras 5i, 52 der Stereokamera 5 haben jeweils ein Sensor- Array 6i, 62 mit gesteuerter Vorgabe eines Detektionsbeginns der jeweiligen Kamera 5i und 52 und einer Detektionsdauer der jeweiligen Kamera 5i, 52. Die Sensor- Arrays 61, 62 sind nach Art entsprechender Sensoren von Time of Flight (TOF)-Kameras ausgeführt und können eine Detektionsdauer im Bereich zwischen 1 ns und 500 ns realisieren. Eine typische Detektionsdauer liegt im Bereich zwischen 50 ns und 400 ns, beispielsweise zwischen 150 ns und 250 ns. A first stereo camera 5 of these stereo cameras has two cameras 5i, 52 spaced apart from one another. A distance A between these cameras 5i, 52 of the stereo camera 5 results in a length of a baseline of the stereo camera 5, i.e. a length of a distance from the centers of entrance pupils of the cameras 5i, 52 of the stereo camera. The cameras 5i, 52 of the stereo camera 5 each have a sensor array 6i, 62 with controlled specification of a start of detection of the respective camera 5i and 52 and a detection duration of the respective camera 5i, 52. The sensor arrays 61, 62 are designed in the manner of corresponding sensors of time of flight (TOF) cameras and can realize a detection duration in the range between 1 ns and 500 ns. A typical detection time is in the range between 50 ns and 400 ns, for example between 150 ns and 250 ns.

Die Sensor-Arrays 61, 62 können jeweils 100 x 100 Pixel oder auch 200 x 200 Pixel aufweisen. Grundsätzlich ist auch eine höhere Pixelanzahl möglich, insbesondere eine Anzahl von 640 x 480 oder auch von 1440 x 1080 Pixeln. The sensor arrays 61, 62 can each have 100 x 100 pixels or 200 x 200 pixels. In principle, a higher number of pixels is also possible, in particular a number of 640 x 480 or 1440 x 1080 pixels.

Die Sensor-Arrays 61, 62 können als CMOS-Array ausgeführt sein. The sensor arrays 61, 62 can be designed as CMOS arrays.

Die Kameras 5i, 52 haben eine Tele-Optik zur Erfassung von Objekten im Entfernungsbereich zwischen 50 m und 300 m. Zur Vorrichtung 1 gehört weiterhin eine Blitzlichtquelle 7, die ebenfalls nach Art der Lichtquelle einer TOF-Kamera ausgeführt sein kann und eine gesteuerte Vorgabe eines Blitzbeleuchtungsbeginns und einer Blitzbeleuchtungsdauer aufeinander folgender Beleuchtungsblitze ermöglicht. Eine Blitzbeleuchtungsdauer kann im Bereich zwischen 5 ns und 150 ns, beispielsweise im Bereich von 100 ns liegen. The 5i, 52 cameras have a telephoto lens for detecting objects at distances between 50 m and 300 m. The device 1 also includes a flash light source 7, which can also be designed like the light source of a TOF camera and enables a controlled specification of a flash illumination start and a flash illumination duration of successive illumination flashes. A flash illumination duration can be in the range between 5 ns and 150 ns, for example in the range of 100 ns.

Fig. 2 verdeutlicht einen zeitlichen Ablauf beim Betrieb der Vorrichtung 1 mit der Stereokamera 5 und der Blitzlichtquelle 7. Zu einem Zeitpunkt t = 0 beginnt ein Beleuchtungsblitz der Blitzlichtquelle 7. t = 0 stellt somit den Beleuchtungsblitzbeginn eines in der Fig. 2 schematisch als Signalkasten dargestellten Beleuchtungsblitzes 8 dar. Eine Blitzbeleuchtungsdauer des Beleuchtungsblitzes 8 ist in der Fig. 2 mit Atfiash angegeben. Fig. 2 illustrates a temporal sequence during operation of the device 1 with the stereo camera 5 and the flash light source 7. At a time t = 0, an illumination flash of the flash light source 7 begins. t = 0 thus represents the illumination flash start of an illumination flash 8 shown schematically as a signal box in Fig. 2. A flash illumination duration of the illumination flash 8 is indicated in Fig. 2 with Atfiash.

Ebenfalls zum Zeitpunkt t = 0 startet eine Verzögerungszeit Atiag, die auch als Delay-Zeit bezeichnet ist. Diese Verzögerungszeit Atiag liegt im Bereich zwischen 300 ns und 2 ms und kann beispielsweise im Bereich zwischen 500 ns und 1 ms, zum Beispiel im Bereich zwischen 700 ns und 900 ns, zum Beispiel bei 800 ns, liegen. Also at time t = 0, a delay time Ati ag starts, which is also called delay time. This delay time Ati ag is in the range between 300 ns and 2 ms and can, for example, be in the range between 500 ns and 1 ms, for example in the range between 700 ns and 900 ns, for example 800 ns.

Nach Ablauf des Delay-Zeitraums Atiag beginnt zum Zeitpunkt t = tß eine Detektion 9 durch das jeweilige Sensor- Array 6i beziehungsweise 62 der Stereokamera 5. tE stellt somit den Detektionsbeginn dar. Das jeweilige Sensor- Array 61, 62 detektiert einfallendes Licht der Blitzlichtquelle 7 dann während einer Detektionsdauer Atexp. After the delay period Ati ag has expired, a detection 9 by the respective sensor array 6i or 62 of the stereo camera 5 begins at time t = tß. tE thus represents the start of detection. The respective sensor array 61, 62 then detects incident light from the flash light source 7 during a detection period At exp .

Die Detektion 9 durch das jeweilige Sensor-Array 61, 62 der Stereokamera 5 ist in der Fig. 2 wiederum durch einen zeitlichen Kasten veranschaulicht. The detection 9 by the respective sensor array 61, 62 of the stereo camera 5 is again illustrated in Fig. 2 by a temporal box.

Die vorstehend erläuterten Bilderfassungsparameter, nämlich der Blitzbeleuchtungsbeginn (t = 0), die Blitzbeleuchtungsdauer Atfiash, der Detektionsbeginn (t = tß) und die Detektionsdauer Atexp werden zeitlich synchronisiert von einer Steuereinrichtung 10 der Vorrichtung 1 vorgegeben. Hierzu kann eine Synchronisationseinheit einer Synchronisationseinrichtung der Steuereinrichtung 10 genutzt werden. Die Steuereinrichtung 10 hat einen Bildprozessor zur Echtzeit-Datenverarbeitung. Hierbei kann es sich um einen Prozessor mit einem Field Programmable Gate Array (FPGA, im Feld programmierbare Logik-Gatter- Anordnung) handeln. Der Bildprozessor kann auf ein ultraschnelles, mittels der Steuereinrichtung 10 getriggertes Image Grabbing der von den Sensor- Arrays 6i erfassten Einzelbilder getrimmt sein. The image acquisition parameters explained above, namely the start of flash illumination (t = 0), the duration of flash illumination Atfiash, the start of detection (t = tß) and the duration of detection At exp are specified in a time-synchronized manner by a control device 10 of the device 1. A synchronization unit of a synchronization device of the control device 10 can be used for this purpose. The control device 10 has an image processor for real-time data processing. This can be a processor with a field programmable gate array (FPGA). The image processor can be trimmed for ultra-fast image grabbing of the individual images captured by the sensor arrays 6i, triggered by the control device 10.

Aufgrund der synchronisierten Vorgabe des Blitzlichtbeleuchtungsbeginns und des Detektionsbeginns gibt die Steuereinrichtung 10 zwangsläufig auch den Delay-Zeitraum Atiag zwischen dem Beleuchtungsblitzbeginn (t = 0) und dem Detektionsbeginn (t = tß) der Vorrichtung 1 vor. Due to the synchronized specification of the start of the flash illumination and the start of detection, the control device 10 necessarily also specifies the delay period Ati ag between the start of the illumination flash (t = 0) and the start of detection (t = tß) of the device 1.

Korreliert mit der Lichtgeschwindigkeit ergibt sich ein mittels der Stereokamera 5 erfasster Entfernungsbereich 11 in der Vorwärtsrichtung 4 der Vorrichtung 1. Das Objekt 2 hat zur Vorrichtung 1 einen Abstand längs der Vorwärtsrichtung 4, der innerhalb dieses Entfernungsbereichs 11 liegt, sodass das Objekt 2 von der Stereokamera 5 erfasst wird. Der erfasste Entfernungsbereich 11 ist von der Vorrichtung 1 etwa um 100 m bis 150 m beabstandet und hat längs der Vorwärtsrichtung 4 eine Ausdehnung von beispielsweise 30 m. Correlating with the speed of light, this results in a distance range 11 recorded by the stereo camera 5 in the forward direction 4 of the device 1. The object 2 is at a distance from the device 1 along the forward direction 4 that lies within this distance range 11, so that the object 2 is recorded by the stereo camera 5. The recorded distance range 11 is approximately 100 m to 150 m away from the device 1 and has an extension of, for example, 30 m along the forward direction 4.

Dieser Abstand ist in der Fig. 1 bei 12 angegeben und ist im Vergleich zum Entfernungsbereich 11 nicht maßstäblich. This distance is indicated in Fig. 1 at 12 and is not to scale compared to the distance range 11.

Aufgrund der Erfassung über die beiden Kameras 5i, 52 der Stereokamera 5 ergibt sich eine räumliche Bilderfassung des Objekts 2. Triangulatorisch kann dann redundant zur TOF- Abstandsmessung über den Delay-Zeitraum Atiag auch eine Referenz- Abstandsbestimmung des Objekts 2 zur Vorrichtung 1 vorgenommen werden. Bei der Vorrichtung 1 handelt es sich also prinzipiell um eine TOF-Kamera mit zusätzlicher Triangulation. Due to the detection via the two cameras 5i, 52 of the stereo camera 5, a spatial image of the object 2 is recorded. A reference distance determination of the object 2 to the device 1 can then be carried out in a triangulatory manner redundantly to the TOF distance measurement over the delay period Ati ag . The device 1 is therefore in principle a TOF camera with additional triangulation.

Die Stereokamera 5 kann zudem eine Korrespondenzanalyse von mit den beiden Kameras 5i, 52 aufgenommenen Kamera-Einzelbildern durchführen, um stereoskopisch erfasste Objekte von Hintergrundrauschen, das nur bei einer der beiden Kameras 5i, 52 vorliegt, zu trennen. Eine derartige Korrespondenzanalyse ist beispielsweise beschrieben in der WO 2022/069424 Al und in der WO 2022/069425 A2. Initial kann bei der Stereokamera 5 eine Stereo-Kalibrierung insbesondere von Ausrichtungen und Lagen der Kameras 5i, 52 der Stereokamera 5 mithilfe eines Verfahrens durchgeführt werden, das ebenfalls beschrieben ist in der WO 2022/069424 Al. Hinsichtlich der Kalibrierung wird auch auf die DE 10 2011 080 702 B3 verwiesen. The stereo camera 5 can also perform a correspondence analysis of individual camera images recorded with the two cameras 5i, 52 in order to separate stereoscopically captured objects from background noise that is only present in one of the two cameras 5i, 52. Such a correspondence analysis is described, for example, in WO 2022/069424 A1 and in WO 2022/069425 A2. Initially, a stereo calibration of the stereo camera 5, in particular of the alignments and positions of the cameras 5i, 52 of the stereo camera 5, can be carried out using a method that is also described in WO 2022/069424 A1. With regard to the calibration, reference is also made to DE 10 2011 080 702 B3.

Bei der räumlichen Bilderfassung mittels der Vorrichtung 1 kann eine mittels des TOF-Prinzips erfasste TOF -Entfernung mindestens eines erfassten Objekts mit einer tri angulatori sehen Entfernung des Objekts, die mittels der mindestens einen Stereokamera mittels der triangulatorischen Prinzips erfasst wurde, abgeglichen werden. Die TOF-Entfemung kann dabei beispielsweise als Eingangsgröße für die triangulatorische Erfassung genutzt werden. Hierüber kann die Korrespondenzanalyse bei der triangulatorischen Erfassung, beispielsweise durch Eingrenzung eines bei der Korrespondenzanalyse abzudeckenden Disparitätsbereichs, erleichtert werden. During spatial image capture using the device 1, a TOF distance of at least one captured object captured using the TOF principle can be compared with a triangular distance of the object captured using the at least one stereo camera using the triangular principle. The TOF distance can be used, for example, as an input variable for the triangular capture. This can facilitate the correspondence analysis during the triangular capture, for example by limiting a disparity range to be covered in the correspondence analysis.

Mithilfe der über die Kameras 5i, 52 der Stereokamera 5 erfassten Bilder des mittels der Blitzlichtquelle 7 beleuchteten Objekts 2 kann auch eine Schattenerfassung eines vom Objekt 2 geworfenen Schattens für das Beleuchtungslicht der Blitzlichtquelle 7 erfolgen. Mittels einer derartigen Schattenwurf- Auswertung des unterschiedlichen Schattenwurfes des Objekts 2, aufgenommen durch die beiden Kameras 5i, 52 der Stereokamera 5, ist eine zusätzlich redundante Ermittlung des Abstandes des Objekts 2 zur Vorrichtung 1 möglich. Using the images of the object 2 illuminated by the flash light source 7 captured by the cameras 5i, 52 of the stereo camera 5, a shadow cast by the object 2 can also be captured for the illumination light of the flash light source 7. By means of such a shadow casting evaluation of the different shadows cast by the object 2, captured by the two cameras 5i, 52 of the stereo camera 5, an additional redundant determination of the distance of the object 2 to the device 1 is possible.

Die Vorrichtung 1 hat eine weitere Blitzlichtquelle 13, deren Funktion derjenigen der Blitzlichtquelle 7 entspricht, die also ebenfalls zur gesteuerten Vorgabe eines Blitzbeleuchtungsbeginns und einer Blitzbeleuchtungsdauer aufeinander folgender Beleuchtungsblitze dient. Die weitere Blitzlichtquelle 13 kann redundant zur zunächst beschriebenen Blitzlichtquelle 7 zum Einsatz kommen, beispielsweise bei einem Ausfall der zunächst beschriebenen Blitzlichtquelle 7. Während des Betriebs der weiteren Blitzlichtquelle 13 kann die zunächst beschriebene Blitzlichtquelle 7 dann beispielsweise ausgetauscht werden, sodass ein lückenloser Betrieb der Vorrichtung 1 beispielsweise während einer zu überwachenden Fahrt des PKW oder LKW, auf dem die Vorrichtung 1 montiert ist, möglich ist. Die Vorrichtung 1 hat eine weitere Stereokamera 14 mit Kameras 14i, 142, deren Aufbau und Funktion dem entspricht, was vorstehend unter Bezugnahme auf die Stereokamera 5 bereits erläutert wurde. Die Stereokamera 14i ist der Stereokamera 5i direkt benachbart angeordnet und deckt praktisch das gleiche Sichtfeld in der Vorwärtsrichtung 4 ab, wie die Kamera 5i. Die Kamera 142 ist wiederum der Kamera 52 direkt benachbart angeordnet und deckt in der Vorwärtsrichtung 4 das gleiche Sichtfeld ab, wie die Kamera 52. The device 1 has a further flash light source 13, the function of which corresponds to that of the flash light source 7, which is also used for the controlled specification of a flash lighting start and a flash lighting duration of successive lighting flashes. The further flash light source 13 can be used redundantly to the initially described flash light source 7, for example in the event of a failure of the initially described flash light source 7. During operation of the further flash light source 13, the initially described flash light source 7 can then be replaced, for example, so that uninterrupted operation of the device 1 is possible, for example during a journey to be monitored by the car or truck on which the device 1 is mounted. The device 1 has a further stereo camera 14 with cameras 14i, 142, the structure and function of which corresponds to what was already explained above with reference to the stereo camera 5. The stereo camera 14i is arranged directly adjacent to the stereo camera 5i and covers practically the same field of view in the forward direction 4 as the camera 5i. The camera 142 is in turn arranged directly adjacent to the camera 52 and covers the same field of view in the forward direction 4 as the camera 52.

Die Stereokamera 14 ist wiederum redundant zur Stereokamera 5. Hier gilt, was zu den Blitzlichtquellen 7 und 13 ausgeführt wurde. The stereo camera 14 is in turn redundant to the stereo camera 5. The same applies here as was said for the flash sources 7 and 13.

Die Vorrichtung 1 hat weiterhin eine Fi schaugen- Stereokamera 15 mit zwei Paaren 15i, 152 einerseits und 15s, 154 andererseits. Jede dieser Fischaugen-Kameras 15i (i = 1 bis 4) dient zur Erfassung der Umgebung um die Vorrichtung 1 sowohl in der Vorwärtsrichtung 4 als auch in hierzu lateraler Richtung (vgl. Pfeil 16 in Fig. 1). Die beiden in der Fig. 1 links am Fahrzeug 3 angeordneten Fischaugen-Kameras 15i und 152 haben eine Haupt-Erfassungsrichtung 17, die wie die Haupterfassungsrichtungen der Kameras 5i und 6i horizontal verläuft, aber im Falle der Fischaugen-Kameras 15i und 152 einen Winkel von 45 ° zur Vorwärtsrichtung 4 einnimmt. Diese Fischaugen-Kameras 15i, 152 decken also sowohl die Vorwärtsrichtung 4 als auch die zur lateralen Richtung 16 entgegengesetzte seitliche Richtung (links in der Fig. 1) des Fahrzeugs 3 ab, an dem die Vorrichtung 1 montiert ist. Entsprechend decken die beiden weiteren Fischaugen- Kameras 153, 154, deren Haupterfassungsrichtungen 18 ebenfalls einen Winkel von 45 ° zur Vorwärtsrichtung 4 einnehmen, neben der Vorwärtsrichtung 4 auch einen rechtsseitigen Bereich in der lateralen Richtung 16 ab. The device 1 also has a fisheye stereo camera 15 with two pairs 15i, 152 on the one hand and 15s, 154 on the other. Each of these fisheye cameras 15i (i = 1 to 4) is used to capture the environment around the device 1 both in the forward direction 4 and in a lateral direction (see arrow 16 in Fig. 1). The two fisheye cameras 15i and 152 arranged on the left of the vehicle 3 in Fig. 1 have a main capture direction 17 which, like the main capture directions of the cameras 5i and 6i, runs horizontally, but in the case of the fisheye cameras 15i and 152, forms an angle of 45° to the forward direction 4. These fisheye cameras 15i, 152 therefore cover both the forward direction 4 and the lateral direction opposite to the lateral direction 16 (left in Fig. 1) of the vehicle 3 on which the device 1 is mounted. Accordingly, the two further fisheye cameras 153, 154, whose main detection directions 18 also form an angle of 45° to the forward direction 4, also cover a right-hand area in the lateral direction 16 in addition to the forward direction 4.

Die Fischaugen-Kameras 15i haben einen Erfassungswinkel um die Haupt-Erfassungsrichtungen 17, 18 von 180 °. Grenzwinkel der Erfassungsbereiche dieser Fischaugen-Kameras 15i sind in der Fig. 1 gestrichelt angedeutet. Diese Öffnungsbereiche überlappen in einem Überlapp-Bereich 19, der in der Fig. 1 durch eine Schraffur angedeutet ist. In diesem Überlapp-Bereich 19 liegt insbesondere das Objekt 2. The fisheye cameras 15i have a detection angle around the main detection directions 17, 18 of 180°. The limiting angles of the detection ranges of these fisheye cameras 15i are indicated by dashed lines in Fig. 1. These opening areas overlap in an overlap area 19, which is indicated by hatching in Fig. 1. In particular, the object 2 is located in this overlap area 19.

Die Beleuchtungslichtquelle 7 strahlt Blitzlicht der Beleuchtungsblitze längs der Vorwärtsrichtung in einem Beleuchtungskegel ab, dessen Randstrahlen in der Fig. 1 bei 8a veranschaulicht sind. Das Objekt 2 und auch der Überlappbereich 19 liegen innerhalb des Beleuchtungskegels 8a der Blitzlichtquelle 7. The illumination light source 7 emits flash light of the illumination flashes along the forward direction in an illumination cone, the edge rays of which are illustrated in Fig. 1 at 8a. The object 2 and also the overlap area 19 lie within the illumination cone 8a of the flash light source 7.

Die Fi schaugen- Stereokamera 15 kann wahlweise eine tri angulatori sehe Objekt- Abstandsbestimmung mittels mindestens zweier der insgesamt vier Fischaugen-Kameras 15i durchführen, wobei mit kurzen Baselines, Abstände der Fischaugen-Kameras 151, 152 einerseits beziehungsweise 15s, 154 andererseits oder auch mit langen Baselines (Abstände der Fischaugen-Kameras 151 und 153 oder 15i und 154 oder 152 und 153 oder 152 und 154) gearbeitet werden kann. Hierüber lässt sich wiederum eine redundante triangulatorische Objekt- Abstandsbestimmung vornehmen. The fisheye stereo camera 15 can optionally carry out a triangulatory object distance determination using at least two of the four fisheye cameras 15i, whereby it is possible to work with short baselines, distances of the fisheye cameras 151, 152 on the one hand and 15s, 154 on the other hand, or also with long baselines (distances of the fisheye cameras 151 and 153 or 15i and 154 or 152 and 153 or 152 and 154). This in turn can be used to carry out a redundant triangulatory object distance determination.

Die Nutzung derartiger zusätzlicher Triangulations-Baselines sind beispielsweise beschrieben in der WO 2022/069424 Al und in der WO 2022/179998 Al. The use of such additional triangulation baselines is described, for example, in WO 2022/069424 Al and in WO 2022/179998 Al.

Die Vorrichtung 1 hat zudem eine weitere Fi schaugen- Stereokamera 20 mit Fischaugen-Kameras 20i bis 2Ü4, die in ihrem Aufbau, ihrer Ausrichtung und paarweisen Anordnung den Fischaugen-Kameras 15i bis 154 entsprechen. Die Fi schaugen- Stereokamera 20 kann redundant zur Fi schaugen- Stereokamera 15 zum Einsatz kommen. Hier gilt entsprechend, was vorstehend zu den Blitzlichtquellen 7 und 13 beziehungsweise zu den Stereokameras 5 und 14 ausgeführt wurde. The device 1 also has a further fisheye stereo camera 20 with fisheye cameras 20i to 2Ü4, which correspond to the fisheye cameras 15i to 154 in terms of their structure, orientation and pairwise arrangement. The fisheye stereo camera 20 can be used redundantly to the fisheye stereo camera 15. What was stated above for the flash light sources 7 and 13 or for the stereo cameras 5 and 14 applies accordingly here.

Die Kameras 15i der Fischaugen-Stereokamera 15 haben wiederum Sensor- Arrays nach Art der vorstehend beschriebenen Sensor-Arrays 6i, können also wiederum als Bestandteil einer TOF- Erfassung genutzt werden, wie vorstehend bereits erläutert. The cameras 15i of the fisheye stereo camera 15 in turn have sensor arrays in the manner of the sensor arrays 6i described above, and can therefore in turn be used as part of a TOF detection, as already explained above.

Die Steuereinrichtung 10 steht mit den Stereokameras 5, 14, 15 und 20 und mit den Blitzlichtquellen 7 und 13 in Signalverbindung. Weiterhin kann die Steuereinrichtung 10 mit Komponenten des Fahrzeugs 3 in Signalverbindung stehen, beispielsweise mit einem Antrieb und/oder mit einer Bremsanlage und/oder mit Fahrzeug- Anzeigevorrichtungen, beispielsweise in einem Armaturenbrett des Fahrzeugs 3. The control device 10 is in signal connection with the stereo cameras 5, 14, 15 and 20 and with the flash light sources 7 and 13. Furthermore, the control device 10 can be in signal connection with components of the vehicle 3, for example with a drive and/or with a braking system and/or with vehicle display devices, for example in a dashboard of the vehicle 3.

Beim Echtzeitbetrieb kann die Vorrichtung 1 eine Bildaufnahme von beispielsweise zehn Bildern pro Sekunde vornehmen. Fig. 3 zeigt eine weitere Ausführung einer Vorrichtung 21, die anstelle der Vorrichtung 1 zur räumlichen Bilderfassung einer relativ zur Vorrichtung bewegten Umgebung eingesetzt werden kann. Komponenten und Funktionen der Vorrichtung 21, die denjenigen der Vorrichtung 1 entsprechen, tragen insbesondere die gleichen Bezugsziffern und werden nicht nochmals im Einzelnen diskutiert. In real-time operation, the device 1 can take an image recording of, for example, ten images per second. Fig. 3 shows a further embodiment of a device 21 which can be used instead of the device 1 for spatial image capture of an environment moving relative to the device. Components and functions of the device 21 which correspond to those of the device 1 have in particular the same reference numbers and are not discussed again in detail.

Die Vorrichtung 21 ist mit zwei Stereokameras 5, 14 ausgerüstet, die die Umgebung der wiederum auf ein Fahrzeug 3 montierten Vorrichtung 21 in der Vorwärtsrichtung 4 erfassen. Veranschaulicht sind innerhalb dieser erfassten Umgebung drei Umgebungs-Objekte 22, 23 und 24. The device 21 is equipped with two stereo cameras 5, 14, which record the surroundings of the device 21, which is in turn mounted on a vehicle 3, in the forward direction 4. Three environmental objects 22, 23 and 24 are illustrated within this recorded environment.

Mit der Vorrichtung 21 ist insbesondere ein in der Vorwärtsrichtung 4, die auch als z-Richtung bezeichnet ist, z-gepufferter (z-buffered) Betrieb möglich, bei dem ein Gesamt-Entfernungsbereich 25 längs der Vorwärtsrichtung 4, innerhalb dem die Objekte 22 bis 24 liegen, in eine Mehrzahl von Entfernungsbereiche 22i bis 22max, also in Entfernungsbereiche 22i (i = 1 bis max) unterteilt wird. Die maximale Anzahl max dieser Entfemungsbereiche 22i kann im Bereich zwischen 3 und 50 liegen, beispielsweise im Bereich von 10. Diese Entfernungsbereiche 22i werden auch als Entfernungszonen (gate zones) gz bezeichnet. The device 21 enables, in particular, a z-buffered operation in the forward direction 4, which is also referred to as the z-direction, in which a total distance range 25 along the forward direction 4, within which the objects 22 to 24 lie, is divided into a plurality of distance ranges 22i to 22 max , i.e. into distance ranges 22i (i = 1 to max). The maximum number max of these distance ranges 22i can be in the range between 3 and 50, for example in the range of 10. These distance ranges 22i are also referred to as distance zones (gate zones) gz.

Beim entsprechenden Z-Buffering-Betrieb der Vorrichtung 21 werden zunächst die Bilderfassungsparameter Beleuchtungsblitzbeginn (t = 0), Beleuchtungsblitzdauer (Atfiash, gz-i), ein Detektionsbeginn (t = tß) und eine Detektionsdauer (Atexp, gz-i) vorgegeben. In the corresponding Z-buffering operation of the device 21, the image acquisition parameters illumination flash start (t = 0), illumination flash duration (Atfiash, gz-i), a detection start (t = tß) and a detection duration (At exp , gz-i) are initially specified.

Diese Bilderfassungsparameter-Vorgabe erfolgt wiederum mittels der Steuereinrichtung 10. This image acquisition parameter specification is again carried out by means of the control device 10.

Der Entfemungsbereich gz-1, also beispielsweise der Entfernungsbereich 22max, wird dann mit den so vorgegebenen Bilderfassungsparametem erfasst. The distance range gz-1, for example the distance range 22 max , is then recorded using the image acquisition parameters specified in this way.

Über die Steuereinrichtung 10 werden weitere Bilderfassungsparameter vorgegeben, nämlich ein weiterer Blitzlichtbeginn (t = tfiash), eine weitere Blitzlichtdauer (Afiash, gz), ein weiterer Detektionsbeginn (t = tßi) und eine Detektionsdauer (Atexp, gz). Diese Vorgabe ist so gewählt, dass ein Delay-Zeitraum (Atiag, gz) bei diesen weiteren vorgegebenen Bilderfassungsparametem etwas kürzer ist als der zunächst vorgegebene Delay-Zeitraum Atiag, gz-i. Dies bedingt, dass bei der Erfassung mit den zuletzt vorgegebenen Bilderfassungsparametern ein weiterer Erfassungsbereich gz erfasst wird, der den zunächst erfassten Entfernungsbereich gz-1, also den Entfemungsbereich 22max, zu kürzeren Abständen zur Vorrichtung 21 hin benachbart ist. Further image acquisition parameters are specified via the control device 10, namely a further flash start (t = tfi as h), a further flash duration (Afi as h, gz), a further detection start (t = tßi) and a detection duration (At exp , gz). This specification is selected so that a Delay period (Ati ag , gz) with these further specified image acquisition parameters is somewhat shorter than the initially specified delay period Atiag, gz-i. This means that when capturing with the last specified image acquisition parameters, a further detection range gz is captured, which is adjacent to the initially captured distance range gz-1, i.e. the distance range 22max, at shorter distances from the device 21.

Der weitere Entfernungsbereich gz grenzt an den vorhergehenden Entfemungsbereich gz-1 längs der Vorwärtsrichtung 4 in einer Erfassungsfortschrittsrichtung +z an oder überlappt mit diesem teilweise. The further distance range gz adjoins or partially overlaps the preceding distance range gz-1 along the forward direction 4 in a detection progress direction +z.

In diesem nun erfassten Erfassungsbereich gz liegt das Objekt 24. Object 24 is located in this now recorded detection area gz.

Es erfolgt nun ein digitales Filtern des zuletzt erfassten Bildes im Entfemungsbereich gz zum Herausfiltern strukturloser Bildbereiche, sodass das Objekt 24 übrigbleibt. Anschließend wird das im der Erfassung des Entfemungsbereichs gz vorhergehenden Erfassungsbereich (Erfassung des Entfernungsbereichs gz-1) erfasste Bild mit dem zuletzt erfassten Bild (Entfemungsbereich gz) in nicht herausgefilterten Bildbereichen, also im Bereich des Objekts 24, dieses zuletzt erfassten Bildes überschrieben, sodass in der Steuereinrichtung 10 ein aktualisiertes Bild abgelegt wird, welches die Informationen aus den beiden Entfemungsbereichen gz-1 und gz beinhaltet. The last captured image in the distance range gz is now digitally filtered to filter out unstructured image areas so that the object 24 remains. The image captured in the detection area preceding the detection of the distance range gz (detection of the distance range gz-1) is then overwritten with the last captured image (distance range gz) in non-filtered image areas, i.e. in the area of the object 24, of this last captured image, so that an updated image is stored in the control device 10 which contains the information from the two distance ranges gz-1 and gz.

Die Steuereinrichtung 10 gibt im Betrieb weitere Bilderfassungsparameter vor, sodass ein weiterer Entfernungsbereich gz+1 erfasst wird, der sich wiederum entgegen der Vorwärtsrichtung 4 an dem Entfemungsbereich gz anschließt beziehungsweise mit diesem teilweise überlappt. During operation, the control device 10 specifies further image acquisition parameters so that a further distance range gz+1 is acquired, which in turn adjoins the distance range gz or partially overlaps with it in the opposite direction to the forward direction 4.

Nun werden die zuletzt beschriebenen Schritte Erfassen, Filtern, Überschreiben und Bilderfassungsparameter- Vorgeben für diesen Entfernungsbereich gz+1 sowie weitere Entfemungsberei- che 224, 22s, 222 und 22i wiederholt, bis der vorgegebene Gesamt-Entfernungsbereich 25 abgedeckt ist, der sich aus der Überlagerung der erfassten Entfernungsbereiche 22i bis 22max ergibt. Im Zuge dieser Sequenzen werden im jeweils für den Entfernungsbereich 22i aktualisierten Bild die Bildbereiche am Ort der weiteren Objekte 23 (Entfemungsbereich 222) und 22 (Entfernungsbereich 22i) überschrieben, sodass im zuletzt aktualisierten Bild alle drei Objekte 22 bis 24 mit ihren über die Zuordnung zum jeweiligen Entfemungsbereich 22i bestimmten Objekt- Ab ständen zur Vorrichtung 1 ausgegeben werden. Now the last described steps of capturing, filtering, overwriting and specifying image capture parameters are repeated for this distance range gz+1 as well as other distance ranges 224, 22s, 222 and 22i until the specified total distance range 25 is covered, which results from the superposition of the captured distance ranges 22i to 22 max . In the course of these sequences, the image areas at the location of the other objects 23 (distance range 222) and 22 (distance range 22i) are overwritten in the image updated for the distance range 22i, so that in the last updated image all three objects 22 to 24 are shown with their object distances to the device 1 determined via the assignment to the respective distance range 22i.

Die Anzahl i (i = 1 bis max) der Entfemungsbereiche 22i, die während des Betriebsverfahrens erfasst werden, kann beispielsweise bei 50 liegen. Das Betriebsverfahren mit Abrastern aller Entfemungsbereiche 22max bis 22i kann im 10 Hertz-Betrieb in Echtzeit stattfinden. Das Ergebnis eines solchen kompletten Abrasterung- Vorgangs der Entfernungsbereiche 22max bis 22i ist ein 2D-Bild mit den nicht herausgefilterten Objekten 22, 23 und 24 in allen innerhalb des Gesamt- Entfernungsbereichs 25 erfassten Entfemungsbereichen 22i. Auch überschriebene Informationen der innerhalb des Gesamt-Entfemungsbereichs 25 zunächst erfassten Entfemungsbereiche 22max bis 222 können beim zuletzt aktualisierten, ausgegebenen Bild nach Erfassung des Entfernungsbereichs 22i für eine unabhängige räumliche (3D-) Auswertung erhalten bleiben. The number i (i = 1 to max) of distance ranges 22i that are recorded during the operating procedure can be 50, for example. The operating procedure with scanning of all distance ranges 22max to 22i can take place in real time in 10 Hertz operation. The result of such a complete scanning process of the distance ranges 22max to 22i is a 2D image with the non-filtered out objects 22, 23 and 24 in all distance ranges 22i recorded within the total distance range 25. Overwritten information of the distance ranges 22max to 222 initially recorded within the total distance range 25 can also be retained in the last updated, output image after recording the distance range 22i for an independent spatial (3D) evaluation.

Wie die Fig. 4 veranschaulicht, können aufeinanderfolgende Erfassungsschritte für Entfernungsbereiche gz-1 und gz zeitlich miteinander überlappen. Auch mehr als zwei derartiger Erfassungsschritte können zeitlich miteinander überlappen, sodass beispielsweise während eines Delay- Zeitraums bei der Erfassung eines ersten Entfemungsbereichs gz ein Blitzlichtbeginn mindestens einer weiteren Erfassung eines weiteren Entfernungsbereichs gz+1, gz+2 stattfindet. Auch ein Detektionszeitraum einer vorhergehenden Erfassung kann beispielsweise mit einem Blitzzeitraum einer nachfolgenden Erfassung überlappen. As Fig. 4 illustrates, successive detection steps for distance ranges gz-1 and gz can overlap in time. More than two such detection steps can also overlap in time, so that, for example, during a delay period when detecting a first distance range gz, a flash of at least one further detection of a further distance range gz+1, gz+2 begins. A detection period of a previous detection can also overlap, for example, with a flash period of a subsequent detection.

Entfemungs- Ausdehnungen Az der verschiedenen Entfernungsbereiche 22i, 22j können sich voneinander unterscheiden. Es können sich also die Detektionsdauem bei den verschiedenen Erfassungsschritten des Betriebsverfahrens unterscheiden. Distance extensions Az of the various distance ranges 22i, 22j can differ from one another. The detection times can therefore differ in the various detection steps of the operating method.

Nach dem Erfassen eines jeweiligen Entfernungsbereichs 22i kann zusätzlich eine Triangulations-Bestimmung einer Entfernung der Objekte 22 bis 24 in den nicht herausgefilterten Bildbereichen mithilfe der mindestens einen Stereokamera 5, 14 erfolgen. Hierbei kann wiederum eine Stereo-Korrespondenzbestimmung stattfinden, wie vorstehend bereits erläutert. After detecting a respective distance range 22i, a triangulation determination of a distance of the objects 22 to 24 in the non-filtered image areas can additionally be carried out using the at least one stereo camera 5, 14. In this case, a stereo correspondence determination can again take place, as already explained above.

Vor einem jeweiligen Erfassungsschritt des Betriebsverfahrens kann eine Region of Interest (ROI) als Teil eines über die jeweilige Kamera 5i, 14i erfassbaren Bildfeldes vorgegeben werden, beispielsweise ein durch entsprechende Objektfilterung identifizierter Straßenbereich in der Vor- wärtsrichtung 4. Before a respective acquisition step of the operating procedure, a region of interest (ROI) can be specified as part of an image field that can be captured via the respective camera 5i, 14i, For example, a road area identified by appropriate object filtering in the forward direction 4.

Fig. 5 zeigt eine Seitenansicht einer weiteren Ausführung der Bilderfassungs-Vorrichtung 1. Komponenten und Funktionen, die denjenigen entsprechen, die vorstehend unter Bezugnahme auf die Figuren 1 bis 4 bereits erläutert wurden, tragen die gleichen Bezugsziffern und werden nicht nochmals im Einzelnen diskutiert. Fig. 5 shows a side view of a further embodiment of the image capture device 1. Components and functions which correspond to those already explained above with reference to Figures 1 to 4 have the same reference numerals and will not be discussed again in detail.

Anhand der Fig. 5 wird der Einsatz der Vorrichtung 1 zur Bestimmung und Erkennung eines diffusen Streumediums längs eines Blitzlichtweges 28 zwischen der Blitzlichtquelle 7 und einem beispielhaften Umgebungs-Objekt 2 erläutert. Dargestellt ist in der Fig. 5 beispielhaft die Kamera 5i der Stereokamera 5, die neben der triangulatorischen Entfernungsbestimmung auch eine TOF -Entfernungsbestimmung ermöglicht. The use of the device 1 for determining and detecting a diffuse scattering medium along a flash light path 28 between the flash light source 7 and an exemplary environmental object 2 is explained with reference to Fig. 5. The camera 5i of the stereo camera 5 is shown as an example in Fig. 5, which enables a TOF distance determination in addition to the triangulatory distance determination.

Beim Erfassungsbeispiel nach Fig. 5 erfasst die Vorrichtung 1 insgesamt drei Entfernungsbereiche 22i, 222, 22s durch Vorgabe entsprechender TOF-Bilderfassungsparameter. Der erste, nächste Entfemungsbereich 221 erstreckt sich um einen ersten Abstand di. Der nächstentfernte weitere Entfernungsbereich 222 erstreckt sich um einen zweiten Abstand d2, für den gilt: d2 = 2 x di. Der nächstentfemte, dritte Entfernungsbereich 22a erstreckt sich um einen dritten Abstand da, für den gilt: da = 3 x di. In the detection example according to Fig. 5, the device 1 detects a total of three distance ranges 22i, 222, 22s by specifying corresponding TOF image detection parameters. The first, closest distance range 221 extends by a first distance di. The next, further distance range 222 extends by a second distance d2, for which the following applies: d2 = 2 x di. The next, third distance range 22a extends by a third distance da, for which the following applies: da = 3 x di.

Zur Vorgabe der Bilderfassungsparameter für die drei Entfemungsbereiche 22i bis 22a gehört neben der Vorgabe der TOF-Bilderfassungsparameter „Beleuchtungsbeginn“, „Beleuchtungsdauer“, „Detektionsbeginn“ und „Detektionsdauer“ auch eine Vorgabe einer Blitzintensität L zur Ausleuchtung des jeweiligen Entfernungsbereichs 22i. Die Blitzintensität E zur Ausleuchtung des Entfemungsbereich 222 ist viermal so groß wie die Blitzintensität Ii zur Ausleuchtung des ersten, nächstgelegenen Entfernungsbereichs 22i. Die Blitzintensität I3 zur Ausleuchtung des im Beispiel nach Fig. 5 entferntesten, dritten Entfernungsbereichs 22a ist neunmal so groß wie die Blitzintensität Ii. Die Blitzintensität L hängt also quadratisch von einer Entfernung di innerhalb eines insgesamt zu erfassenden Gesamt-Entfernungsbereichs 25 ab. In addition to specifying the TOF image acquisition parameters “start of illumination”, “duration of illumination”, “start of detection” and “duration of detection”, the specification of the image acquisition parameters for the three distance ranges 22i to 22a also includes specifying a flash intensity L for illuminating the respective distance range 22i. The flash intensity E for illuminating the distance range 222 is four times as large as the flash intensity Ii for illuminating the first, closest distance range 22i. The flash intensity I3 for illuminating the third distance range 22a, which is the furthest away in the example according to Fig. 5, is nine times as large as the flash intensity Ii. The flash intensity L is therefore quadratically dependent on a distance di within a total distance range 25 to be recorded.

Unter Voraussetzung einer konstanten Reflektivität beziehungsweise eines konstanten Streuvermögens einer Umgebungs-Oberfläche 29 ergibt sich aufgrund dieser quadratischen Abhängigkeit der Beleuchtungsintensität L von der Entfernung di, dass das Sensor- Array 6i der Kamera 5i eine konstante Intensitätsausleuchtung bei der Bilderfassung der drei Entfemungsbereiche 22i, 222 und 22s erfährt. Diese konstante Intensitätsausleuchtung des Sensor-Arrays 6i liegt nur dann vor, wenn längs Blitzlichtwegen 311, 3 h, 3 h zwischen der Blitzlichtquelle 7 und der Umgebung in den Entfernungsbereichen 22i bis 223 keine wesentliche Streuung des Beleuchtungsblitzes 8 durch das diffuse Streumedium 27 vorliegt. Anders ausgedrückt: Ungleichheiten einer Intensitätsausleuchtung des Sensor-Arrays 6i längs der Erfassungswege 30i bei der vorgegebenen quadratischen Abhängigkeit der Beleuchtungsintensität L von der Entfernung di innerhalb des zu erfassenden Entfernungsbereiches 22i sind ein Hinweis auf das Vorliegen des diffusen Streumediums 27. Assuming a constant reflectivity or a constant scattering power of an ambient surface 29, this quadratic dependence results in the illumination intensity L on the distance di, that the sensor array 6i of the camera 5i experiences a constant intensity illumination when capturing images of the three distance ranges 22i, 222 and 22s. This constant intensity illumination of the sensor array 6i only occurs when there is no significant scattering of the illumination flash 8 by the diffuse scattering medium 27 along the flash light paths 311, 3h, 3h between the flash light source 7 and the surroundings in the distance ranges 22i to 223. In other words: inequalities in the intensity illumination of the sensor array 6i along the detection paths 30i with the given quadratic dependence of the illumination intensity L on the distance di within the distance range 22i to be detected are an indication of the presence of the diffuse scattering medium 27.

Hierbei können folgende Fälle unterschieden werden: a) Das diffuse Streumedium 27 liegt innerhalb des aktuell erfassten Entfemungsbereichs, im in der Fig. 5 dargestellten Fall also innerhalb des Entfemungsbereichs 222, vor. In diesem Fall wird das diffuse Streumedium 27 längs des Beleuchtungsweges 3 h direkt beleuchtet und eine entsprechende Streuung des Beleuchtungslichts 8 durch das diffuse Streumedium 27 in das Sensor-Array 6i bei der TOF-Erfassung gemessen, was zu einer Erhöhung der Intensitätsausleuchtung längs des Erfassungsweges 3Ü2 führt. b) Das diffuse Streumedium 27 liegt zwischen der Blitzlichtquelle 7 und dem Sensor-Array 6i einerseits und dem aktuell erfassten Entfernungsbereich, beispielsweise dem Entfernungsbereich 22s, andererseits. In diesem Fall erfolgt eine Schwächung des Beleuchtungslichts längs des Blitzlichtweges 3 U beim Durchtreten des diffusen Streumediums 27. Eine weitere Schwächung erfährt das vom Erfassungsbereich 223 in Richtung des Sensor-Arrays 6i längs des Erfassungsweges 3Ü3 rückgestreute Beleuchtungslicht aufgrund einer nochmaligen Streuung durch das diffuse Streumedium 27. Im Ergebnis ist die Intensitätsausleuchtung des Sensor-Arrays 6i bei der Erfassung des Entfernungsbereichs 223 aufgrund der im zwischenliegenden Entfernungsbereich 222 vorliegenden Wolke des diffusen Streumediums 27 geschwächt. Eine Kombination einer im Vergleich zur erwarteten konstanten Intensitätsausleuchtung erhöhten Intensitätsausleuchtung des Sensor-Arrays 6i bei Erfassung des Entfemungsbereichs 222 und einer Verringerung der Intensitätsausleuchtung des Sensor-Arrays 6i bei Erfassung des Entfernungsbereichs 22s ermöglicht also die Identifikation des diffusen Streumediums 27 innerhalb des Entfernungsbereichs 222. The following cases can be distinguished here: a) The diffuse scattering medium 27 is within the currently recorded distance range, in the case shown in Fig. 5 therefore within the distance range 222. In this case, the diffuse scattering medium 27 is directly illuminated along the illumination path 3h and a corresponding scattering of the illumination light 8 through the diffuse scattering medium 27 into the sensor array 6i is measured during the TOF detection, which leads to an increase in the intensity illumination along the detection path 3Ü2. b) The diffuse scattering medium 27 is located between the flash light source 7 and the sensor array 6i on the one hand and the currently recorded distance range, for example the distance range 22s, on the other. In this case, the illumination light is weakened along the flashlight path 3U when it passes through the diffuse scattering medium 27. The illumination light scattered back from the detection area 223 in the direction of the sensor array 6i along the detection path 3Ü3 is further weakened due to further scattering by the diffuse scattering medium 27. As a result, the intensity illumination of the sensor array 6i is weakened when detecting the distance range 223 due to the cloud of the diffuse scattering medium 27 present in the intermediate distance range 222. A combination of an increased intensity illumination of the sensor array 6i when detecting the distance range 222 compared to the expected constant intensity illumination and a reduction in the intensity illumination of the sensor array 6i when detecting the distance range 22s thus enables the identification of the diffuse scattering medium 27 within the distance range 222.

Bei den vorstehend erläuterten Ausführungen der Bilderfassungs-Vorrichtung 1 beziehungsweise 21 kann eine Pixelempfmdlichkeit von Sensorpixeln der verschiedenen Sensor-Arrays 6i, ... als Funktion einer einfallenden Lichtintensität, also als Funktion einer Intensitätsausleuchtung, des Sensor-Arrays 6i, ... geregelt werden. Es kann insbesondere eine y-Korrektur bei der Bildverarbeitung mittels des jeweiligen Sensor-Arrays 6i, ... erfolgen. Hierbei kann der bei der y-Korrek- tur eingesetzte Exponent y im Bereich zwischen beispielsweise 0,2 und 5 variieren. Je nach Größe von y kann dann eine Pixelempfmdlichkeit zur Anpassung einer hohen Dynamik entweder bei hoher oder bei niedriger Intensitätsausleuchtung des Sensor- Arrays erreicht werden. In the above-explained embodiments of the image capture device 1 or 21, a pixel sensitivity of sensor pixels of the various sensor arrays 6i, ... can be regulated as a function of an incident light intensity, i.e. as a function of an intensity illumination of the sensor array 6i, ... In particular, a y-correction can be carried out during image processing using the respective sensor array 6i, ... The exponent y used for the y-correction can vary in the range between 0.2 and 5, for example. Depending on the size of y, a pixel sensitivity can then be achieved to adapt a high dynamic range either with high or low intensity illumination of the sensor array.

Eine Auswahl von zu erfassenden Objekt-Entfernungsbereichen 22i kann bei bestimmten Betriebsmodi der Erfassungs-Vorrichtung 1 beziehungsweise 21 an einen Bewegungsmodus der Vorrichtung 1 beziehungsweise 21 relativ zur Umgebung angepasst sein. Insbesondere kann der Gesamt-Entfernungsbereich 25 an eine Relativgeschwindigkeit der Vorrichtung 1, 21 zur Umgebung angepasst werden. Auch eine Anpassung an einen Rückwärts- oder Kurvenfahrt-Modus ist möglich. A selection of object distance ranges 22i to be detected can be adapted to a movement mode of the device 1 or 21 relative to the environment in certain operating modes of the detection device 1 or 21. In particular, the total distance range 25 can be adapted to a relative speed of the device 1, 21 to the environment. Adaptation to a reversing or cornering mode is also possible.

Alternativ oder zusätzlich zum vorstehend mithilfe der Figuren 3 und 4 erläuterten Betriebsverfahren kann die jeweilige Vorrichtung 1 beziehungsweise 21 auch wie folgt betrieben werden: Alternatively or in addition to the operating method explained above with the aid of Figures 3 and 4, the respective device 1 or 21 can also be operated as follows:

Über eine entsprechende Zuordnung insbesondere der Blitzbeleuchtungsdauer und der Detektionsdauer wird mithilfe der jeweiligen Vorrichtung 1, 21 mittels des TOF-Prinzips eine TOF- Entfernung des mindestens einen Objekts 2 beziehungsweise 22 bis 24 erfasst. Parallel oder sequenziell hierzu wird mittels der einen Stereokamera 5, . . . der Vorrichtung 1, 21 mittels des tri- angulatorischen Prinzips eine triangulatorische Entfernung des jeweiligen Objekts 2 beziehungsweise 22 bis 24 erfasst. Die Erfassungswerte „TOF-Entfernung“ und „triangulatorische Entfernung“ werden dann bei Betrieb der Vorrichtung 1, 21 abgeglichen. Es ist dabei insbesondere möglich, die ermittelte TOF-Entfemung als Eingangsgröße für die tri- angulatorische Erfassung zu nutzen. Dies kann insbesondere die Korrespondenzanalyse bei der triangulatori sehen Erfassung erleichtern. Insbesondere kann ein bei der Korrespondenzanalyse abzudeckender Disparitätsbereich eingegrenzt werden. Auch der umgekehrte Fall ist möglich, also, dass die triangulatorisch erfasste Entfernung als Eingangsgröße für die Entfernungserfassung mittels des TOF-Prinzips genutzt wird. Dies kann zur Bestimmung beziehungsweise zur Einteilung eines vorgegebenen Gesamt-Entfernungsbereichs in abschnittsweise Entfernungsbereiche 22i genutzt werden sowie zur entfernungsangepassten Vorgabe der TOF- Bilderfassungsparameter. By means of a corresponding assignment, in particular of the flash illumination duration and the detection duration, a TOF distance of at least one object 2 or 22 to 24 is recorded using the TOF principle with the aid of the respective device 1, 21. In parallel or sequentially, a triangulatory distance of the respective object 2 or 22 to 24 is recorded using the triangulatory principle using the one stereo camera 5, . . . of the device 1, 21. The detection values "TOF distance" and "triangulatory distance" are then compared when the device 1, 21 is in operation. In particular, it is possible to use the determined TOF distance as an input variable for the triangulatory detection. This can particularly facilitate the correspondence analysis in the triangulatory detection. In particular, a disparity range to be covered in the correspondence analysis can be limited. The reverse case is also possible, i.e. that the triangulatory distance is used as an input variable for the distance detection using the TOF principle. This can be used to determine or divide a given total distance range into section-by-section distance ranges 22i and to specify the TOF image detection parameters based on the distance.

Eine Beleuchtungsintensität durch die Blitzlichtquelle 7 kann insbesondere so vorgegeben werden, dass eine gemeinsame und insbesondere skalare Helligkeits-Regelung aller Bilder des Z- Bufferings der ersten Figuren 3 und 4 bei insbesondere konstanter Intensitätsausleuchtung der jeweiligen Sensor-Arrays 6i, ... vorgenommen wird. Diese Helligkeits-Regelung kann in Form eines Regelkreises bei der Vorrichtung 1, 21 genutzt werden. An illumination intensity by the flash light source 7 can be specified in particular such that a common and in particular scalar brightness control of all images of the Z-buffering of the first figures 3 and 4 is carried out with in particular constant intensity illumination of the respective sensor arrays 6i, ... This brightness control can be used in the form of a control loop in the device 1, 21.

Eine Kalibrierung einer Abhängigkeit einer Beleuchtungsintensität der Blitzlichtquelle von der Entfernung, also einer Beleuchtungsintensitätsfunktion, kann mithilfe eines Kalibrieraufbaus unter Verwendung eines Streumediums mit homogener Streupartikelverteilung erfolgen. A calibration of a dependence of an illumination intensity of the flash light source on the distance, i.e. an illumination intensity function, can be carried out using a calibration setup using a scattering medium with a homogeneous scattering particle distribution.

Die Pixelempfmdlichkeit als Funktion der einfallenden Lichtintensität kann in Form einer proportionalen Funktion eingestellt werden oder auch in Form einer nichtlinearen Funktion. The pixel sensitivity as a function of the incident light intensity can be set in the form of a proportional function or in the form of a non-linear function.

Im Rahmen des Betriebs der Vorrichtung 1 beziehungsweise 21 können ausgewählte Objekte 2 beziehungsweise 22 bis 24 nachverfolgt beziehungsweise getrackt werden. Sobald eines der Objekte 2 beziehungsweise 22 bis 24 im Rahmen der triangulatorischen Entfemungserfassung und/oder im Rahmen der TOF-Entfernungserfassung erfasst wurde, können insbesondere die TOF-Bilderfassungsparameter, aber auch die triangulatorischen Bilderfassungsparameter (zum Beispiel die Länge der Baseline einer jeweils ausgewählten Stereokamera, eine Objektivbrennweite der Kameras der jeweiligen Stereokamera oder ein zu überwachender Disparitätsbereich) so vorgegeben werden, dass das einmal erfasste Objekt auch bei nachfolgenden Bilderfassungen wiederum erfasst wird. Hierbei kann eine Relativbewegung des jeweils erfassten Objekts zur Vorrichtung 1 beziehungsweise 21 berücksichtigt werden, sodass beispielsweise dann, wenn zu erwarten ist, dass sich Objekt und Vorrichtung einander annähem, beim Nachverfolgen die Entfernung des jeweils ausgewählten Entfernungsbereichs 22i bei der TOF -Erfassung jeweils reduziert wird. Eine Lichtintensität der Blitzlichtquelle kann auf einen Entfernungsbereich des jeweils nachzuverfolgenden Objekts abgestimmt und insbesondere geregelt werden. During the operation of the device 1 or 21, selected objects 2 or 22 to 24 can be tracked. As soon as one of the objects 2 or 22 to 24 has been recorded as part of the triangulatory distance detection and/or as part of the TOF distance detection, in particular the TOF image detection parameters, but also the triangulatory image detection parameters (for example the length of the baseline of a respectively selected stereo camera, a lens focal length of the cameras of the respective stereo camera or a disparity range to be monitored) can be specified in such a way that the object once recorded can also be tracked in subsequent image captures. is again detected. In this case, a relative movement of the object detected in each case to the device 1 or 21 can be taken into account, so that, for example, if it is expected that the object and the device will approach each other, the distance of the respectively selected distance range 22i is reduced in the TOF detection during tracking. A light intensity of the flash light source can be adjusted to a distance range of the object to be tracked in each case and in particular can be regulated.

Je nach dem Betriebsverfahren der Vorrichtung 1, 21 kann genau ein Objekt nachverfolgt werden oder es können auch mehrere Objekte gleichzeitig nachverfolgt werden. Depending on the operating method of the device 1, 21, exactly one object can be tracked or several objects can be tracked simultaneously.

Soweit mindestens ein Objekt getrackt wird, kann intermittierend eine Tracking-Erfassung des mindestens einen getrackten Objekts und ein Scan über den Gesamt-Entfernungsbereich 25 erfolgen, was die Erfassungssicherheit insgesamt bei vertretbarem Erfassungsaufwand erhöht. If at least one object is tracked, a tracking detection of the at least one tracked object and a scan over the entire distance range 25 can be carried out intermittently, which increases the overall detection reliability with a reasonable detection effort.

Die Bilderfassungsparameter können bei der TOF-Erfassung mehrerer Entfemungsbereiche 22i, 22i+i so abgestimmt werden, dass eine Detektion über die jeweilige Kamera während genau eines Detektionszeitraums (gleicher Detektionsbeginn, gleiche Detektionsdauer) für diese Entfernungsbereiche 22i, 22i+i erfolgt. Im Extremfall kann dies für alle Entfernungsbereiche 22i innerhalb des Gesamt-Entfernungsbereichs 25 gelten. The image acquisition parameters can be adjusted for the TOF acquisition of several distance ranges 22i, 22i+i so that detection via the respective camera takes place during exactly one detection period (same detection start, same detection duration) for these distance ranges 22i, 22i+i. In extreme cases, this can apply to all distance ranges 22i within the total distance range 25.

Beim Nachverfolgen von Objekten kann insbesondere die Erstreckung des jeweiligen Entfernungsbereichs 22i, in dem das Objekt erwartet wird, über eine entsprechende Anpassung einer Blitzbeleuchtungsdauer erfolgen. Zur genaueren Nachverfolgung von Objekten können kürzere Blitzbeleuchtungsdauem sowie kürzere Detektionsdauem mit entsprechender Erhöhung der Ent- femungsgenauigkeit bei der TOF-Entfernungsbestimmung vorgegeben werden. When tracking objects, the extent of the respective distance range 22i in which the object is expected can be determined by appropriately adjusting the flash illumination duration. For more precise tracking of objects, shorter flash illumination durations and shorter detection durations can be specified with a corresponding increase in the distance accuracy in the TOF distance determination.

Die Vorrichtung 1 kann ein neuronales Netz beziehungsweise ein Kl-Modul beinhalten, welches zum Training des jeweiligen Betriebsverfahrens und zur entsprechenden Verbesserung einer Bilderkennung genutzt werden kann. The device 1 can contain a neural network or a Kl module, which can be used to train the respective operating procedure and to improve image recognition accordingly.

Claims

Patentansprüche patent claims 1. Vorrichtung (1; 21) zur räumlichen Bilderfassung einer Umgebung, 1. Device (1; 21) for spatial image capture of an environment, - mit mindestens einer Stereokamera (5, 14, 15, 20; 5, 14) mit mindestens zwei zueinander beabstandeten Kameras (5i, 52, 14i, 142, 15i, 152, 15s, 154, 20i, 2Ü2, 2O3, 2O4) zur trian- gulatorischen Objekt- Abstandsbestimmung innerhalb der erfassten Umgebung, - with at least one stereo camera (5, 14, 15, 20; 5, 14) with at least two cameras (5i, 52, 14i, 142, 15i, 152, 15s, 154, 20i, 2Ü2, 2O3, 2O4) spaced apart from one another for triangulatory object distance determination within the detected environment, - mit mindestens einer Blitzlichtquelle (7, 13) zur Umgebungsbeleuchtung mit gesteuerter- with at least one flash light source (7, 13) for ambient lighting with controlled Vorgabe eines Blitzbeleuchtungsbeginns (t = 0, t = tfiash) und einer Blitzbeleuchtungsdauer (Atfiash) aufeinanderfolgender Beleuchtungsblitze, Specification of a flash illumination start (t = 0, t = tfiash) and a flash illumination duration (Atfiash) of consecutive illumination flashes, - wobei die Kameras (5i, 52, 14i, 142, 15i, 152, 15s, 154, 20i, 2O2, 2O3, 2O4) der Stereokamera (5, 14, 15, 20; 5, 14) jeweils ein Sensor-Array (6) mit gesteuerter Vorgabe eines Detektionsbeginns (t = tE, t = tEi) und einer Detektionsdauer (Atexp) aufweisen, - wherein the cameras (5i, 52, 14i, 142, 15i, 152, 15s, 154, 20i, 2O2, 2O3, 2O4) of the stereo camera (5, 14, 15, 20; 5, 14) each have a sensor array (6) with controlled specification of a detection start (t = tE, t = tEi) and a detection duration (At exp ), - mit einer Steuereinrichtung (10), die mit den Kameras (5i, 52, 14i, M2, 15i, 152, 153, 154,- with a control device (10) which is connected to the cameras (5i, 52, 14i, M2, 15i, 152, 153, 154, 201, 2O2, 2O3, 2O4) und der Blitzlichtquelle (7, 13) in Signalverbindung steht, zur zeitlich synchronisierten Vorgabe von folgenden Bilderfassungsparametern: des Blitzbeleuchtungsbeginns (t = 0, t = tfiash) und der Blitzbeleuchtungsdauer (Atfiash) der Blitzlichtquelle (7, 13) sowie des Detektionsbeginns (t = tE, t = tEi) und der Detektionsdauer (Atexp) der Kameras (5i, 52, 14i, 142, 15i, 152, 153, 154, 20i, 202, 203, 204). 201, 2O2, 2O3, 2O4) and the flash light source (7, 13), for the time-synchronized specification of the following image acquisition parameters: the start of flash illumination (t = 0, t = tfiash) and the flash illumination duration (Atfiash) of the flash light source (7, 13) as well as the start of detection (t = tE, t = tEi) and the detection duration (At exp ) of the cameras (5i, 5 2 , 14i, 14 2 , 15i, 15 2 , 15 3 , 15 4 , 20i, 20 2 , 20 3 , 20 4 ). 2. Vorrichtung nach Anspruch 1 2. Device according to claim 1 - mit mindestens einer weiteren Blitzlichtquelle (13) mit gesteuerter Vorgabe eines Blitzbeleuchtungsbeginns (t = 0, t = tfiash) und einer Blitzbeleuchtungsdauer (Atfiash) aufeinanderfolgender Beleuchtungsblitze (8, 81) und/oder - with at least one further flash light source (13) with controlled specification of a flash illumination start (t = 0, t = tfiash) and a flash illumination duration (Atfiash) of successive illumination flashes (8, 81) and/or - mit mindestens einer weiteren Stereokamera (14) mit zwei weiteren zueinander beabstandeten Kameras (14i, 2) zur triangulatorischen Objekt- Abstandsbestimmung innerhalb der umfassten Umgebung. - with at least one further stereo camera (14) with two further spaced-apart cameras (14i, 2) for triangulatory object distance determination within the enclosed environment. 3. Vorrichtung nach Anspruch 1 oder 2, gekennzeichnet durch mindestens eine Fischaugen- Stereokamera (15, 20) mit mindestens zwei Fischaugen-Kameras (151 bis 154, 20i bis 2O4), wobei jede der Fischaugen-Kameras (15i bis 154, 20i bis 2O4) zur Erfassung der Umgebung sowohl in einer Haupterfassungsrichtung (4) als auch längs hierzu in lateraler Richtung (16) ausgerichtet ist, wobei Erfassungsbereiche der Fischaugen-Kameras (15 i, 20i) in der Haupterfassungsrichtung (4) in einem Überlapp-Bereich (19) überlappen. 3. Device according to claim 1 or 2, characterized by at least one fisheye stereo camera (15, 20) with at least two fisheye cameras (151 to 154, 20i to 204), each of the fisheye cameras (15i to 154, 20i to 204) for detecting the environment both in a main detection direction (4) and along this in a lateral direction (16) is aligned, wherein detection areas of the fisheye cameras (15 i, 20i) overlap in the main detection direction (4) in an overlap area (19). 4. Vorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Steuereinrichtung (10) einen Bildprozessor zur Echtzeit- Verarbeitung aufweist. 4. Device according to one of claims 1 to 3, characterized in that the control device (10) has an image processor for real-time processing. 5. Verfahren zum Betrieb einer Vorrichtung (1; 21) nach einem der Ansprüche 1 bis 4, mit folgenden Schritten: 5. Method for operating a device (1; 21) according to one of claims 1 to 4, comprising the following steps: - Vorgeben der Bilderfassungsparameter derart, dass ein erster Entfernungsbereich (gz-1) erfasst wird, - Specifying the image acquisition parameters such that a first distance range (gz-1) is captured, - Erfassen des Entfernungsbereichs (gz-1) mit den vorgegebenen Bilderfassungsparametem mit den Kameras der mindestens einen Stereokamera, - Capturing the distance range (gz-1) with the specified image acquisition parameters with the cameras of at least one stereo camera, - Vorgeben der Bilderfassungsparameter derart, dass ein weiterer Entfernungsbereich (gz) erfasst wird, der an den vorhergehenden Entfernungsbereich (gz-1) längs der Vorwärtsrichtung (4) in einer Erfassungsfortschrittsrichtung (+z) angrenzt oder mit diesem teilweise überlappt, - specifying the image acquisition parameters such that a further distance range (gz) is acquired which borders on or partially overlaps the previous distance range (gz-1) along the forward direction (4) in a detection progress direction (+z), - Erfassen des weiteren Entfemungsbereichs (gz) mit den zuletzt vorgegebenen Bilderfassungsparametern mit den Kameras der mindestens einen Stereokamera, - Capturing the further distance range (gz) with the last specified image acquisition parameters with the cameras of at least one stereo camera, - digitales Filtern des zuletzt erfassten Bildes zum Herausfiltern von strukturlosen Bildbereichen, - digital filtering of the last captured image to filter out structureless image areas, - Überschreiben des im der letzten Erfassung vorhergehenden Erfassungsschritt erfassten- Overwriting the data recorded in the previous step of the last recording Bildes mit dem zuletzt erfassten Bild in nicht herausgefilterten Bildbereichen des zuletzt erfassten Bildes zur Erzeugung eines aktualisierten Bildes, image with the last captured image in non-filtered image areas of the last captured image to generate an updated image, - Vorgeben der Bilderfassungsparameter derart, dass ein weiterer Entfernungsbereich- Specifying the image acquisition parameters in such a way that a wider distance range (gz+1) erfasst wird, der an den vorhergehenden Entfernungsbereich (gz) längs der Vorwärtsrichtung (4) in der Erfassungsfortschrittsrichtung (-z) angrenzt oder mit diesem teilweise überlappt, (gz+1) which borders on or partially overlaps the preceding distance range (gz) along the forward direction (4) in the detection progress direction (-z), - Wiederholen der letzten Schritte Erfassen, digitales Filtern, Überschreiben und Vorgeben für weitere Entfernungsbereiche (224 bis 22i), bis ein vorgegebener Gesamt-Entfernungsbereich (25) abgedeckt ist, der sich aus einer Überlagerung der erfassten Entfernungsbereiche (22i bis 22 max ) ergibt, - Repeat the last steps of acquisition, digital filtering, overwriting and specification for further distance ranges (224 to 22i) until a specified total distance range (25) is covered, which results from a superposition of the acquired distance ranges (22i to 22 max ), - Ausgeben des zuletzt aktualisierten Bildes. - Output the last updated image. 6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass mindestens zwei der aufeinanderfolgenden Erfassungsschritte zeitlich miteinander überlappen. 6. Method according to claim 5, characterized in that at least two of the successive detection steps overlap with each other in time. 7. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass sich Entfernungs- Ausdehnungen (Az) der Entfemungsbereiche (22i) voneinander unterscheiden. 7. Method according to claim 5 or 6, characterized in that distance extensions (Az) of the distance ranges (22i) differ from one another. 8. Verfahren nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass nach dem Erfassen des jeweiligen Entfernungsbereiches (gz-1, gz, gz+1; 22i) eine Triangulationsbestimmung einer Entfernung von Objekten (22 bis 24) in nicht herausgefilterten Bildbereichen mittels der mindestens einen Stereokamera (5, 14) erfolgt. 8. Method according to one of claims 5 to 7, characterized in that after the detection of the respective distance range (gz-1, gz, gz+1; 22i), a triangulation determination of a distance of objects (22 to 24) in non-filtered image areas is carried out by means of the at least one stereo camera (5, 14). 9. Verfahren nach einem der Ansprüche 5 bis 8, dadurch gekennzeichnet, dass vor dem Erfassen eine Region of Interest (ROI) als Teil eines von den Stereokameras (5, 14) erfassbaren Bildfeldes vorgegeben wird. 9. Method according to one of claims 5 to 8, characterized in that before the detection, a region of interest (ROI) is specified as part of an image field that can be detected by the stereo cameras (5, 14). 10. Verfahren zum Betrieb einer Vorrichtung (1; 21) nach einem der Ansprüche 1 bis 4, mit folgenden Schritten: 10. Method for operating a device (1; 21) according to one of claims 1 to 4, comprising the following steps: - Erfassen einer Time of Flight (TOF)-Entfernung mindestens eines Objekts (2; 22 bis 24) über eine entsprechende Zuordnung der Blitzbeleuchtungsdauer und der Detektionsdauer mittels des TOF-Prinzips, - detecting a time of flight (TOF) distance of at least one object (2; 22 to 24) via a corresponding assignment of the flash illumination duration and the detection duration using the TOF principle, - Erfassen einer triangulatorischen Entfernung des Objekts (2; 22 bis 24) mittels der mindestens einen Stereokamera mittels des triangulatorischen Prinzips, - detecting a triangulatory distance of the object (2; 22 to 24) by means of the at least one stereo camera using the triangulatory principle, - Abgleichen der TOF -Entfernung und der triangulatorischen Entfernung. - Matching the TOF distance and the triangulation distance. 11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die TOF-Entfemung als Eingangsgröße für die tri angulatori sehe Erfassung genutzt wird. 11. The method according to claim 10, characterized in that the TOF distance is used as an input variable for the triangular detection. 12. Verfahren nach einem der Ansprüche 5 bis 11, dadurch gekennzeichnet, dass eine Beleuchtungsintensität der Blitzlichtquelle (7, 13) auf einen zu erfassenden Entfernungsbereich (22i) abgestimmt wird. 12. Method according to one of claims 5 to 11, characterized in that an illumination intensity of the flash light source (7, 13) is adjusted to a distance range (22i) to be detected. 13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass die Blitzintensität quadratisch von einer Entfernung (di) innerhalb des zu erfassenden Entfernungsbereichs (22i) abhängt. 13. Method according to claim 12, characterized in that the flash intensity depends quadratically on a distance (di) within the distance range (22i) to be detected. 14. Verfahren nach einem der Ansprüche 5 bis 13, dadurch gekennzeichnet, dass eine Pixel- empfindlichkeit eines Sensorpixels des Sensor-Arrays (6) als Funktion einer einfallenden Lichtintensität der Blitzlichtquelle (7, 13) geregelt wird. 14. Method according to one of claims 5 to 13, characterized in that a pixel sensitivity of a sensor pixel of the sensor array (6) is controlled as a function of an incident light intensity of the flash light source (7, 13). 15. Verfahren nach einem der Ansprüche 5 bis 14, dadurch gekennzeichnet, dass eine Auswahl von zu erfassenden Objekt-Entfernungsbereichen (22i) an einen Bewegungsmodus der Vorrichtung (1; 21) relativ zur Umgebung angepasst wird. 15. Method according to one of claims 5 to 14, characterized in that a selection of object distance ranges (22i) to be detected is adapted to a movement mode of the device (1; 21) relative to the environment.
PCT/EP2024/064363 2023-06-07 2024-05-24 Device for capturing a spatial image of a surrounding area which is moving relative to the device, and method for operating same WO2024251542A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102023205343.8A DE102023205343A1 (en) 2023-06-07 2023-06-07 Device for spatial image capture of an environment moving relative to the device and operating method therefor
DE102023205343.8 2023-06-07

Publications (1)

Publication Number Publication Date
WO2024251542A1 true WO2024251542A1 (en) 2024-12-12

Family

ID=91274591

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2024/064363 WO2024251542A1 (en) 2023-06-07 2024-05-24 Device for capturing a spatial image of a surrounding area which is moving relative to the device, and method for operating same

Country Status (2)

Country Link
DE (1) DE102023205343A1 (en)
WO (1) WO2024251542A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023205343A1 (en) 2023-06-07 2024-12-12 Tripleye Gmbh Device for spatial image capture of an environment moving relative to the device and operating method therefor

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012095258A1 (en) 2011-01-12 2012-07-19 3Vi Gmbh Remote-control device and interface module for controlling an apparatus on the basis of a moving object
DE102011080702B3 (en) 2011-08-09 2012-12-13 3Vi Gmbh Object detection device for a vehicle, vehicle having such an object detection device
WO2014009945A1 (en) 2012-07-09 2014-01-16 Brightway Vision Ltd. Stereo gated imaging system and method
US8654196B2 (en) * 2010-03-01 2014-02-18 Ricoh Company, Ltd. Image pickup apparatus and rangefinder, with altering baseline lengths for parallax computation obtained by combining any two of a plurality of cameras
US20140282224A1 (en) 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a scrolling gesture
WO2017189185A1 (en) 2016-04-26 2017-11-02 Cepton Technologies, Inc. Three-dimensional imaging systems
US20190056498A1 (en) 2016-03-01 2019-02-21 Brightway Vision Ltd. Gated imaging apparatus, system and method
DE102018213976A1 (en) 2017-08-22 2019-02-28 Myestro Interactive Gmbh Apparatus for measuring a distance of an object to a sensor
WO2022069425A2 (en) 2020-09-29 2022-04-07 Tripleye Gmbh Device for calibrating a spatial position of a center of an entrance pupil of a camera, calibrating method therefor and system for determining the relative position of centers of entrance pupils of at least two cameras, which are mounted on a common support frame, relative to each other and determination method therefor
WO2022069424A1 (en) 2020-09-29 2022-04-07 Tripleye Gmbh Method for capturing three-dimensional images with the aid of a stereo camera having two cameras, method for producing a redundant image of a measurement object, and device for carrying out the methods
US20220174255A1 (en) 2020-11-30 2022-06-02 Microsoft Technology Licensing, Llc Spad array for intensity image capture and time of flight capture
WO2022179998A1 (en) 2021-02-23 2022-09-01 Tripleye Gmbh Optical assembly for generating a real-time image and a real-time assignment of environmental objects, and vehicle comprising such an assembly
DE102023205343A1 (en) 2023-06-07 2024-12-12 Tripleye Gmbh Device for spatial image capture of an environment moving relative to the device and operating method therefor

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011080102A1 (en) 2011-07-29 2013-01-31 Wilhelm Bahmüller Maschinenbau Präzisionswerkzeuge GmbH Device for turning flat objects

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8654196B2 (en) * 2010-03-01 2014-02-18 Ricoh Company, Ltd. Image pickup apparatus and rangefinder, with altering baseline lengths for parallax computation obtained by combining any two of a plurality of cameras
US9451237B2 (en) 2011-01-12 2016-09-20 Myestro Interactive Gmbh Remote control device for controlling a mechanism with the aid of a movable object and an interface module based on movement and distance of the movable object with respect to a camera
WO2012095258A1 (en) 2011-01-12 2012-07-19 3Vi Gmbh Remote-control device and interface module for controlling an apparatus on the basis of a moving object
DE102011080702B3 (en) 2011-08-09 2012-12-13 3Vi Gmbh Object detection device for a vehicle, vehicle having such an object detection device
WO2013020872A1 (en) 2011-08-09 2013-02-14 3Vi Gmbh Object detection device for a vehicle, vehicle with such an object detection device and method for determining a relative positional relationship of stereo cameras with respect to one another
US10390004B2 (en) * 2012-07-09 2019-08-20 Brightway Vision Ltd. Stereo gated imaging system and method
WO2014009945A1 (en) 2012-07-09 2014-01-16 Brightway Vision Ltd. Stereo gated imaging system and method
US20150296200A1 (en) 2012-07-09 2015-10-15 Brightway Vision Ltd. Stereo gated imaging system and method
US20140282224A1 (en) 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a scrolling gesture
US20190056498A1 (en) 2016-03-01 2019-02-21 Brightway Vision Ltd. Gated imaging apparatus, system and method
WO2017189185A1 (en) 2016-04-26 2017-11-02 Cepton Technologies, Inc. Three-dimensional imaging systems
DE102018213976A1 (en) 2017-08-22 2019-02-28 Myestro Interactive Gmbh Apparatus for measuring a distance of an object to a sensor
WO2022069425A2 (en) 2020-09-29 2022-04-07 Tripleye Gmbh Device for calibrating a spatial position of a center of an entrance pupil of a camera, calibrating method therefor and system for determining the relative position of centers of entrance pupils of at least two cameras, which are mounted on a common support frame, relative to each other and determination method therefor
WO2022069424A1 (en) 2020-09-29 2022-04-07 Tripleye Gmbh Method for capturing three-dimensional images with the aid of a stereo camera having two cameras, method for producing a redundant image of a measurement object, and device for carrying out the methods
US20220174255A1 (en) 2020-11-30 2022-06-02 Microsoft Technology Licensing, Llc Spad array for intensity image capture and time of flight capture
WO2022179998A1 (en) 2021-02-23 2022-09-01 Tripleye Gmbh Optical assembly for generating a real-time image and a real-time assignment of environmental objects, and vehicle comprising such an assembly
DE102023205343A1 (en) 2023-06-07 2024-12-12 Tripleye Gmbh Device for spatial image capture of an environment moving relative to the device and operating method therefor

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
FACHARTIKEL VON T. SWEDISH ET AL.: "Beyond the Line of Sight? What's New in Optical Perception", AUVSI XPONENTIAL 2022-SWEDISH, pages 1 - 8, Retrieved from the Internet <URL:https://www.xponential.org/xponential2022/Custom/Handout/Speaker51584_Session4220_1.pdf>
JIEJIE ZHU ET AL: "Fusion of time-of-flight depth and stereo for high accuracy depth maps", COMPUTER VISION AND PATTERN RECOGNITION, 2008. CVPR 2008. IEEE CONFERENCE ON, IEEE, PISCATAWAY, NJ, USA, 23 June 2008 (2008-06-23), pages 1 - 8, XP031297319, ISBN: 978-1-4244-2242-5 *
SUN JIAN ET AL: "Background Cut", 1 January 2006, SPRINGER, PAGE(S) 628 - 641, XP047529904 *

Also Published As

Publication number Publication date
DE102023205343A1 (en) 2024-12-12

Similar Documents

Publication Publication Date Title
DE60208894T2 (en) RAIN SENSOR WITH STEREOSCOPIC PICTURE SYSTEM
EP3465534B1 (en) Lighting device for a motor vehicle for increasing the detectability of an obstacle
DE102020002994B4 (en) Method for measuring a distance between an object and an optical sensor, control device for carrying out such a method, distance measuring device with such a control device and motor vehicle with such a distance measuring device
DE102021000724B3 (en) Microlens array projection device, lighting device and vehicle
WO2019114889A1 (en) 3-d environment sensing by means of the projection of a series of pseudo-random patterns and stereo camera modules
DE102016217628B4 (en) A method of operating a surgical microscopy system, a motion sensing system for a surgical microscopy system, and an operating microscopy system
WO2021239323A1 (en) Method for identifying image artifacts, controller for carrying out such a method, identifying device comprising such a controller, and motor vehicle comprising such an identifying device
EP1460454A2 (en) Method for combined processing of high resolution images and video images
WO2024251542A1 (en) Device for capturing a spatial image of a surrounding area which is moving relative to the device, and method for operating same
DE102017204836B4 (en) Method and device for detecting objects in the environment of a vehicle
DE10051415A1 (en) Optical tracking system retransfers information computed by one computing device to another device, and/or to CCD camera
EP3724601B1 (en) Distance determination based on different depth of field areas with different focus settings of an objective lens
DE102012018118A1 (en) Method for operating a front camera of a motor vehicle, taking into account the light of the headlight, corresponding device and motor vehicle
WO2023247302A1 (en) Method for determining at least one correction function for a lidar system, lidar system, vehicle comprising at least one lidar system, and measuring system
DE102020117060B4 (en) Device and method for detecting the surroundings of a vehicle
WO2023041706A1 (en) Method and device for measuring depth information relating to a scene on the basis of structured light generated by means of at least one parallel radiation source
EP3647851B1 (en) Microscopy device for producing three-dimensional images
WO2022167343A1 (en) Method for calibrating a gated camera, control unit for carrying out such a method, calibration device having such a control unit, and motor vehicle having such a calibration device
WO2022106115A1 (en) Method for operating a first illumination device, a second illumination device and an optical sensor, control device for carrying out such a method, gated camera apparatus comprising such a control device, and motor vehicle comprising such a gated camera apparatus
DE102017113194A1 (en) Method for tracking a plurality of point-shaped objects in space
WO2022042902A1 (en) Method for object tracking of at least one object, controller for performing such a method, object tracking device having such a controller and motor vehicle having such an object tracking device
EP3989860A1 (en) Camera system
DE102021000447A1 (en) Method for operating a gated camera, control device for carrying out such a method, camera device with such a control device and motor vehicle with such a camera device
DE10301094B4 (en) Device for measuring the distance of distance points to a camera
DE102019214404A1 (en) DIAGNOSTIC LIGHTING

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 24728630

Country of ref document: EP

Kind code of ref document: A1