WO2020064674A1 - Sensorvorrichtung zum erfassen eines umfelds eines geräts, verfahren zum betreiben einer sensorvorrichtung zum erfassen eines umfelds eines geräts und gerät mit der sensorvorrichtung - Google Patents

Sensorvorrichtung zum erfassen eines umfelds eines geräts, verfahren zum betreiben einer sensorvorrichtung zum erfassen eines umfelds eines geräts und gerät mit der sensorvorrichtung Download PDF

Info

Publication number
WO2020064674A1
WO2020064674A1 PCT/EP2019/075610 EP2019075610W WO2020064674A1 WO 2020064674 A1 WO2020064674 A1 WO 2020064674A1 EP 2019075610 W EP2019075610 W EP 2019075610W WO 2020064674 A1 WO2020064674 A1 WO 2020064674A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
imaging
detection
solid angle
hologram
Prior art date
Application number
PCT/EP2019/075610
Other languages
English (en)
French (fr)
Inventor
Reinhold Fiess
Ingo Ramsteiner
Johannes Hofmann
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Publication of WO2020064674A1 publication Critical patent/WO2020064674A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak

Definitions

  • the invention is based on a device or a method according to the type of the independent claims.
  • the present invention also relates to a computer program.
  • a so-called time-of-flight camera can be used for environment detection, for example, in which individual image points of a scene under consideration are associated with a distance measurement of an object that is recorded in each case.
  • Such a ToF camera does not provide a two-dimensional image, but a three-dimensional point cloud.
  • DE 10 2014 004 697 B4 discloses a system for distance measurement, which has a multi-wavelength holography module for detecting a
  • Holographic light beams with different wavelengths at least one beam splitter, at least one diffraction element, a referencing module and an evaluation module.
  • an imaging optics can be in front of a sensor device or time-of-flight camera (ToF camera).
  • Detector array can be realized by a holographic optical element which has at least two different imaging properties or imaging holograms for at least two light characteristics, so that each of these light characteristics has different fields of view of the light
  • Detector array can be mapped.
  • at least two lighting modes with different light characteristics can be provided, wherein in particular one of the light characteristics can match one of the imaging holograms in front of the detector array.
  • a sensor device for detecting an environment of a device having the following features: a first light source for emitting first detection light of a first light characteristic into a first solid angle range and a second
  • Light source for emitting a second detection light from a second
  • Light characteristic in a second solid angle range the first light characteristic and the second light characteristic differing from one another, wherein the first solid angle range and the second solid angle range differ from one another; a holographic optical element with a first imaging hologram and a second imaging hologram, the first
  • the first imaging hologram being designed to image first detection light reflected on an object in the surroundings, in the first imaging light
  • the second imaging hologram being designed to reflect second detection light reflected on the object in the second
  • Map imaging light Map imaging light
  • detector device configured to receive the first imaging light and the second imaging light for a detection of the surroundings of the device.
  • the sensor device can be designed as a so-called time-of-flight camera with holographic imaging optics.
  • the detection light can be in the near infrared range.
  • the solid angle ranges can be arranged in the area surrounding the device.
  • the object can in particular represent a point or a partial section of an object.
  • the detector device can be designed as a so-called detector array with a plurality of detection points or can comprise a corresponding detector array.
  • Detector array can be used for staggered detection of the first imaging light and the second imaging light.
  • a portion of the first imaging light can be one
  • Detection point of the detector array and at a second point in time a portion of the second imaging light from the same detection point of the
  • Detector arrays are detected.
  • a spatial map of the surroundings can be generated from a plurality of distances to a plurality of objects or individual points of an object or object.
  • the sensor device can have a control unit which can be designed to derive from a transit time between a transmission time of the first detection light and a reception time to determine a distance to the object of the first imaging light and additionally or alternatively between a transmission time of the second detection light and a reception time of the second imaging light.
  • a control unit which can be designed to derive from a transit time between a transmission time of the first detection light and a reception time to determine a distance to the object of the first imaging light and additionally or alternatively between a transmission time of the second detection light and a reception time of the second imaging light.
  • the control unit can be designed to control the first light source in order to transmit the first detection light in a first time interval, and to control the second light source in order to transmit the second detection light in a second time interval.
  • the first time interval and the second time interval can be free of overlaps in time.
  • the first light source and the second light source can be activated alternately or alternately.
  • the control unit can also be designed to control the first light source in a first operating mode of the device in order to emit the first detection light and to read in the first imaging light from the detector device, and the second in a second operating mode of the device
  • an enlarged solid angle range can be detected by means of a detector device with a given number of pixels and additionally or alternatively different solid angle ranges at different locations in the environment and can additionally or alternatively be recorded with different resolutions.
  • the first light characteristic can be a first wavelength and additionally or alternatively a first spatial intensity distribution.
  • the second light characteristic can be a second wavelength and additionally or alternatively a second spatial intensity distribution.
  • Sensor device can be enabled to enlarge a field of view for given hardware.
  • lighting modes of the light sources are distinguished by different light distributions which are matched to the fields of view of associated imaging holograms.
  • the first light source can be designed to emit the first detection light as individual light pulses or with a periodically modulated one
  • the second light source can be designed to emit the second detection light as individual light pulses or with a light intensity that is periodically modulated in time.
  • Embodiment offers the advantage that, depending on the application and specific requirements, a suitable lighting strategy can be selected. Cost-effective or high-quality light sources can be used as required.
  • first light source and the second light source can be arranged in a common lighting unit with a common housing.
  • Such an embodiment offers the advantage that the sensor device can be implemented in a space-saving, inexpensive and compact manner.
  • the sensor device can also have at least one light shaping element for shaping the first detection light and the second detection light.
  • the light shaping element can be designed to cover the first solid angle area and the second solid angle area over a field of view of the holographic optical element and additionally or alternatively To coordinate detector device.
  • the light shaping element can be designed to bring about a homogeneous light distribution or an inhomogeneous light distribution of the first detection light and a homogeneous light distribution or an inhomogeneous light distribution of the second detection light.
  • a diffractive optical element can, for example, be used as the light shaping element
  • Element a holographic optical element, a diffuser, a refractive element, a spatial light modulator or a combination of the above elements can be used.
  • Such an embodiment offers the advantage that different, widely spaced and additionally or alternatively extensive solid angle ranges can be detected in a simple manner.
  • the sensor device can have a filter device for transmitting the first imaging light and the second imaging light to the
  • the filter device can have a pass band for wavelengths used as light characteristics.
  • the filter device can be, for example, a bandpass filter, a dielectric interference filter, an edge filter, colored plastic that is transparent to light in the near infrared and opaque to visible light, or one that, depending on the lighting mode, can be used as
  • Light characteristic used wavelength adjustable filter device such as a Fabry-Perot etalon, can be used.
  • Embodiment offers the advantage that the detector device can be reliably protected against stray light or extraneous light.
  • the sensor device can have at least one further light source for emitting further detection light of a further light characteristic into a further solid angle range.
  • the further solid angle range can differ from the first solid angle range and the second
  • the holographic optical element can have at least one further imaging hologram.
  • the further imaging hologram can differ from the first imaging hologram and the second imaging hologram.
  • the other can
  • Imaging hologram can be designed to image additional detection light reflected on the object into additional imaging light.
  • the detector device can be designed to receive the further imaging light for detecting the surroundings of the device.
  • It also becomes a device, in particular a mobile device with autonomous navigation, device with gesture control, vehicle with interior surveillance, vehicle with environment detection or industrial robot with environment detection, with one
  • Examples of a mobile device with autonomous navigation can be a
  • Vacuum robot or a robotic lawnmower For a vehicle, the
  • Sensor device can be used as a vehicle camera for interior monitoring and additionally or alternatively for environment detection.
  • Presented capturing an environment of a device comprising the following steps:
  • Solid angle range by means of a second light source the first light characteristic and the second light characteristic differing from one another, the first solid angle range and the second solid angle range differing from one another;
  • the first imaging light and the second imaging light by means of a detector device for detecting the surroundings of the device, the first imaging light being imaged by means of a first imaging hologram of a holographic optical element from first detection light reflected on an object in the surroundings, the second imaging light using a second Imaging hologram of the holographic optical element is imaged from the second detection light reflected on the object distinguish between the first imaging hologram and the second imaging hologram.
  • This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a device or a control device.
  • a method for detecting an environment of a device comprising the following steps:
  • Reading in a detection signal which represents a distance to an object in the surroundings determined by means of the sensor device, from the sensor device in order to detect the surroundings of the device.
  • This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control unit.
  • a computer program product or computer program with program code which can be stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk memory or an optical memory and for carrying out, implementing and / or controlling the steps of the method according to one of the above
  • Figure 1 is a schematic representation of a time-of-flight camera.
  • FIG. 2 shows a schematic illustration of a sensor device according to an exemplary embodiment
  • FIG. 3 shows a schematic illustration of a device with the sensor device from FIG. 2;
  • FIG. 4 shows a schematic illustration of the sensor device from FIG. 2 or FIG. 3 in an environment
  • FIG. 5 shows a schematic illustration of the sensor device from FIG. 2 or FIG. 3 in an environment
  • FIG. 6 shows a schematic illustration of the device from FIG. 3 in an environment
  • FIG. 7 shows a schematic illustration of the device from FIG. 3 in an environment
  • FIG. 8 shows a schematic illustration of the device from FIG. 3 in an environment
  • FIG. 10 shows a flowchart of a method for detection according to an exemplary embodiment.
  • the Time-of-flight camera 100 consists of at least one lighting unit 101, which emits light 102, and a receiving unit 103, which receives light 104 reflected by the object OBJ.
  • the lighting unit 101 has at least one light source 111, e.g. B. an LED or laser diode that emits light of wavelength l, usually in the near infrared range between 700 and 1100 nanometers.
  • at least one light shaping element 112 is provided, which ensures a certain spatial distribution of the light 102 emitted by the light source 111.
  • the receiving unit 103 has at least one detector array 131. Another component of the receiving unit 103 is an optical element 132 in order to image the reflected light 104 on the detector array 131.
  • the optical element 132 is a lens, in particular a fixed focus lens. This fixes the field of view and a change in the field of view would require an exchange of the lens or the optical element 132.
  • a bandpass filter 133 is also installed, which only allows light in a narrow spectral range to pass through the wavelength l emitted by the light source 111.
  • the sensor device 200 is designed to detect an environment of a device.
  • the sensor device 200 can be attached at least temporarily in or on the device.
  • the environment is in the
  • the sensor device 200 is designed as a so-called time-of-flight camera (ToF camera).
  • ToF camera time-of-flight camera
  • the sensor device 200 has at least two lighting units 210 and 220, a first according to the exemplary embodiment shown here
  • Illumination unit 210 and a second illumination unit 220, and a detection unit 230.
  • the first lighting unit 210 has a first light source 212.
  • the first light source 212 is configured to emit first detection light 241 from a first To emit light characteristics in a first solid angle range.
  • the second lighting unit 220 has a second light source 222.
  • the second light source 222 is designed to emit second detection light 242 with a second light characteristic in a second solid angle range.
  • the first light characteristic with which the first detection light 241 is emitted and the second light characteristic with which the second detection light 242 is emitted differ from one another.
  • the first solid angle range in which the first detection light 241 is emitted and the second solid angle range in which the second detection light 242 is emitted differ from one another.
  • Illumination unit 210 further includes a first light shaping element 214.
  • the first light shaping element 214 is configured to shape the first detection light 241.
  • the first light shaping element 214 is designed to match the first solid angle region to a field of view of the holographic optical element 232 and / or the detector device 234. Additionally or alternatively, the first light shaping element 214 is designed to effect a homogeneous light distribution or an inhomogeneous light distribution of the first detection light 241.
  • the second lighting unit 220 also has a second light shaping element 224. The second
  • Light shaping element 224 is configured to shape second detection light 242.
  • the second light shaping element 224 is designed to match the second solid angle region to a field of view of the holographic optical element 232 and / or the detector device 234. Additionally or alternatively, the second light shaping element 224 is designed to be homogeneous
  • the first light characteristic of the first detection light 241 is a first wavelength and / or a first spatial intensity distribution of the first detection light 241.
  • Light source 212 is formed around the first detection light 241 with a first wavelength and / or a first spatial intensity distribution
  • the second light source 222 is designed to emit the second detection light 242 with a second wavelength and / or a second spatial intensity distribution.
  • the first light source 212 is designed to emit the first detection light 241 in the form of individual light pulses or with a light intensity that is moderated periodically over time.
  • the second light source 222 is designed to emit the second detection light 242 in the form of individual light pulses or with a light intensity that is moderated periodically over time.
  • the first detection light 241 is at least partially reflected or reflected back by the object OBJ as a reflected first detection light 251.
  • the second detection light 242 is at least partially reflected or reflected back by the object OBJ as a reflected second detection light 252.
  • the detection unit 230 has a holographic optical element 232 and a detector device 234.
  • the holographic optical element 232 is designed to image the reflected first detection light 251 and the reflected second detection light 252 on the detector device 234.
  • the holographic optical element 232 has a first imaging hologram and a second imaging hologram.
  • the first imaging hologram and the second imaging hologram of the holographic optical element 232 differ from one another.
  • the first imaging hologram is designed to image the first detection light 251 reflected on an object OBJ in the first imaging light.
  • the second imaging hologram is designed to image the second detection light 252 reflected on the object OBJ in the second imaging light.
  • the detector device 234 is designed to be the first for detecting the surroundings of the device
  • the detector device 234 is designed to detect or detect the first detection light and the second detection light.
  • the first imaging hologram of the holographic optical element 232 is designed to image the first imaging light onto at least a subset of detection points of the detector device 234.
  • the second imaging hologram of the holographic optical element 232 is in particular designed to image the second imaging light onto at least a subset of detection points of the detector device 234.
  • Detection unit 230 also has a filter device 236.
  • the filter device 236 is designed to transmit the first imaging light and the second imaging light to the detector device 234 and to filter out ambient light.
  • the first light source 212 and the second light source 222 can be arranged in a common lighting unit with a common housing.
  • the first light source 212 and the second light source 222 can have a common light shaping element.
  • the common lighting unit may include the first light source 212, the second light source 222, and a common one
  • the sensor device 200 can have at least one further lighting unit and / or at least one further light source.
  • the further light source can be designed to emit further detection light of a further light characteristic in a further solid angle range.
  • the further solid angle range can differ from the first solid angle range and the second solid angle range.
  • the holographic optical element 232 can have at least one further imaging hologram.
  • Imaging hologram can differ from the first imaging hologram and the second imaging hologram.
  • the other can
  • Imaging hologram can be designed to image additional detection light reflected on the object OBJ into additional imaging light.
  • the Detector device 234 can be designed to receive the further imaging light for a detection of the surroundings of the device.
  • the sensor device 200 is designed to run from a transit time between a transmission time of the first detection light 241 and a reception time of the first
  • the sensor device 200 or the time-of-flight camera is designed as a camera system in which a distance measurement of the object OBJ in each case is assigned to individual pixels of a scene under consideration.
  • the sensor device 200 or ToF camera 200 therefore does not deliver a two-dimensional image but a three-dimensional point cloud.
  • HMI Human Machine
  • Interface for example for computer games, gesture control and the like.
  • Sensor device 200 a scene in an environment, for example with time-modulated light or individual light pulses.
  • direct ToF individual pulses of the first detection light 241 and the second detection light 242 are emitted and delay times until the echoes are received are detected.
  • the first detection light 241 and the second detection light 242 are emitted and are emitted with a light intensity that is periodically modulated over time measured a phase shift between the received and an internal reference signal.
  • Detection light 251 and 252 is imaged by the holographic optical element 232 onto the detector device 234 or the detector array 234, normally onto each individual detector or detection pixel light from a specific solid angle.
  • the detector device 234 can be a CCD imager or CMOS imager, a PMD, APD or SPAD array or the like.
  • An exemplary resolution of detection pixels in the detector device 234 can be 320x240 pixels or 160x60 pixels, for example.
  • the sensor device 200 is in many
  • Each of the lighting units 210 and 220 has at least one light source 212 or 222, for example in the form of light-emitting diodes (LEDs) or laser diodes, which each have detection light 241 or 242 with a defined wavelength l, for example in the near infrared range between 700 and 1100 Nanometers, emits.
  • LEDs light-emitting diodes
  • laser diodes which each have detection light 241 or 242 with a defined wavelength l, for example in the near infrared range between 700 and 1100 Nanometers, emits.
  • At least one light shaping element 214 or 224 can be provided, which brings about a defined spatial distribution of the detection light 241 or 242 emitted by the light sources 212 or 222.
  • Light shaping element 214 or 224 can be a diffractive optical element (DOE), a holographic optical element (HOE), a diffuser, a refractive element (ROE, e.g. a lens) or a combination of these elements.
  • DOE diffractive optical element
  • HOE holographic optical element
  • ROE refractive element
  • SLM Spatial light modulators
  • the task of the light shaping element 214 or 224 is, for example, to illuminate an illuminated area in the field of view
  • Radiometric is ideal if
  • Illumination area and field of view of sensor device 200 cover the same solid angles. Illumination of areas outside the
  • the light shaping element 214 or 224 can serve to ensure a homogeneous light distribution or, in contrast, to illuminate certain areas more intensely than others.
  • the sensor device 200 can be operated in at least two lighting modes, which are characterized by different wavelengths (Aa, Ab, ...) and possibly also by different spatial intensity distributions.
  • the first light source 212 and the second light source 222 are narrow-band light sources, for example laser diodes, and
  • Light shaping elements 214 and 224 for example as DOEs, HOEs or ROEs, are provided.
  • the wavelengths are preferably in the near infrared range between 650 and 2500 nanometers, preferably between 700 and 1100
  • Wavelengths frequently used in optoelectronics such as 785, 808, 830, 850, 905, 915, 945, 975 or 980 nanometers, are particularly preferred. Depending on the lighting mode used, only one of the two is
  • Detection light 241 of the first wavelength Aa or the second detection light 242 of the second wavelength Ab is emitted.
  • the first light source 212 and the second light source 222 and optionally lastly a further light source are provided in a common package or housing and a common light-shaping element.
  • the holographic optical element 232 different light distributions can be generated for the different wavelengths (Aa, Ab, ).
  • the detection light 251 or 252 for example, which is scattered back or reflected by the object OBJ, has the first or the second or the further wavelength (Aa, Ab, ).
  • the holographic optical element 232 has for each of the wavelengths used
  • Imaging hologram which images the relevant reflected detection light 251 or 252 in the desired manner on the detector device 234 or the detector array. Even if holograms are inherently wavelength selective, one may be
  • the filter device 236 used allows all wavelengths of the detection light 241 or 242 to pass, either in the form of spectrally separate passbands, or through a single sufficiently wide passband. If the filter device 236 is designed as a bandpass filter, it can be a dielectric interference filter, for example. As a particularly inexpensive solution, for. B. for infrared remote controls, light barriers or proximity sensors, also colored plastics can be used, which are transparent to infrared, but in the visible range black or
  • a filter device 236 is impermeable. Also conceivable as a filter device 236 is a Fabry-Perot etalon, which can be adjusted to the respective wavelength depending on the lighting mode.
  • Fig. 3 shows a schematic representation of a device 300 with the
  • the device 300 has the sensor device 200 for detecting the surroundings of the device 300.
  • the device 300 is, in particular, a mobile device with autonomous navigation, a device with gesture control, a vehicle with interior monitoring, a vehicle with environment detection or an industrial robot with
  • the device 300 has a functional unit 305 which uses information about the surroundings of the device 300 acquired by means of the sensor device 200.
  • the functional unit 305 and the sensor device 200 are connected to one another in a manner capable of signal transmission.
  • Detection unit 230 and a control unit 360 shown.
  • the control unit 360 is connected for signal transmission to the first lighting unit 210, the second lighting unit 220 and the detection unit 230.
  • the control unit 360 is designed to calculate a runtime between a transmission time of the first detection light and a reception time of the first imaging light and / or between a transmission time of the second detection light and a reception time of the second
  • Imaging light to determine a distance to the object in the vicinity of the device 300 is a distance to the object in the vicinity of the device 300.
  • control unit 360 is also designed to control the first light source or the first lighting unit 210 in order to emit the first detection light in a first time interval.
  • control unit 360 is designed to control the second light source or the second lighting unit 220 in order to emit the second detection light in a second time interval. The first time interval and the second time interval do not overlap in time.
  • control unit 360 is designed to control the first light source or the first lighting unit 210 in a first operating mode of the device 300 in order to emit the first detection light and the first
  • control unit 360 is designed, in a second operating mode of the device 300, the second light source or the second
  • Control lighting unit 220 in order to emit the second detection light and read in the second imaging light from the detector device or the detection unit 230.
  • FIG. 4 shows a schematic illustration of the sensor device 200 from FIG. 2 or FIG. 3 in an environment. 4 are the
  • An illustrated array of pixels or detection pixels, first imaging light 461 and a first solid angle region 471, a second solid angle region 472, a first field of view 481 and a second field of view 482 are shown in the vicinity.
  • the first solid angle region 471 can be illuminated when illuminated by the first detection light of the first light source of the sensor device 200.
  • the second solid angle region 472 can be illuminated when illuminated by the second detection light of the second light source of the sensor device 200.
  • the first field of view 481 represents one by means of the first Imaging hologram of the holographic optical element of the
  • the second field of view 482 represents one by means of the second imaging hologram
  • holographic optical element of the sensor device 200 imaging solid angle range.
  • An entire field of view of the sensor device 200 results as a sum of the first field of view 481 and the second field of view 482.
  • the first solid angle region 471 is matched to the first field of view 481.
  • the second solid angle area 472 is matched to the second field of view 482.
  • the first solid angle region 471 is illuminated by the first detection light.
  • the second solid angle area 472 is not illuminated. Consequently, by means of the first imaging hologram of the holographic optical element of the sensor device 200, the first one
  • Imaging light 461 is imaged on the detector device 234.
  • the first imaging light 461 is imaged on the entire pixel area of the detector device 234 with the exception of edge pixels.
  • FIG. 5 shows a schematic illustration of the sensor device 200 from FIG. 2 or FIG. 3 in an environment.
  • the representation in FIG. 5 corresponds to the representation from FIG. 4 with the exception that the second
  • Solid angle area 472 is illuminated by the second detection light, the first solid angle area 471 being unlit, so that the second
  • the second imaging light 562 is here with the exception of edge pixels on the entire pixel surface
  • Detector device 234 shown.
  • the sensor device 200 or the ToF camera 200 has two operating modes.
  • the first mode the first solid angle region 471 with a rectangular cross section is illuminated by the first detection light with a first wavelength Aa.
  • the second mode the second detection light with a second Wavelength Illuminated with the same cross-section from the adjacent second solid angle region 472. 4
  • the holographic optical element of the sensor device 200 for the first wavelength Aa maps a solid angle range matched to the first solid angle region 471 as the first field of view 481 onto the detector array or the detector device 234.
  • the holographic optical element of the sensor device 200 for the second wavelength Ab depicts a solid angle range matched to the second solid angle range 472 as a second field of view 482 on the detector device 234.
  • Solid angle area 471 and the second solid angle area 472 back and forth, whereby a number of pixels and a viewing angle of the detector array or detector device 234 are effectively doubled. If, for example, each of the fields of view 481 and 482 is, for example, 15 ° ⁇ 10 ° and images this on a detector device 234 with 160 ⁇ 100 pixels, an entire field of view of 30 ⁇ 10 ° is effectively created with a resolution of 320 ⁇ 100 pixels.
  • FIG. 6 shows a schematic illustration of the device 300 from FIG. 3 in an environment.
  • the device 300 thus has the sensor device from FIG. 2 or FIG. 3 or a similar sensor device.
  • 6 shows the device 300, the detector device 234 of the sensor device with an illustrated array of pixels or detection pixels, the first imaging light 661 and in the vicinity of the device 300 a first solid angle area 671 and a first field of view 681.
  • the first solid angle region 671 can be illuminated when illuminated by the first detection light of the first light source of the sensor device of the device 300.
  • the first field of view 681 represents one using the first imaging hologram of the holographic optical element of FIG.
  • the first solid angle area 671 is matched to the first field of view 681.
  • the first solid angle area 671 is illuminated by the first detection light.
  • the first imaging light 661 is imaged on the entire pixel area of the detector device 234 with the exception of edge pixels.
  • FIG. 7 shows a schematic illustration of the device 300 from FIG. 3 in an environment.
  • the representation in FIG. 7 corresponds to the representation from FIG. 6 with the exception that instead of the first solid angle range and the first field of view, a second solid angle range 772 from a plurality of
  • Subareas and a second field of view 782 from a plurality of subfields are shown.
  • the partial areas of the second solid angle area 772 and the partial fields of the second field of view 782 are here along a first
  • the second solid angle region 772 can be illuminated when illuminated by the second detection light of the second light source of the sensor device of the device 300.
  • the second field of view 782 represents one using the second imaging hologram of the holographic optical element of FIG.
  • the second solid angle range 772 is matched to the second field of view 782.
  • the second solid angle region 772 is illuminated by the second detection light, so that second imaging light 762 by means of the second
  • the second imaging light 762 is imaged on a part of a pixel area of the detector device 234 in the form of spots which are connected to the partial areas of the second solid angle area 772 and the partial fields of the second field of view 782.
  • FIG. 8 shows a schematic illustration of the device 300 from FIG. 3 in an environment.
  • the representation in FIG. 8 corresponds to the representation from FIG. 7 with the exception that instead of the second solid angle range and the second field of view, a third solid angle range 873 from a plurality of Subareas and a third field of view 883 from a plurality of subfields are shown.
  • the partial areas of the third solid angle area 873 and the partial fields of the third field of view 883 are here along a second one
  • the third solid angle region 873 can be illuminated when illuminated by a third detection light from a third light source of the sensor device of the device 300.
  • the third field of view 883 represents a means of a third imaging hologram of the holographic optical element of FIG.
  • the third solid angle area 873 is matched to the third field of view 883.
  • the third solid angle region 873 is illuminated by the third detection light, so that the third imaging light 863 is imaged onto the detector device 234 by means of the third imaging hologram of the holographic optical element of the sensor device of the device 300.
  • the third imaging light 863 is imaged on a part of a pixel area of the detector device 234 in the form of spots which are connected to the partial areas of the third solid angle area 873 and the partial fields of the third field of view 883.
  • the device 300 can be used as a SLAM-capable (simultaneous localization and mapping) home robot, e.g. B. an autonomous vacuum cleaner can be executed with the sensor device as a 3D sensor with three
  • a first wavelength Aa becomes a rectangular first
  • Solid angle area 671 in front of the device 300 is illuminated and an image of this area is generated on the detector array or the detector device 234.
  • This first operating mode provides a coherent, horizontally and vertically limited field of view, e.g. B.15x15 °, a high-resolution
  • Solid angle area 671 to classify detected objects more precisely.
  • light becomes a second Wavelength Not flat across the sensor device, but rather as spots or sub-areas of the second one lined up horizontally at a wide angle
  • Solid angle range 772 distributed. Each of these subareas has a narrowly delimited subfield of the second field of view 782. All individual subfields of the second field of view 782 are imaged by the holographic optical element of the sensor device relating to different areas, second sections of the detector device 234.
  • a vertically arranged chain of partial regions of the third solid angle region 873 is illuminated with a third wavelength Ac and this is also imaged on the detector device 234.
  • the device 300 having the sensor device can, for example, first measure its surroundings in the third operating mode while it rotates 360 ° around its own axis. Like a laser scanner with the same number of individual lasers, the device 300 scans the entire environment in as many levels with predefined horizontal resolution. For locomotion, the device 300 switches to the second operating mode and thus continuously detects solid angles in a wide range, which is suitable for orienting oneself on already known terrain features of the environment and for suddenly recognizing obstacles. Immediately in front of such an obstacle, the first operating mode enables a closer look and
  • Classification of objects which enables a decision about further behavior. For example, a pet can be waited for, a flake of dust can be run over and sucked in, a cable can be bypassed and a user can be notified of an unidentifiable object and asked for instructions.
  • a new overall picture of the environment can be generated with the described 360 ° maneuver in the third operating mode.
  • the method 900 is executable to a
  • Operate sensor device for detecting an environment of a device.
  • the method 900 can be carried out in order to operate the sensor device from one of the aforementioned figures or a similar sensor device.
  • the method 900 for operating has a step 910 of the Sending out and a step 920 of receiving. According to one
  • the method 900 for operating also includes a step 930 actuation and / or a step 940 of determining.
  • step 910 of the emission first detection light of a first light characteristic is emitted into a first solid angle range by means of a first light source and becomes second detection light of a second
  • Light characteristic emitted in a second solid angle range by means of a second light source.
  • Solid angle range and the second solid angle range also differ from one another.
  • the first detection light is emitted by means of the first light source and the second detection light is emitted by means of the second light source.
  • first imaging light and second imaging light are used for detecting the surroundings of the device
  • the first imaging light is imaged by means of a first imaging hologram of a holographic optical element from first detection light reflected on an object in the environment.
  • the second imaging light is imaged by means of a second imaging hologram of the holographic optical element from second detection light reflected on the object.
  • the first imaging hologram and the second imaging hologram differ from one another.
  • the first light source is driven to transmit the first detection light in a first time interval and the second light source is driven to transmit the second detection light in a second time interval.
  • the first time interval and the second time interval do not overlap in time.
  • the first light source is activated in step 930 of activation in a first operating mode of the device and the second light source is activated in a second operating mode of the device.
  • step 940 of the determination a transit time between a transmission time of the first detection light and a reception time of the first imaging light and / or between a transmission time of the second detection light and a reception time of the second
  • Imaging light determines a distance to the object in the vicinity of the device.
  • Method 900 in step 930 of driving the first light source in order to emit the first detection light, in step 910 of sending out the first detection light by means of the first light source, in step 920 of receiving the first imaging light is received by the detector device and In step 940 of determining a distance between the time of transmission of the first detection light and the time of reception of the first imaging light, a distance to the object in the surroundings of the device is determined.
  • the second light source is activated in the step 930 of driving in order to emit the second detection light, in step 910 of the transmission the second detection light is emitted by means of the second light source, the second is transmitted in step 920 of receiving Imaging light is received by means of the detector device and is determined in step 940 of determining a transit time between the
  • Method 1000 shows a flowchart of a method 1000 for recording according to an exemplary embodiment.
  • the method 1000 can be carried out in order to detect an environment of a device.
  • Method 1000 can be carried out in connection with the device from FIG. 3 or a similar device with a sensor device such as the sensor device from FIG. 2 or FIG. 3.
  • an operating status signal is read in, which represents an operating status of the device.
  • at least one light source of the sensor device is shown in FIG Controlled depending on the operating state.
  • a detection signal which is generated by means of the
  • Sensor device represents certain distance to an object in the environment, read by the sensor device to detect the environment of the device.
  • an exemplary embodiment comprises an “and / or” link between a first feature and a second feature, this is to be read in such a way that the embodiment according to one embodiment has both the first feature and the second feature and according to a further embodiment either only that has the first feature or only the second feature.

Abstract

Die Erfindung betrifft eine Sensorvorrichtung (200) zum Erfassen eines Umfelds eines Geräts, insbesondere eines mobilen Geräts mit autonomer Navigation, wie etwa eines Heim- oder Industrieroboters. Die Sensorvorrichtung (200) weist eine erste Lichtquelle (212) zum Aussenden von erstem Erfassungslicht (241) einer ersten Lichtcharakteristik in einen ersten Raumwinkelbereich und eine zweite Lichtquelle (222) zum Aussenden von zweitem Erfassungslicht (242) einer zweiten Lichtcharakteristik in einen zweiten Raumwinkelbereich auf. Die Lichtcharakteristiken und die Raumwinkelbereiche unterscheiden sich jeweils voneinander. Auch weist die Sensorvorrichtung (200) ein holografisches optisches Element (232) mit einem ersten Abbildungshologramm und einem zweiten Abbildungshologramm auf, die sich voneinander unterscheiden. Das erste Abbildungshologramm ist ausgebildet, um an einem Objekt OBJ in dem Umfeld reflektiertes erstes Erfassungslicht (251) in erstes Abbildungslicht abzubilden. Das zweite Abbildungshologramm ist ausgebildet, um an dem Objekt OBJ reflektiertes zweites Erfassungslicht (252) in zweites Abbildungslicht abzubilden. Die Sensorvorrichtung (200) weist ferner eine Detektoreinrichtung (234) auf, die ausgebildet ist, um das erste Abbildungslicht und das zweite Abbildungslicht für eine Erfassung des Umfelds des Geräts zu empfangen. Die Sensorvorrichtung (200) ist beispielsweise als eine sogenannte Time-of-Flight-Kamera (ToF-Kamera) ausgeführt. Das Erfassungslicht (241, 242) wird von dem Objekt OBJ zumindest teilweise als reflektiertes Erfassungslicht (251, 252) zurückgeworfen. Die erste Lichtquelle und die zweite Lichtquelle können abwechselnd oder alternierend angesteuert werden. Bei der Lichtcharakteristik eines Erfassungslichts (241, 242) kann es sich um Wellenlänge und/ oder eine räumliche Intensitätsverteilung des Erfassungslichts handeln. Die Lichtquellen (212, 222) können Erfassungslicht (241, 242) als einzelne Lichtpulse oder mit einer zeitlich periodisch modulierten Lichtintensität aussenden.

Description

Beschreibung
Titel
Sensorvorrichtung zum Erfassen eines Umfelds eines Geräts, Verfahren zum
Betreiben einer Sensorvorrichtung zum Erfassen eines Umfelds eines Geräts und Gerät mit der Sensorvorrichtung
Stand der Technik
Die Erfindung geht von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche aus. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.
Zur Umfelderfassung kann beispielsweise eine sogenannte Time-of-Flight- Kamera (ToF-Kamera) eingesetzt werden, bei der einzelnen Bildpunkten einer betrachteten Szene eine Entfernungsmessung eines jeweils erfassten Objektes zugeordnet ist. Eine solche ToF-Kamera liefert also kein zweidimensionales Bild, sondern eine dreidimensionale Punktwolke.
In der DE 10 2014 004 697 B4 ist ein System zur Distanzmessung offenbart, das ein Mehrwellenlängenholografiemodul zum Erfassen eines
Holografiemessdatensatzes für zumindest einen Messpunkt, zumindest zwei Holografielichtquellen zum Erzeugen von zumindest zwei kohärenten
Holografielichtstrahlen mit unterschiedlichen Wellenlängen, zumindest einen Strahlteiler, zumindest ein Beugungselement, ein Referenzierungsmodul und ein Auswertemodul aufweist.
Offenbarung der Erfindung
Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz eine
Vorrichtung, ein Gerät, ein Verfahren sowie schließlich ein entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte
Weiterbildungen und Verbesserungen der im unabhängigen Anspruch
angegebenen Vorrichtung möglich.
Gemäß Ausführungsformen kann insbesondere bei einer Sensorvorrichtung bzw. Time-of-Flight- Kamera (ToF-Kamera) eine Abbildungsoptik vor einem
Detektorarray durch ein holografisches optisches Element realisiert werden, das für mindestens zwei Lichtcharakteristika mindestens zwei unterschiedliche Abbildungseigenschaften bzw. Abbildungshologramme aufweist, sodass für Licht jeder dieser Lichtcharakteristika unterschiedliche Blickfelder auf das
Detektorarray abgebildet werden können. Hierbei können beispielsweise mindestens zwei Beleuchtungsmodi mit unterschiedlichen Lichtcharakteristika vorgesehen sein, wobei insbesondere jeweils eine der Lichtcharakteristika zu einem der Abbildungshologramme vor dem Detektorarray passen kann.
Vorteilhafterweise braucht gemäß Ausführungsformen insbesondere trotz einer festen Optik kein Kompromiss aus Auflösung und Blickfeld gefunden zu werden. Vielmehr kann beispielsweise ohne eine Einführung beweglicher Teile, wie z. B. komplizierter Objektive oder Objektivrevolver, eine Zuordnung von Pixeln bzw. Erfassungspunkten eines Detektorarrays der Sensorvorrichtung bzw. ToF- Kamera zu bestimmten Raumwinkeln eines Umfelds variabel gestaltet werden. Durch die Abbildungshologramme des holografischen optischen Elements können insbesondere eine Anzahl von virtuellen Detektorarray- Pixeln und ein Blickwinkel der ToF-Kamera effektiv vergrößert werden, beispielsweise verdoppelt werden.
Es wird eine Sensorvorrichtung zum Erfassen eines Umfelds eines Geräts vorgestellt, wobei die Sensorvorrichtung folgende Merkmale aufweist: eine erste Lichtquelle zum Aussenden von erstem Erfassungslicht einer ersten Lichtcharakteristik in einen ersten Raumwinkelbereich und eine zweite
Lichtquelle zum Aussenden von zweitem Erfassungslicht einer zweiten
Lichtcharakteristik in einen zweiten Raumwinkelbereich, wobei sich die erste Lichtcharakteristik und die zweite Lichtcharakteristik voneinander unterscheiden, wobei sich der erste Raumwinkelbereich und der zweite Raumwinkelbereich voneinander unterscheiden; ein holografisches optisches Element mit einem ersten Abbildungshologramm und einem zweiten Abbildungshologramm, wobei sich das erste
Abbildungshologramm und das zweite Abbildungshologramm voneinander unterscheiden, wobei das erste Abbildungshologramm ausgebildet ist, um an einem Objekt in dem Umfeld reflektiertes erstes Erfassungslicht in erstes Abbildungslicht abzubilden, wobei das zweite Abbildungshologramm ausgebildet ist, um an dem Objekt reflektiertes zweites Erfassungslicht in zweites
Abbildungslicht abzubilden; und eine Detektoreinrichtung, die ausgebildet ist, um das erste Abbildungslicht und das zweite Abbildungslicht für eine Erfassung des Umfelds des Geräts zu empfangen.
Die Sensorvorrichtung kann als eine sogenannte Time-of-Flight- Kamera mit holografischer Abbildungsoptik ausgeführt sein. Das Erfassungslicht kann im Nahinfrarotbereich liegen. Die Raumwinkelbereiche können in dem Umfeld des Geräts angeordnet sein. Das Objekt kann insbesondere einen Punkt oder einen Teilabschnitt eines Gegenstands repräsentieren. Die Detektoreinrichtung kann als ein sogenanntes Detektorarray mit einer Mehrzahl von Erfassungspunkten ausgeformt sein oder ein entsprechendes Detektorarray umfassen. Das
Detektorarray kann zum zeitlich versetzten Erfassen des ersten Abbildungslichts und des zweiten Abbildungslichts verwendet werden. Somit kann zu einem ersten Zeitpunkt ein Anteil des ersten Abbildungslichts von einem
Erfassungspunkt des Detektorarrays und zu einem zweiten Zeitpunkt ein Anteil des zweiten Abbildungslichts von demselben Erfassungspunkt des
Detektorarrays erfasst werden. Aus einer Mehrzahl von Distanzen zu einer Mehrzahl von Objekten bzw. einzelnen Punkten eines Gegenstands oder Objekts kann eine räumliche Karte des Umfelds generiert werden.
Gemäß einer Ausführungsform kann die Sensorvorrichtung eine Steuereinheit aufweisen, die ausgebildet sein kann, um aus einer Laufzeit zwischen einem Aussendezeitpunkt des ersten Erfassungslichts und einem Empfangszeitpunkt des ersten Abbildungslichts und zusätzlich oder alternativ zwischen einem Aussendezeitpunkt des zweiten Erfassungslichts und einem Empfangszeitpunkt des zweiten Abbildungslichts eine Distanz zu dem Objekt zu bestimmen. Eine solche Ausführungsform bietet den Vorteil, dass die Distanz zuverlässig, schnell und genau bestimmt werden kann.
Dabei kann die Steuereinheit ausgebildet sein, die erste Lichtquelle anzusteuern, um das erste Erfassungslicht in einem ersten Zeitintervall auszusenden, und die zweite Lichtquelle anzusteuern, um das zweite Erfassungslicht in einem zweiten Zeitintervall auszusenden. Hierbei können das erste Zeitintervall und das zweite Zeitintervall zeitlich überlappungsfrei sein. Insbesondere können die erste Lichtquelle und die zweite Lichtquelle abwechselnd oder alternierend angesteuert werden. Eine solche Ausführungsform bietet den Vorteil, dass eine exakte und zuverlässige Distanzmessung und damit 3- D- Kartierung des Umfelds ermöglicht werden kann.
Auch kann die Steuereinheit ausgebildet sein, in einem ersten Betriebsmodus des Geräts die erste Lichtquelle anzusteuern, um das erste Erfassungslicht auszusenden, und das erste Abbildungslicht von der Detektoreinrichtung einzulesen, und in einem zweiten Betriebsmodus des Geräts die zweite
Lichtquelle anzusteuern, um das zweite Erfassungslicht auszusenden, und das zweite Abbildungslicht von der Detektoreinrichtung einzulesen. Eine solche Ausführungsform bietet den Vorteil, dass unterschiedliche Aufgaben der
Umfelderfassung mittels einer einzigen Sensorvorrichtung realisiert werden können.
Gemäß einer Ausführungsform kann das erste Abbildungshologramm
ausgebildet sein, um das erste Abbildungslicht auf zumindest eine Teilmenge von Erfassungspunkten der Detektoreinrichtung abzubilden. Hierbei kann das zweite Abbildungshologramm ausgebildet sein, um das zweite Abbildungslicht auf zumindest eine Teilmenge von Erfassungspunkten der Detektoreinrichtung abzubilden. Eine solche Ausführungsform bietet den Vorteil, dass insbesondere ein vergrößerter Raumwinkelbereich mittels einer Detektoreinrichtung mit gegebener Pixelanzahl erfasst werden kann und zusätzlich oder alternativ verschiedene Raumwinkelbereiche an unterschiedlichen Stellen des Umfelds und zusätzlich oder alternativ mit unterschiedlicher Auflösung erfasst werden können.
Insbesondere kann die erste Lichtcharakteristik eine erste Wellenlänge und zusätzlich oder alternativ eine erste räumliche Intensitätsverteilung sein. Hierbei kann die zweite Lichtcharakteristik eine zweite Wellenlänge und zusätzlich oder alternativ eine zweite räumliche Intensitätsverteilung sein. Eine solche
Ausführungsform bietet den Vorteil, dass eine effiziente Nutzung der
Sensorvorrichtung ermöglicht werden kann, um ein Blickfeld bei gegebener Hardware zu vergrößern. Es ist im Sinne einer exakten Distanzmessung und flexiblen Umfelderfassung vorteilhaft, wenn Beleuchtungsmodi der Lichtquellen sich durch unterschiedliche Lichtverteilungen auszeichnen, die auf Blickfelder zugehöriger Abbildungshologramme abgestimmt sind.
Ferner kann die erste Lichtquelle ausgebildet sein, um das erste Erfassungslicht als einzelne Lichtpulse oder mit einer zeitlich periodisch modulierten
Lichtintensität auszusenden. Hierbei kann die zweite Lichtquelle ausgebildet sein, um das zweite Erfassungslicht als einzelne Lichtpulse oder mit einer zeitlich periodisch modulierten Lichtintensität auszusenden. Eine solche
Ausführungsform bietet den Vorteil, dass je nach Anwendungsfall und konkreten Anforderungen eine geeignete Beleuchtungsstrategie gewählt werden kann. Dabei können bedarfsabhängig kostengünstige oder hochwertige Lichtquellen eingesetzt werden.
Zudem können die erste Lichtquelle und die zweite Lichtquelle in einer gemeinsamen Beleuchtungseinheit mit einem gemeinsamen Gehäuse angeordnet sein. Eine solche Ausführungsform bietet den Vorteil, dass die Sensorvorrichtung platzsparend, kostengünstig und kompakt realisiert werden kann.
Auch kann die Sensorvorrichtung zumindest ein Lichtformungselement zum Formen des ersten Erfassungslichts und des zweiten Erfassungslichts aufweisen. Hierbei kann das Lichtformungselement ausgebildet sein, um den ersten Raumwinkelbereich und den zweiten Raumwinkelbereich auf ein Blickfeld des holografischen optischen Elements und zusätzlich oder alternativ der Detektoreinrichtung abzustimmen. Dabei kann das Lichtformungselement ausgebildet sein, um eine homogene Lichtverteilung oder eine inhomogene Lichtverteilung des ersten Erfassungslichts und eine homogene Lichtverteilung oder eine inhomogene Lichtverteilung des zweiten Erfassungslichts zu bewirken. Als Lichtformungselement kann beispielsweise ein diffraktives optisches
Element, ein holografisches optisches Element, ein Diffusor, ein refraktives Element, ein räumlicher Lichtmodulator oder eine Kombination der vorstehend genannten Elemente verwendet werden. Eine solche Ausführungsform bietet den Vorteil, dass unterschiedliche, weit auseinander liegende und zusätzlich oder alternativ umfangreiche Raumwinkelbereiche auf einfache Weise erfasst werden können.
Ferner kann die Sensorvorrichtung eine Filtereinrichtung zum Durchlässen des ersten Abbildungslichts und des zweiten Abbildungslichts zu der
Detektoreinrichtung und zum Herausfiltern von Umgebungslicht aufweisen. Die Filtereinrichtung kann einen Durchlassbereich für als Lichtcharakteristika genutzte Wellenlängen aufweisen. Als Filtereinrichtung kann beispielsweise ein Bandpassfilter, ein dielektrischer Interferenzfilter, ein Kantenfilter, eingefärbter, für Licht im nahen Infrarot durchlässiger und für sichtbares Licht undurchlässiger Kunststoff oder eine je nach Beleuchtungsmodus auf eine jeweils als
Lichtcharakteristik genutzte Wellenlänge einstellbare Filtereinrichtung, wie beispielsweise ein Fabry-Perot- Etalon, verwendet werden. Eine solche
Ausführungsform bietet den Vorteil, dass die Detektoreinrichtung zuverlässig vor Störlicht bzw. Fremdlicht geschützt werden kann.
Zudem kann die Sensorvorrichtung zumindest eine weitere Lichtquelle zum Aussenden von weiterem Erfassungslicht einer weiteren Lichtcharakteristik in einen weiteren Raumwinkelbereich aufweisen. Der weitere Raumwinkelbereich kann sich von dem ersten Raumwinkelbereich und dem zweiten
Raumwinkelbereich unterscheiden. Hierbei kann das holografische optische Element zumindest ein weiteres Abbildungshologramm aufweisen. Das weitere Abbildungshologramm kann sich von dem ersten Abbildungshologramm und dem zweiten Abbildungshologramm unterscheiden. Dabei kann das weitere
Abbildungshologramm ausgebildet sein, um an dem Objekt reflektiertes weiteres Erfassungs licht in weiteres Abbildungslicht abzubilden. Die Detektoreinrichtung kann ausgebildet sein, um das weitere Abbildungslicht für eine Erfassung des Umfelds des Geräts zu empfangen. Eine solche Ausführungsform bietet den Vorteil, dass ein Blickfeld, eine Nutzungsvielfalt und zusätzlich oder alternativ ein Funktionsumfang der Sensorvorrichtung weiter vergrößert werden kann.
Es wird auch ein Gerät, insbesondere mobiles Gerät mit autonomer Navigation, Gerät mit Gestensteuerung, Fahrzeug mit Innenraumüberwachung, Fahrzeug mit Umfelderfassung oder Industrieroboter mit Umfelderfassung, mit einer
Ausführungsform der vorstehend genannten Sensorvorrichtung vorgestellt.
Beispiele für ein mobiles Gerät mit autonomer Navigation können ein
Saugroboter oder ein Mähroboter sein. Bei einem Fahrzeug kann die
Sensorvorrichtung als eine Fahrzeugkamera zur Innenraumüberwachung und zusätzlich oder alternativ zur Umfelderfassung verwendet werden.
Es wird ferner ein Verfahren zum Betreiben einer Sensorvorrichtung zum
Erfassen eines Umfelds eines Geräts vorgestellt, wobei das Verfahren folgende Schritte aufweist:
Aussenden von erstem Erfassungslicht einer ersten Lichtcharakteristik in einen ersten Raumwinkelbereich mittels einer ersten Lichtquelle und von zweitem Erfassungslicht einer zweiten Lichtcharakteristik in einen zweiten
Raumwinkelbereich mittels einer zweiten Lichtquelle, wobei sich die erste Lichtcharakteristik und die zweite Lichtcharakteristik voneinander unterscheiden, wobei sich der erste Raumwinkelbereich und der zweite Raumwinkelbereich voneinander unterscheiden; und
Empfangen von erstem Abbildungslicht und zweitem Abbildungslicht mittels einer Detektoreinrichtung für eine Erfassung des Umfelds des Geräts, wobei das erste Abbildungslicht mittels eines ersten Abbildungshologramms eines holografischen optischen Elements aus an einem Objekt in dem Umfeld reflektiertem erstem Erfassungslicht abgebildet ist, wobei das zweite Abbildungslicht mittels eines zweiten Abbildungshologramms des holografischen optischen Elements aus an dem Objekt reflektiertem zweitem Erfassungslicht abgebildet ist, wobei sich das erste Abbildungshologramm und das zweite Abbildungshologramm voneinander unterscheiden.
Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einer Vorrichtung oder einem Steuergerät implementiert sein.
Es wird auch ein Verfahren zum Erfassen eines Umfelds eines Geräts vorgestellt, wobei das Verfahren folgende Schritte aufweist:
Einlesen eines Betriebszustandssignals, das einen Betriebszustand des Geräts repräsentiert;
Ansteuern zumindest einer Lichtquelle der Sensorvorrichtung in Abhängigkeit von dem Betriebszustand; und
Einlesen eines Detektionssignals, das eine mittels der Sensorvorrichtung bestimmte Distanz zu einem Objekt in dem Umfeld repräsentiert, von der Sensorvorrichtung, um das Umfeld des Geräts zu erfassen.
Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.
Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend
beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.
Ausführungsbeispiele des hier vorgestellten Ansatzes sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt: Fig. 1 eine schematische Darstellung einer Time-of-Flight- Kamera;
Fig. 2 eine schematische Darstellung einer Sensorvorrichtung gemäß einem Ausführungsbeispiel;
Fig. 3 eine schematische Darstellung eines Geräts mit der Sensorvorrichtung aus Fig. 2;
Fig. 4 eine schematische Darstellung der Sensorvorrichtung aus Fig. 2 bzw. Fig. 3 in einem Umfeld;
Fig. 5 eine schematische Darstellung der Sensorvorrichtung aus Fig. 2 bzw. Fig. 3 in einem Umfeld;
Fig. 6 eine schematische Darstellung des Geräts aus Fig. 3 in einem Umfeld;
Fig. 7 eine schematische Darstellung des Geräts aus Fig. 3 in einem Umfeld;
Fig. 8 eine schematische Darstellung des Geräts aus Fig. 3 in einem Umfeld;
Fig. 9 ein Ablaufdiagramm eines Verfahrens zum Betreiben gemäß einem
Ausführungsbeispiel; und
Fig. 10 ein Ablaufdiagramm eines Verfahrens zum Erfassen gemäß einem Ausführungsbeispiel.
In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren
dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche
Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
Fig. 1 zeigt eine schematische Darstellung einer Time-of-Flight- Kamera 100. in einem Umfeld der Time-of-Flight- Kamera 100 ist ein Objekt OBJ angeordnet. Die Time-of-Flight- Kamera 100 besteht aus mindestens einer Beleuchtungseinheit 101, die Licht 102 aussendet, und einer Empfangseinheit 103, die von dem Objekt OBJ zurückgeworfenes Licht 104 empfängt.
Die Beleuchtungseinheit 101 weist zumindest eine Lichtquelle 111 auf, z. B. eine LED oder Laserdiode, die Licht der Wellenlänge l, meist im Nahinfrarot- Bereich zwischen 700 und 1100 Nanometer, aussendet. Zusätzlich ist mindestens ein Lichtformungselement 112 vorgesehen, das für eine bestimmte räumliche Verteilung des von der Lichtquelle 111 emittierten Lichts 102 sorgt.
Die Empfangseinheit 103 weist zumindest ein Detektorarray 131 auf. Ein weiterer Bestandteil der Empfangseinheit 103 ist ein optisches Element 132, um das zurückgeworfene Licht 104 auf das Detektorarray 131 abzubilden. Es handelt sich bei dem optischen Element 132 um eine Linse, insbesondere eine Fixfokus- Linse. Damit ist das Blickfeld festgelegt und eine Veränderung des Blickfelds würde einen Austausch der Linse bzw. des optischen Elements 132 erfordern. Ferner ist ein Bandpassfilter 133 eingebaut, der nur Licht in einem engen Spektralbereich um die von der Lichtquelle 111 emittierte Wellenlänge l passieren lässt.
Fig. 2 zeigt eine schematische Darstellung einer Sensorvorrichtung 200 gemäß einem Ausführungsbeispiel. Die Sensorvorrichtung 200 ist ausgebildet, um ein Umfeld eines Geräts zu erfassen. Dabei ist die Sensorvorrichtung 200 in oder an dem Gerät zumindest temporär anbringbar. Von dem Umfeld ist in der
Darstellung von Fig. 2 ein Objekt OBJ gezeigt. Die Sensorvorrichtung 200 ist gemäß dem hier dargestellten Ausführungsbeispiel als eine sogenannte Time-of- Flight- Kamera (ToF-Kamera) ausgeführt.
Die Sensorvorrichtung 200 weist zumindest zwei Beleuchtungseinheiten 210 und 220, gemäß dem hier dargestellten Ausführungsbeispiel eine erste
Beleuchtungseinheit 210 und eine zweite Beleuchtungseinheit 220, und eine Detektionseinheit 230 auf.
Die erste Beleuchtungseinheit 210 weist eine erste Lichtquelle 212 auf. Die erste Lichtquelle 212 ist ausgebildet, um erstes Erfassungslicht 241 einer ersten Lichtcharakteristik in einen ersten Raumwinkelbereich auszusenden. Die zweite Beleuchtungseinheit 220 weist eine zweite Lichtquelle 222 auf. Die zweite Lichtquelle 222 ist ausgebildet, um zweites Erfassungslicht 242 einer zweiten Lichtcharakteristik in einen zweiten Raumwinkelbereich auszusenden. Hierbei unterscheiden sich die erste Lichtcharakteristik, mit der das erste Erfassungslicht 241 ausgesendet wird, und die zweite Lichtcharakteristik, mit der das zweite Erfassungs licht 242 ausgesendet wird, voneinander. Ferner unterscheiden sich der erste Raumwinkelbereich, in den das erste Erfassungslicht 241 ausgesendet wird, und der zweite Raumwinkelbereich, in den das zweite Erfassungs licht 242 ausgesendet wird, voneinander.
Gemäß dem in Fig. 2 dargestellten Ausführungsbeispiel weist die erste
Beleuchtungseinheit 210 ferner ein erstes Lichtformungselement 214 auf. Das erste Lichtformungselement 214 ist ausgebildet, um das erste Erfassungslicht 241 zu formen. Das erste Lichtformungselement 214 ist ausgebildet, um den ersten Raumwinkelbereich auf ein Blickfeld des holografischen optischen Elements 232 und/oder der Detektoreinrichtung 234 abzustimmen. Zusätzlich oder alternativ ist das erste Lichtformungselement 214 ausgebildet, um eine homogene Lichtverteilung oder eine inhomogene Lichtverteilung des ersten Erfassungslichts 241 zu bewirken. Auch weist die zweite Beleuchtungseinheit 220 ferner ein zweites Lichtformungselement 224 auf. Das zweite
Lichtformungselement 224 ist ausgebildet, um das zweite Erfassungslicht 242 zu formen. Das zweite Lichtformungselement 224 ist ausgebildet, um den zweiten Raumwinkelbereich auf ein Blickfeld des holografischen optischen Elements 232 und/oder der Detektoreinrichtung 234 abzustimmen. Zusätzlich oder alternativ ist das zweite Lichtformungselement 224 ausgebildet, um eine homogene
Lichtverteilung oder eine inhomogene Lichtverteilung des zweiten
Erfassungslichts 242 zu bewirken.
Insbesondere handelt es sich bei der ersten Lichtcharakteristik des ersten Erfassungslichts 241 um eine erste Wellenlänge und/oder eine erste räumliche Intensitätsverteilung des ersten Erfassungslichts 241. Somit ist die erste
Lichtquelle 212 ausgebildet, um das erste Erfassungslicht 241 mit einer ersten Wellenlänge und/oder einer ersten räumlichen Intensitätsverteilung
auszusenden. Ebenso handelt es sich bei der zweiten Lichtcharakteristik des zweiten Erfassungslichts 242 um eine zweite Wellenlänge und/oder eine zweite räumliche Intensitätsverteilung des zweiten Erfassungslichts 242. Somit ist die zweite Lichtquelle 222 ausgebildet, um das zweite Erfassungs licht 242 mit einer zweiten Wellenlänge und/oder einer zweiten räumlichen Intensitätsverteilung auszusenden.
Gemäß einem Ausführungsbeispiel ist die erste Lichtquelle 212 ausgebildet, um das erste Erfassungslicht 241 in Gestalt einzelner Lichtpulse oder mit einer zeitlich periodisch moderierten Lichtintensität auszusenden. Ebenso ist die zweite Lichtquelle 222 gemäß einem Ausführungsbeispiel ausgebildet, um das zweite Erfassungslicht 242 in Gestalt einzelner Lichtpulse oder mit einer zeitlich periodisch moderierten Lichtintensität auszusenden.
Das erste Erfassungslicht 241 wird von dem Objekt OBJ zumindest teilweise als reflektiertes erstes Erfassungslicht 251 zurückgeworfen bzw. reflektiert. Das zweite Erfassungslicht 242 wird von dem Objekt OBJ zumindest teilweise als reflektiertes zweites Erfassungslicht 252 zurückgeworfen bzw. reflektiert.
Die Detektionseinheit 230 weist ein holografisches optisches Element 232 und eine Detektoreinrichtung 234 auf. Das holografische optische Element 232 ist ausgebildet, um das reflektierte erste Erfassungslicht 251 und das reflektierte zweite Erfassungslicht 252 auf die Detektoreinrichtung 234 abzubilden. Das holografische optische Element 232 weist ein erstes Abbildungshologramm und ein zweites Abbildungshologramm auf. Hierbei unterscheiden sich das erste Abbildungshologramm und das zweite Abbildungshologramm des holografischen optischen Elements 232 voneinander. Das erste Abbildungshologramm ist ausgebildet, um das an einem Objekt OBJ reflektierte erste Erfassungslicht 251 in erstes Abbildungslicht abzubilden. Das zweite Abbildungshologramm ist ausgebildet, um das an dem Objekt OBJ reflektierte zweite Erfassungslicht 252 in zweites Abbildungslicht abzubilden. Die Detektoreinrichtung 234 ist ausgebildet, um für eine Erfassung des Umfelds des Geräts das erste
Abbildungslicht und das zweite Abbildungslicht von dem holografischen optischen Element 232 zu empfangen. Insbesondere ist die Detektoreinrichtung 234 ausgebildet, um das erste Erfassungslicht und das zweite Erfassungslicht zu erfassen bzw. zu detektieren. Insbesondere ist das erste Abbildungshologramm des holografischen optischen Elements 232 ausgebildet, um das erste Abbildungslicht auf zumindest eine Teilmenge von Erfassungspunkten der Detektoreinrichtung 234 abzubilden. Ferner ist das zweite Abbildungshologramm des holografischen optischen Elements 232 insbesondere ausgebildet, um das zweite Abbildungslicht auf zumindest eine Teilmenge von Erfassungspunkten der Detektoreinrichtung 234 abzubilden.
Gemäß dem in Fig. 2 dargestellten Ausführungsbeispiel weist die
Detektionseinheit 230 auch eine Filtereinrichtung 236 auf. Die Filtereinrichtung 236 ist ausgebildet, um das erste Abbildungslicht und das zweite Abbildungslicht zu der Detektoreinrichtung 234 durchzulassen und um Umgebungslicht herauszufiltern.
Gemäß einem Ausführungsbeispiel können die erste Lichtquelle 212 und die zweite Lichtquelle 222 in einer gemeinsamen Beleuchtungseinheit mit einem gemeinsamen Gehäuse angeordnet sein. Hierbei können die erste Lichtquelle 212 und die zweite Lichtquelle 222 ein gemeinsames Lichtformungselement aufweisen. Anders ausgedrückt kann die gemeinsame Beleuchtungseinheit die erste Lichtquelle 212, die zweite Lichtquelle 222 und ein gemeinsames
Lichtformungselement aufweisen.
Gemäß einem weiteren Ausführungsbeispiel kann die Sensorvorrichtung 200 zumindest eine weitere Beleuchtungseinheit und/oder zumindest eine weitere Lichtquelle aufweisen. Die weitere Lichtquelle kann ausgebildet sein, um weiteres Erfassungslicht einer weiteren Lichtcharakteristik in einen weiteren Raumwinkelbereich auszusenden. Der weitere Raumwinkelbereich kann sich von dem ersten Raumwinkelbereich und dem zweiten Raumwinkelbereich unterscheiden. Hierbei kann das holografische optische Element 232 zumindest ein weiteres Abbildungshologramm aufweisen. Das weitere
Abbildungshologramm kann sich von dem ersten Abbildungshologramm und dem zweiten Abbildungshologramm unterscheiden. Dabei kann das weitere
Abbildungshologramm ausgebildet sein, um an dem Objekt OBJ reflektiertes weiteres Erfassungslicht in weiteres Abbildungslicht abzubilden. Die Detektoreinrichtung 234 kann ausgebildet sein, um das weitere Abbildungslicht für eine Erfassung des Umfelds des Geräts zu empfangen.
Wie es nachfolgend noch detaillierter erläutert wird, ist die Sensorvorrichtung 200 ausgebildet, um aus einer Laufzeit zwischen einem Aussendezeitpunkt des ersten Erfassungslichts 241 und einem Empfangszeitpunkt des ersten
Abbildungslichts und/oder zwischen einem Aussendezeitpunkt des zweiten Erfassungslichts 242 und einem Empfangszeitpunkt des zweiten Abbildungslichts eine Distanz zu dem Objekt OBJ zu bestimmen.
Anders ausgedrückt ist die Sensorvorrichtung 200 bzw. die Time-of-Flight- Kamera als ein Kamerasystem ausgeführt, bei dem einzelnen Bildpunkten einer betrachteten Szene eine Entfernungsmessung des jeweils erfassten Objektes OBJ zugeordnet ist. Die Sensorvorrichtung 200 bzw. ToF-Kamera 200 liefert also kein zweidimensionales Bild sondern eine dreidimensionale Punktwolke.
Anwendungen finden sich für die Sensorvorrichtung 200 in der Robotik, beispielsweise zur Umfelderfassung, Objekterkennung und dergleichen, im Automobilbereich, beispielsweise zur sogenannten Precrash detection,
Fußgängersicherheit, lnnenraum-/Fahrerbeobachtung und dergleichen, sowie auf dem Gebiet der Mensch-Maschine-Schnittsteilen HMI (Human Machine
Interface), beispielsweise für Computerspiele, Gestensteuerung und dergleichen.
Allgemein ausgedrückt beleuchtet ein To F- Kamerasystem wie die
Sensorvorrichtung 200 eine Szene in einem Umfeld beispielsweise mit zeitlich moduliertem Licht oder einzelnen Lichtpulsen. Eine Entfernungsinformation bzw. Distanzmessung wird gewonnen, indem für jedes Pixel der Sensorvorrichtung 200 die Laufzeit ti_ des Lichtes zum Ziel Beziehung zweite Objekt OBJ und zurück gemessen und mittels der bekannten Lichtgeschwindigkeit c die Distanz D=ctiJ 2 berechnet wird. Es ist dabei zwischen direkten und indirekten ToF-Verfahren zu unterscheiden. Beim direkten ToF-Verfahren werden einzelne Pulse des ersten Erfassungslichts 241 und des zweiten Erfassungslicht 242 ausgesendet und werden Laufzeiten bis zum Empfang der Echos erfasst. Beim indirekten ToF- Verfahren werden das erste Erfassungslicht 241 und das zweite Erfassungslicht 242 mit einer zeitlich periodisch modulierten Lichtintensität ausgesendet und wird eine Phasenverschiebung zwischen dem empfangenen und einem internen Referenzsignal gemessen.
Das von der Szene, insbesondere von dem Objekt OBJ, reflektierte
Erfassungslicht 251 und 252 wird durch das holografische optische Element 232 auf die Detektoreinrichtung 234 bzw. das Detektorarray 234 abgebildet, normalerweise auf jeden Einzeldetektor bzw. Erfassungspixel Licht aus einem bestimmten Raumwinkel. Bei der Detektoreinrichtung 234 kann es sich um einen CCD-Imager oder CMOS-Imager, ein PMD-, APD- oder SPAD-Array oder dergleichen handeln. Eine beispielhafte Auflösung von Erfassungspixein der Detektoreinrichtung 234 kann beispielsweise 320x240 Pixel oder 160x60 Pixel betragen. Beispielsweise ist bei der Sensorvorrichtung 200 in vielen
Anwendungen ein möglichst breites Blickfeld erwünscht, beispielsweise 60°x24° (horizontal/vertikal) oder mehr.
Jede der Beleuchtungseinheiten 210 und 220 weist zumindest eine Lichtquelle 212 bzw. 222 auf, beispielsweise in Gestalt von Leuchtdioden (LEDs) oder Laserdioden ausgeführt, die jeweils Erfassungslicht 241 bzw. 242 mit einer definierten Wellenlänge l, beispielsweise im Nahinfrarot- Bereich zwischen 700 und 1100 Nanometer, aussendet.
Zusätzlich kann mindestens ein Lichtformungselement 214 bzw. 224 vorgesehen sein, das eine definierte räumliche Verteilung des von den Lichtquellen 212 bzw. 222 emittierten Erfassungslichts 241 bzw. 242 bewirkt. Dieses
Lichtformungselement 214 bzw. 224 kann ein diffraktives optisches Element (DOE), ein holografisches optisches Element (HOE), ein Diffusor, ein refraktives Element (ROE, z.B. eine Linse) oder eine Kombination dieser Elemente sein. Denkbar sind ferner räumliche Lichtmodulatoren (spatial light modulators - SLM) wie z.B. DLP-Chips. Aufgabe des Lichtformungselements 214 bzw. 224 ist es beispielsweise, einen ausgeleuchteten Bereich auf das Blickfeld der
Detektionseinheit 230 abzustimmen. Radiometrisch ideal ist, wenn
Beleuchtungsbereich und Blickfeld der Sensorvorrichtung 200 die gleichen Raumwinkel abdecken. Eine Beleuchtung von Bereichen außerhalb des
Blickfelds würde Licht verschwenden, was angesichts der zwecks
Augensicherheit strikt begrenzten Gesamtintensität zu vermeiden ist. Das Blickfeld unvollständig auszuleuchten hingegen würde Detektorfläche
verschwenden, weil in einigen Bereichen keine 3D-Messung stattfinden würde. Außerdem kann das Lichtformungselement 214 bzw. 224 dazu dienen, eine homogene Lichtverteilung sicherzustellen oder, im Gegensatz dazu, bestimmte Bereiche intensiver zu beleuchten als andere.
Die Sensorvorrichtung 200 kann in mindestens zwei Beleuchtungsmodi betrieben werden, die durch unterschiedliche Wellenlängen (Aa, Ab, ...) und ggf. auch durch unterschiedliche räumliche Intensitätsverteilungen gekennzeichnet sind. Dazu sind die erste Lichtquelle 212 und die zweite Lichtquelle 222 als schmalbandige Lichtquellen, beispielsweise Laserdioden, und die
Lichtformungselemente 214 und 224, beispielsweise als DOEs, HOEs oder ROEs, vorgesehen. Die Wellenlängen liegen vorzugsweise im Nahinfrarotbereich zwischen 650 und 2500 Nanometer, bevorzugt zwischen 700 und 1100
Nanometer. Besonders bevorzugt sind in der Optoelektronik häufig verwendete Wellenlängen wie 785, 808, 830, 850, 905, 915, 945, 975 oder 980 Nanometer. Je nach verwendetem Beleuchtungsmodus ist nur eine der beiden
Beleuchtungseinheiten 210 oder 220 in Betrieb und es wird das erste
Erfassungslicht 241 der ersten Wellenlänge Aa oder das zweite Erfassungslicht 242 der zweiten Wellenlänge Ab emittiert.
Gemäß einem Ausführungsbeispiel sind die erste Lichtquelle 212 und die zweite Lichtquelle 222 sowie optional zuletzt eine weitere Lichtquelle in einem gemeinsamen Package oder Gehäuse und einem gemeinsamen lichtformendem Element vorgesehen. Unter Verwendung des holografischen optischen Elements 232 können für die unterschiedlichen Wellenlängen (Aa,Ab,...) unterschiedliche Lichtverteilungen erzeugt werden.
Je nach Beleuchtungsmodus hat das aus der Szene zum Beispiel von dem Objekt OBJ zurückgestreute bzw. reflektierte Erfassungslicht 251 bzw. 252 die erste oder die zweite bzw. die weitere Wellenlänge (Aa,Ab,...). Das holografische optische Element 232 weist für jede der verwendeten Wellenlängen ein
Abbildungshologramm auf, welches das betreffende reflektierte Erfassungslicht 251 bzw. 252 in gewünschter Weise auf die Detektoreinrichtung 234 bzw. das Detektorarray abbildet. Auch wenn Hologramme inhärent wellenlängenselektiv sind, ist ggf. ein
Bandpass- oder Kantenfilter als Filtereinrichtung 236 vorteilhaft, um die
Detektoreinrichtung 234 vor unerwünschter Hintergrundstrahlung zu schützen. Wichtig ist, dass die verwendete Filtereinrichtung 236 alle Wellenlängen des Erfassungslichts 241 bzw. 242 passieren lässt, entweder in Form spektral separater Durchlassbereiche, oder durch einen einzigen hinreichend breiten Durchlassbereich. Ist die Filtereinrichtung 236 als ein Bandpassfilter ausgeführt, kann es sich beispielsweise um einen dielektrischen Interferenzfilter handeln. Als besonders preisgünstige Lösung sind, z. B. für Infrarot- Fernbedienungen, Lichtschranken oder Annäherungssensoren, auch eingefärbte Kunststoffe nutzbar, die Infrarot-durchlässig, im sichtbaren Bereich aber schwarz bzw.
undurchlässig sind. Auch denkbar als Filtereinrichtung 236 ist ein Fabry-Perot- Etalon, das je nach Beleuchtungsmodus auf die jeweilige Wellenlänge eingestellt werden kann.
Fig. 3 zeigt eine schematische Darstellung eines Geräts 300 mit der
Sensorvorrichtung 200 aus Fig. 2. Das Gerät 300 weist die Sensorvorrichtung 200 zum Erfassen des Umfelds des Geräts 300 auf. Bei dem Gerät 300 handelt es sich insbesondere um ein mobiles Gerät mit autonomer Navigation, um ein Gerät mit Gestensteuerung, um ein Fahrzeug mit Innenraumüberwachung, um ein Fahrzeug mit Umfelderfassung oder um einen Industrieroboter mit
Umfelderfassung. Das Gerät 300 weist eine Funktionseinheit 305 auf, die mittels der Sensorvorrichtung 200 erfasste Informationen über das Umfeld des Geräts 300 verwendet. Die Funktionseinheit 305 und die Sensorvorrichtung 200 sind signalübertragungsfähig miteinander verbunden.
Von der Sensorvorrichtung 200 sind in der Darstellung von Fig. 3 lediglich die erste Beleuchtungseinheit 210, die zweite Beleuchtungseinheit 220,
Detektionseinheit 230 und eine Steuereinheit 360 gezeigt. Die Steuereinheit 360 ist signalübertragungsfähig mit der ersten Beleuchtungseinheit 210, der zweiten Beleuchtungseinheit 220 und der Detektionseinheit 230 verbunden.
Die Steuereinheit 360 ist ausgebildet, um aus einer Laufzeit zwischen einem Aussendezeitpunkt des ersten Erfassungslichts und einem Empfangszeitpunkt des ersten Abbildungslichts und/oder zwischen einem Aussendezeitpunkt des zweiten Erfassungslichts und einem Empfangszeitpunkt des zweiten
Abbildungslichts eine Distanz zu dem Objekt in dem Umfeld des Geräts 300 zu bestimmen.
Gemäß einem Ausführungsbeispiel ist die Steuereinheit 360 auch ausgebildet, die erste Lichtquelle bzw. die erste Beleuchtungseinheit 210 anzusteuern, um das erste Erfassungs licht in einem ersten Zeitintervall auszusenden. Ferner ist die Steuereinheit 360 dabei ausgebildet, die zweite Lichtquelle bzw. die zweite Beleuchtungseinheit 220 anzusteuern, um das zweite Erfassungslicht in einem zweiten Zeitintervall auszusenden. Dabei sind das erste Zeitintervall und das zweite Zeitintervall zeitlich überlappungsfrei. Zudem ist die Steuereinheit 360 gemäß einem Ausführungsbeispiel ausgebildet, in einem ersten Betriebsmodus des Geräts 300 die erste Lichtquelle bzw. die erste Beleuchtungseinheit 210 anzusteuern, um das erste Erfassungs licht auszusenden, und das erste
Abbildungslicht von der Detektoreinrichtung bzw. der Detektionseinheit 230 einzulesen. Hierbei ist die Steuereinheit 360 ausgebildet, in einem zweiten Betriebsmodus des Geräts 300 die zweite Lichtquelle bzw. die zweite
Beleuchtungseinheit 220 anzusteuern, um das zweite Erfassungslicht auszusenden, und das zweite Abbildungslicht von der Detektoreinrichtung bzw. der Detektionseinheit 230 einzulesen.
Fig. 4 zeigt eine schematische Darstellung der Sensorvorrichtung 200 aus Fig. 2 bzw. Fig. 3 in einem Umfeld. In der Darstellung von Fig. 4 sind die
Sensorvorrichtung 200, die Detektoreinrichtung 234 mit einem zur
Veranschaulichung eingezeichneten Array von Pixeln bzw. Erfassungspixein, erstes Abbildungslicht 461 sowie in dem Umfeld ein erster Raumwinkelbereich 471, ein zweiter Raumwinkelbereich 472, ein erstes Blickfeld 481 und ein zweites Blickfeld 482 gezeigt.
Der erste Raumwinkelbereich 471 ist bei einer Beleuchtung durch das erste Erfassungslicht der ersten Lichtquelle der Sensorvorrichtung 200 beleuchtbar.
Der zweite Raumwinkelbereich 472 ist bei einer Beleuchtung durch das zweite Erfassungslicht der zweiten Lichtquelle der Sensorvorrichtung 200 beleuchtbar. Das erste Blickfeld 481 repräsentiert einen mittels des ersten Abbildungshologramms des holografischen optischen Elements der
Sensorvorrichtung 200 abbildbaren Raumwinkelbereich. Das zweite Blickfeld 482 repräsentiert einen mittels des zweiten Abbildungshologramms des
holografischen optischen Elements der Sensorvorrichtung 200 abbildbaren Raumwinkelbereich. Ein gesamtes Blickfeld der Sensorvorrichtung 200 ergibt sich als eine Summe des ersten Blickfelds 481 und des zweiten Blickfelds 482. Hierbei ist der erste Raumwinkelbereich 471 auf das erste Blickfeld 481 abgestimmt. Der zweite Raumwinkelbereich 472 ist auf das zweite Blickfeld 482 abgestimmt.
In der Darstellung von Fig. 4 ist der erste Raumwinkelbereich 471 durch das erste Erfassungslicht beleuchtet. Der zweite Raumwinkelbereich 472 ist unbeleuchtet. Folglich ist mittels des ersten Abbildungshologramms des holografischen optischen Elements der Sensorvorrichtung 200 das erste
Abbildungslicht 461 auf die Detektoreinrichtung 234 abgebildet. Das erste Abbildungslicht 461 ist hierbei mit Ausnahme von Randpixeln auf die gesamte Pixelfläche der Detektoreinrichtung 234 abgebildet.
Fig. 5 zeigt eine schematische Darstellung der Sensorvorrichtung 200 aus Fig. 2 bzw. Fig. 3 in einem Umfeld. Die Darstellung in Fig. 5 entspricht hierbei der Darstellung aus Fig. 4 mit Ausnahme dessen, dass der zweite
Raumwinkelbereich 472 durch das zweite Erfassungslicht beleuchtet ist, wobei der erste Raumwinkelbereich 471 unbeleuchtet ist, sodass zweites
Abbildungslicht 562 mittels des zweiten Abbildungshologramms des
holografischen optischen Elements der Sensorvorrichtung 200 auf die
Detektoreinrichtung 234 abgebildet ist. Das zweite Abbildungslicht 562 ist hierbei mit Ausnahme von Randpixeln auf die gesamte Pixelfläche der
Detektoreinrichtung 234 abgebildet.
Unter Bezugnahme auf Fig. 4 und Fig. 5 sei nachfolgend kurz ein
Anwendungsbeispiel der Sensorvorrichtung 200 erläutert. Die Sensorvorrichtung 200 bzw. die ToF-Kamera 200 verfügt hierbei über zwei Betriebsmodi. In dem ersten Modus wird durch das erste Erfassungslicht mit einer ersten Wellenlänge Aa der erste Raumwinkelbereich 471 mit rechteckigem Querschnitt beleuchtet. In dem zweiten Modus wird durch das zweite Erfassungslicht mit einer zweiten Wellenlänge Ab der benachbarte zweite Raumwinkelbereich 472 mit gleichem Querschnitt beleuchtet. In der Darstellung von Fig. 4 bildet das holografische optische Element der Sensorvorrichtung 200 für die erste Wellenlänge Aa einen auf den ersten Raumwinkelbereich 471 abgestimmten Raumwinkelbereich als erstes Blickfeld 481 auf das Detektorarray bzw. die Detektoreinrichtung 234 ab.
In der Darstellung von Fig. 5 bildet das holografische optische Element der Sensorvorrichtung 200 für die zweite Wellenlänge Ab einen auf den zweiten Raumwinkelbereich 472 abgestimmten Raumwinkelbereich als zweites Blickfeld 482 auf die Detektoreinrichtung 234 ab. Durch alternierenden Einsatz der beiden Wellenlängen schaltet die Sensorvorrichtung 200 zwischen dem ersten
Raumwinkelbereich 471 und dem zweiten Raumwinkelbereich 472 hin und her, wodurch eine Anzahl der Pixel und ein Blickwinkel des Detektorarrays bzw. der Detektoreinrichtung 234 effektiv verdoppelt werden. Beträgt beispielsweise jedes der Blickfelder 481 und 482 einzelnen beispielsweise 15°xl0° und bildet dies auf eine Detektoreinrichtung 234 mit 160x100 Pixeln ab, so entsteht effektiv ein gesamtes Blickfeld von 30x10° mit einer Auflösung von 320x100 Pixel.
Fig. 6 zeigt eine schematische Darstellung des Geräts 300 aus Fig. 3 in einem Umfeld. Das Gerät 300 weist somit die Sensorvorrichtung aus Fig. 2 bzw. Fig. 3 oder eine ähnliche Sensorvorrichtung auf. In der Darstellung von Fig. 6 sind das Gerät 300, die Detektoreinrichtung 234 der Sensorvorrichtung mit einem zur Veranschaulichung eingezeichneten Array von Pixeln bzw. Erfassungspixein, erstes Abbildungslicht 661 sowie in dem Umfeld des Geräts 300 ein erster Raumwinkelbereich 671 und ein erstes Blickfeld 681 gezeigt.
Der erste Raumwinkelbereich 671 ist bei einer Beleuchtung durch das erste Erfassungslicht der ersten Lichtquelle der Sensorvorrichtung des Geräts 300 beleuchtbar. Das erste Blickfeld 681 repräsentiert einen mittels des ersten Abbildungshologramms des holografischen optischen Elements der
Sensorvorrichtung des Geräts 300 abbildbaren Raumwinkelbereich. Hierbei ist der erste Raumwinkelbereich 671 auf das erste Blickfeld 681 abgestimmt.
In der Darstellung von Fig. 6 ist der erste Raumwinkelbereich 671 durch das erste Erfassungslicht beleuchtet. Folglich ist mittels des ersten
Abbildungshologramms des holografischen optischen Elements der Sensorvorrichtung des Geräts 300 das erste Abbildungslicht 661 auf die
Detektoreinrichtung 234 abgebildet. Das erste Abbildungslicht 661 ist hierbei mit Ausnahme von Randpixeln auf die gesamte Pixelfläche der Detektoreinrichtung 234 abgebildet.
Fig. 7 zeigt eine schematische Darstellung des Geräts 300 aus Fig. 3 in einem Umfeld. Die Darstellung in Fig. 7 entspricht hierbei der Darstellung aus Fig. 6 mit Ausnahme dessen, dass statt des ersten Raumwinkelbereichs und des ersten Blickfelds ein zweiter Raumwinkelbereich 772 aus einer Mehrzahl von
Teilbereichen und ein zweites Blickfeld 782 aus einer Mehrzahl von Teilfeldern gezeigt sind. Die Teilbereiche des zweiten Raumwinkelbereichs 772 und die Teilfelder des zweiten Blickfelds 782 sind hierbei entlang einer ersten
Raumrichtung aufgereiht.
Der zweite Raumwinkelbereich 772 ist bei einer Beleuchtung durch das zweite Erfassungslicht der zweiten Lichtquelle der Sensorvorrichtung des Geräts 300 beleuchtbar. Das zweite Blickfeld 782 repräsentiert einen mittels des zweiten Abbildungshologramms des holografischen optischen Elements der
Sensorvorrichtung des Geräts 300 abbildbaren Raumwinkelbereich. Hierbei ist der zweite Raumwinkelbereich 772 auf das zweite Blickfeld 782 abgestimmt.
Der zweite Raumwinkelbereich 772 ist durch das zweite Erfassungslicht beleuchtet, sodass zweites Abbildungslicht 762 mittels des zweiten
Abbildungshologramms des holografischen optischen Elements der
Sensorvorrichtung des Geräts 300 auf die Detektoreinrichtung 234 abgebildet ist. Das zweite Abbildungslicht 762 ist hierbei in Gestalt von mit den Teilbereichen des zweiten Raumwinkelbereichs 772 und den Teilfeldern des zweiten Blickfelds 782 in Verbindung stehenden Flecken auf einen Teil einer Pixelfläche der Detektoreinrichtung 234 abgebildet.
Fig. 8 zeigt eine schematische Darstellung des Geräts 300 aus Fig. 3 in einem Umfeld. Die Darstellung in Fig. 8 entspricht hierbei der Darstellung aus Fig. 7 mit Ausnahme dessen, dass statt des zweiten Raumwinkelbereichs und des zweiten Blickfelds ein dritter Raumwinkelbereich 873 aus einer Mehrzahl von Teilbereichen und ein drites Blickfeld 883 aus einer Mehrzahl von Teilfeldern gezeigt sind. Die Teilbereiche des driten Raumwinkelbereichs 873 und die Teilfelder des driten Blickfelds 883 sind hierbei entlang einer zweiten
Raumrichtung aufgereiht, die sich von der ersten Raumrichtung aus Fig. 7 unterscheidet.
Der drite Raumwinkelbereich 873 ist bei einer Beleuchtung durch ein drites Erfassungslicht einer driten Lichtquelle der Sensorvorrichtung des Geräts 300 beleuchtbar. Das drite Blickfeld 883 repräsentiert einen mitels eines driten Abbildungshologramms des holografischen optischen Elements der
Sensorvorrichtung des Geräts 300 abbildbaren Raumwinkelbereich. Hierbei ist der drite Raumwinkelbereich 873 auf das drite Blickfeld 883 abgestimmt.
Der drite Raumwinkelbereich 873 ist durch das drite Erfassungslicht beleuchtet, sodass drites Abbildungslicht 863 mitels des driten Abbildungshologramms des holografischen optischen Elements der Sensorvorrichtung des Geräts 300 auf die Detektoreinrichtung 234 abgebildet ist. Das drite Abbildungslicht 863 ist hierbei in Gestalt von mit den Teilbereichen des driten Raumwinkelbereichs 873 und den Teilfeldern des driten Blickfelds 883 in Verbindung stehenden Flecken auf einen Teil einer Pixelfläche der Detektoreinrichtung 234 abgebildet.
Unter Bezugnahme auf Fig. 6, Fig. 7 und Fig. 8 sei nachfolgend kurz ein
Anwendungsbeispiel des Geräts 300 erläutert. Hierbei kann das Gerät 300 als ein SLAM-fähiger (SLAM=Simultaneous localization and mapping; simultane Lokalisierung und Abbildung) Heimroboter, z. B. ein autonomer Staubsauger, ausgeführt sein, der mit der Sensorvorrichtung als 3D-Sensor mit drei
Betriebsmodi ausgestatet ist. In einem ersten Betriebsmodus, wie es in Fig. 6 gezeigt ist, wird mit einer ersten Wellenlänge Aa ein rechteckiger erster
Raumwinkelbereich 671 vor dem Gerät 300 beleuchtet und wird ein Bild dieses Bereichs auf dem Detektor-Array bzw. der Detektoreinrichtung 234 erzeugt. Dieser erste Betriebsmodus liefert von einem zusammenhängenden, horizontal und vertikal begrenzten Blickfeld, z. B.15x15°, eine hochaufgelöste
dreidimensionale Punktwolke, die geeignet ist, in diesem ersten
Raumwinkelbereich 671 erfasste Objekte genauer zu klassifizieren. In einem zweiten Betriebsmodus, wie es in Fig. 7 gezeigt ist, wird Licht einer zweiten Wellenlänge Ab der Sensorvorrichtung nicht flächig, sondern als horizontal in weitem Winkel aufgereihte Spots bzw. Teilbereiche des zweiten
Raumwinkelbereichs 772 verteilt. Zu jedem dieser Teilbereiche gehört ein eng begrenztes Teilfeld des zweiten Blickfelds 782. Alle einzelnen Teilfelder des zweiten Blickfelds 782 werden durch das holografische optische Element der Sensorvorrichtung auf unterschiedliche Bereiche beziehen zweite Abschnitte der Detektoreinrichtung 234 abgebildet. In einem dritten Betriebsmodus, wie es in Fig. 8 gezeigt ist, wird mit einer dritten Wellenlänge Ac eine vertikal angeordnete Kette von Teilbereichen des dritten Raumwinkelbereichs 873 beleuchtet und wird diese ebenfalls auf die Detektoreinrichtung 234 abgebildet.
Das die Sensorvorrichtung aufweisende Gerät 300 kann beispielsweise zunächst in dem dritten Betriebsmodus sein Umfeld vermessen, während es sich einmal 360° um seine eigene Achse dreht. Wie ein Laserscanner mit der gleichen Anzahl individueller Laser tastet das Gerät 300 so das gesamte Umfeld in ebenso vielen Ebenen mit vordefinierbarer horizontaler Auflösung ab. Zur Fortbewegung schaltet das Gerät 300 in den zweiten Betriebsmodus und erfasst so ständig Raumwinkel in einem breiten Fächer, was geeignet ist, um sich an bereits bekannten Terrainmerkmalen des Umfelds zu orientieren und plötzlich auftauchende Hindernisse zu erkennen. Unmittelbar vor so einem Hindernis ermöglicht der erste Betriebsmodus eine genauere Betrachtung und
Klassifizierung von Objekten, was eine Entscheidung über ein weiteres Verhalten ermöglicht. Beispielsweise kann bei einem Haustier abgewartet werden, kann eine Staubflocke überfahren und eingesaugt werden, kann ein Kabel umfahren werden und kann bei einem unidentifizierbaren Objekt ein Nutzer benachrichtigt und um Anweisungen gebeten werden. Wann immer aus Sicht eines SLAM- Algorithmus erforderlich, kann ein neues Gesamtbild des Umfelds mit dem beschriebenen 360°-Manöver in dem dritten Betriebsmodus generiert werden.
Fig. 9 zeigt ein Ablaufdiagramm eines Verfahrens 900 zum Betreiben gemäß einem Ausführungsbeispiel. Das Verfahren 900 ist ausführbar, um eine
Sensorvorrichtung zum Erfassen eines Umfelds eines Geräts betreiben.
Insbesondere ist das Verfahren 900 ausführbar, um die Sensorvorrichtung aus einer der vorstehend genannten Figuren oder eine ähnliche Sensorvorrichtung zu betreiben. Das Verfahren 900 zum Betreiben weist einen Schritt 910 des Aussendens und einen Schritt 920 des Empfangens auf. Gemäß einem
Ausführungsbeispiel weist das Verfahren 900 zum Betreiben auch einen Schritt 930 Ansteuerns und/oder einen Schritt 940 des Bestimmens auf.
In dem Schritt 910 des Aussendens wird erstes Erfassungslicht einer ersten Lichtcharakteristik in einen ersten Raumwinkelbereich mittels einer ersten Lichtquelle ausgesendet und wird zweites Erfassungslicht einer zweiten
Lichtcharakteristik in einen zweiten Raumwinkelbereich mittels einer zweiten Lichtquelle ausgesendet. Die erste Lichtcharakteristik und die zweite
Lichtcharakteristik unterscheiden sich voneinander. Der erste
Raumwinkelbereich und der zweite Raumwinkelbereich unterscheiden sich ebenfalls voneinander. Somit wird in dem Schritt 910 des Aussendens mittels der ersten Lichtquelle das erste Erfassungslicht ausgesendet und mittels der zweiten Lichtquelle das zweite Erfassungslicht ausgesendet.
In dem Schritt 920 des Empfangens wird für eine Erfassung des Umfelds des Geräts erstes Abbildungslicht und zweites Abbildungslicht mittels einer
Detektoreinrichtung empfangen. Das erste Abbildungslicht ist mittels eines ersten Abbildungshologramms eines holografischen optischen Elements aus an einem Objekt in dem Umfeld reflektiertem erstem Erfassungslicht abgebildet. Das zweite Abbildungslicht ist mittels eines zweiten Abbildungshologramms des holografischen optischen Elements aus an dem Objekt reflektiertem zweitem Erfassungslicht abgebildet. Das erste Abbildungshologramm und das zweite Abbildungshologramm unterscheiden sich voneinander.
In dem Schritt 930 des Ansteuerns wird die erste Lichtquelle angesteuert, um das erste Erfassungslicht in einem ersten Zeitintervall auszusenden, und wird die zweite Lichtquelle angesteuert, um das zweite Erfassungslicht in einem zweiten Zeitintervall auszusenden. Das erste Zeitintervall und das zweite Zeitintervall sind zeitlich überlappungsfrei. Zusätzlich oder alternativ wird in dem Schritt 930 des Ansteuerns in einem ersten Betriebsmodus des Geräts die erste Lichtquelle angesteuert und wird in einem zweiten Betriebsmodus des Geräts die zweite Lichtquelle angesteuert. In dem Schritt 940 des Bestimmens wird aus einer Laufzeit zwischen einem Aussendezeitpunkt des ersten Erfassungslichts und einem Empfangszeitpunkt des ersten Abbildungslichts und/oder zwischen einem Aussendezeitpunkt des zweiten Erfassungslichts und einem Empfangszeitpunkt des zweiten
Abbildungslichts eine Distanz zu dem Objekt in dem Umfeld des Geräts bestimmt.
Gemäß einem Ausführungsbeispiel wird in einem ersten Durchgang des
Verfahrens 900 in dem Schritt 930 des Ansteuerns die erste Lichtquelle angesteuert, um das erste Erfassungslicht auszusenden, wird in dem Schritt 910 des Aussendens das erste Erfassungslicht mittels der ersten Lichtquelle ausgesendet, wird in dem Schritt 920 des Empfangens das erste Abbildungslicht mittels der Detektoreinrichtung empfangen und wird in dem Schritt 940 des Bestimmens aus einer Laufzeit zwischen dem Aussendezeitpunkt des ersten Erfassungslichts und dem Empfangszeitpunkt des ersten Abbildungslichts eine Distanz zu dem Objekt in dem Umfeld des Geräts bestimmt. In einem zweiten Durchgang des Verfahrens 900 wird in dem Schritt 930 des Ansteuerns die zweite Lichtquelle angesteuert, um das zweite Erfassungslicht auszusenden, wird in dem Schritt 910 des Aussendens das zweite Erfassungslicht mittels der zweiten Lichtquelle ausgesendet, wird in dem Schritt 920 des Empfangens das zweite Abbildungslicht mittels der Detektoreinrichtung empfangen und wird in dem Schritt 940 des Bestimmens aus einer Laufzeit zwischen dem
Aussendezeitpunkt des zweiten Erfassungslichts und dem Empfangszeitpunkt des zweiten Abbildungslichts eine Distanz zu dem Objekt oder einem weiteren Objekt in dem Umfeld des Geräts bestimmt.
Fig. 10 zeigt ein Ablaufdiagramm eines Verfahrens 1000 zum Erfassen gemäß einem Ausführungsbeispiel. Das Verfahren 1000 ist ausführbar, um ein Umfeld eines Geräts zu erfassen. Das Verfahren 1000 ist in Verbindung mit dem Gerät aus Fig. 3 oder einem ähnlichen Gerät mit einer Sensorvorrichtung wie der Sensorvorrichtung aus Fig. 2 bzw. Fig. 3 ausführbar.
In einem Schritt 1010 des Einlesens wird ein Betriebszustandssignal eingelesen, das einen Betriebszustand des Geräts repräsentiert. Nachfolgend wird in einem Schritt 1020 des Ansteuerns zumindest eine Lichtquelle der Sensorvorrichtung in Abhängigkeit von dem Betriebszustand angesteuert. Wiederum nachfolgend wird in einem Schritt 1030 ein Detektionssignal, das eine mittels der
Sensorvorrichtung bestimmte Distanz zu einem Objekt in dem Umfeld repräsentiert, von der Sensorvorrichtung eingelesen, um das Umfeld des Geräts zu erfassen.
Umfasst ein Ausführungsbeispiel eine„und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.

Claims

Ansprüche
1. Sensorvorrichtung (200) zum Erfassen eines Umfelds eines Geräts (300), wobei die Sensorvorrichtung (200) folgende Merkmale aufweist: eine erste Lichtquelle (212) zum Aussenden von erstem Erfassungs licht (241) einer ersten Lichtcharakteristik in einen ersten Raumwinkelbereich (471; 671) und eine zweite Lichtquelle (222) zum Aussenden von zweitem Erfassungslicht (242) einer zweiten Lichtcharakteristik in einen zweiten Raumwinkelbereich (472; 772), wobei sich die erste
Lichtcharakteristik und die zweite Lichtcharakteristik voneinander unterscheiden, wobei sich der erste Raumwinkelbereich (471; 671) und der zweite Raumwinkelbereich (472; 772) voneinander unterscheiden; ein holografisches optisches Element (232) mit einem ersten
Abbildungshologramm und einem zweiten Abbildungshologramm, wobei sich das erste Abbildungshologramm und das zweite
Abbildungshologramm voneinander unterscheiden, wobei das erste Abbildungshologramm ausgebildet ist, um an einem Objekt (OBJ) in dem Umfeld reflektiertes erstes Erfassungs licht (251) in erstes
Abbildungslicht (461; 661) abzubilden, wobei das zweite
Abbildungshologramm ausgebildet ist, um an dem Objekt (OBJ) reflektiertes zweites Erfassungs licht (252) in zweites Abbildungslicht (562; 762) abzubilden; und eine Detektoreinrichtung (234), die ausgebildet ist, um das erste
Abbildungslicht (461; 661) und das zweite Abbildungslicht (562; 762) für eine Erfassung des Umfelds des Geräts (300) zu empfangen.
2. Sensorvorrichtung (200) gemäß Anspruch 1, mit einer Steuereinheit (360), die ausgebildet ist, um aus einer Laufzeit zwischen einem Aussendezeitpunkt des ersten Erfassungslichts (241) und einem
Empfangszeitpunkt des ersten Abbildungslichts (461; 661) und/oder zwischen einem Aussendezeitpunkt des zweiten Erfassungslichts (242) und einem Empfangszeitpunkt des zweiten Abbildungslichts (562; 762) eine Distanz zu dem Objekt (OBJ) zu bestimmen.
3. Sensorvorrichtung (200) gemäß Anspruch 2, bei der die Steuereinheit (360) ausgebildet ist, die erste Lichtquelle (212) anzusteuern, um das erste Erfassungslicht (241) in einem ersten Zeitintervall auszusenden, und die zweite Lichtquelle (222) anzusteuern, um das zweite
Erfassungslicht (242) in einem zweiten Zeitintervall auszusenden, wobei das erste Zeitintervall und das zweite Zeitintervall zeitlich
überlappungsfrei sind.
4. Sensorvorrichtung (200) gemäß einem der Ansprüche 2 bis 3, bei der die Steuereinheit (360) ausgebildet ist, in einem ersten Betriebsmodus des Geräts (300) die erste Lichtquelle (212) anzusteuern, um das erste Erfassungslicht (241) auszusenden, und das erste Abbildungslicht (461; 661) von der Detektoreinrichtung (234) einzulesen, und in einem zweiten Betriebsmodus des Geräts (300) die zweite Lichtquelle (222) anzusteuern, um das zweite Erfassungslicht (242) auszusenden, und das zweite Abbildungslicht (562; 762) von der Detektoreinrichtung (234) einzulesen.
5. Sensorvorrichtung (200) gemäß einem der vorangegangenen
Ansprüche, bei der das erste Abbildungshologramm ausgebildet ist, um das erste Abbildungslicht (461; 661) auf zumindest eine Teilmenge von Erfassungspunkten der Detektoreinrichtung (234) abzubilden, wobei das zweite Abbildungshologramm ausgebildet ist, um das zweite
Abbildungslicht (562; 762) auf zumindest eine Teilmenge von
Erfassungspunkten der Detektoreinrichtung (234) abzubilden.
6. Sensorvorrichtung (200) gemäß einem der vorangegangenen
Ansprüche, bei der die erste Lichtcharakteristik eine erste Wellenlänge und/oder eine erste räumliche Intensitätsverteilung ist, wobei die zweite Lichtcharakteristik eine zweite Wellenlänge und/oder eine zweite räumliche Intensitätsverteilung ist.
7. Sensorvorrichtung (200) gemäß einem der vorangegangenen
Ansprüche, bei der die erste Lichtquelle (212) ausgebildet ist, um das erste Erfassungslicht (241) als einzelne Lichtpulse oder mit einer zeitlich periodisch modulierten Lichtintensität auszusenden, wobei die zweite Lichtquelle (222) ausgebildet ist, um das zweite Erfassungslicht (242) als einzelne Lichtpulse oder mit einer zeitlich periodisch modulierten Lichtintensität auszusenden.
8. Sensorvorrichtung (200) gemäß einem der vorangegangenen
Ansprüche, bei der die erste Lichtquelle (212) und die zweite Lichtquelle (222) in einer gemeinsamen Beleuchtungseinheit mit einem
gemeinsamen Gehäuse angeordnet sind.
9. Sensorvorrichtung (200) gemäß einem der vorangegangenen
Ansprüche, mit zumindest einem Lichtformungselement (214, 224) zum Formen des ersten Erfassungslichts (241) und des zweiten
Erfassungslichts (242), wobei das Lichtformungselement (214, 224) ausgebildet ist, um den ersten Raumwinkelbereich (471; 671) und den zweiten Raumwinkelbereich (472; 772) auf ein Blickfeld (481, 482; 681, 782) des holografischen optischen Elements (232) und/oder der Detektoreinrichtung (234) abzustimmen, wobei das
Lichtformungselement (214, 224) ausgebildet ist, um eine homogene Lichtverteilung oder eine inhomogene Lichtverteilung des ersten Erfassungslichts (241) und eine homogene Lichtverteilung oder eine inhomogene Lichtverteilung des zweiten Erfassungslichts (242) zu bewirken.
10. Sensorvorrichtung (200) gemäß einem der vorangegangenen
Ansprüche, mit einer Filtereinrichtung (236) zum Durchlässen des ersten Abbildungslichts (461; 661) und des zweiten Abbildungslichts (562; 762) zu der Detektoreinrichtung (234) und zum Herausfiltern von
Umgebungslicht.
11. Sensorvorrichtung (200) gemäß einem der vorangegangenen
Ansprüche, mit zumindest einer weiteren Lichtquelle zum Aussenden von weiterem Erfassungs licht einer weiteren Lichtcharakteristik in einen weiteren Raumwinkelbereich (873), wobei sich der weitere
Raumwinkelbereich (873) von dem ersten Raumwinkelbereich (471;
671) und dem zweiten Raumwinkelbereich (472; 772) unterscheidet, wobei das holografische optische Element (232) zumindest ein weiteres Abbildungshologramm aufweist, wobei sich das weitere
Abbildungshologramm von dem ersten Abbildungshologramm und dem zweiten Abbildungshologramm unterscheidet, wobei das weitere Abbildungshologramm ausgebildet ist, um an dem Objekt (OBJ) reflektiertes weiteres Erfassungslicht in weiteres Abbildungslicht (863) abzubilden, wobei die Detektoreinrichtung (234) ausgebildet ist, um das weitere Abbildungslicht (863) für eine Erfassung des Umfelds des Geräts (300) zu empfangen.
12. Gerät (300), insbesondere mobiles Gerät mit autonomer Navigation, Gerät mit Gestensteuerung, Fahrzeug mit Innenraumüberwachung, Fahrzeug mit Umfelderfassung oder Industrieroboter mit
Umfelderfassung, mit einer Sensorvorrichtung (200) gemäß einem der vorangegangenen Ansprüche.
13. Verfahren (900) zum Betreiben einer Sensorvorrichtung (200) zum
Erfassen eines Umfelds eines Geräts (300), wobei das Verfahren (900) folgende Schritte aufweist:
Aussenden (910) von erstem Erfassungslicht (241) einer ersten
Lichtcharakteristik in einen ersten Raumwinkelbereich (471; 671) mittels einer ersten Lichtquelle (212) und von zweitem Erfassungslicht (242) einer zweiten Lichtcharakteristik in einen zweiten Raumwinkelbereich (472; 772) mittels einer zweiten Lichtquelle (222), wobei sich die erste Lichtcharakteristik und die zweite Lichtcharakteristik voneinander unterscheiden, wobei sich der erste Raumwinkelbereich (471; 671) und der zweite Raumwinkelbereich (472; 772) voneinander unterscheiden; und
Empfangen (920) von erstem Abbildungslicht (461; 661) und zweitem Abbildungslicht (562; 762) mittels einer Detektoreinrichtung (234) für eine Erfassung des Umfelds des Geräts (300), wobei das erste
Abbildungslicht (461; 661) mittels eines ersten Abbildungshologramms eines holografischen optischen Elements (232) aus an einem Objekt (OBJ) in dem Umfeld reflektiertem erstem Erfassungslicht (251) abgebildet ist, wobei das zweite Abbildungslicht (562; 762) mittels eines zweiten Abbildungshologramms des holografischen optischen Elements (232) aus an dem Objekt (OBJ) reflektiertem zweitem Erfassungslicht (252) abgebildet ist, wobei sich das erste Abbildungshologramm und das zweite Abbildungshologramm voneinander unterscheiden.
14. Computerprogramm, das dazu eingerichtet ist, die Schritte des
Verfahrens (900) gemäß Anspruch 13 auszuführen und/oder anzusteuern.
15. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 14 gespeichert ist.
PCT/EP2019/075610 2018-09-28 2019-09-24 Sensorvorrichtung zum erfassen eines umfelds eines geräts, verfahren zum betreiben einer sensorvorrichtung zum erfassen eines umfelds eines geräts und gerät mit der sensorvorrichtung WO2020064674A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018216694.3 2018-09-28
DE102018216694.3A DE102018216694A1 (de) 2018-09-28 2018-09-28 Sensorvorrichtung zum Erfassen eines Umfelds eines Geräts, Verfahren zum Betreiben einer Sensorvorrichtung zum Erfassen eines Umfelds eines Geräts und Gerät mit der Sensorvorrichtung

Publications (1)

Publication Number Publication Date
WO2020064674A1 true WO2020064674A1 (de) 2020-04-02

Family

ID=68084796

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2019/075610 WO2020064674A1 (de) 2018-09-28 2019-09-24 Sensorvorrichtung zum erfassen eines umfelds eines geräts, verfahren zum betreiben einer sensorvorrichtung zum erfassen eines umfelds eines geräts und gerät mit der sensorvorrichtung

Country Status (2)

Country Link
DE (1) DE102018216694A1 (de)
WO (1) WO2020064674A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020133599A1 (de) 2020-12-15 2022-06-15 Ifm Electronic Gmbh Lichtlaufzeitkamerasystem mit schaltbarem Diffusor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022122436A1 (de) 2021-09-06 2023-03-09 Ifm Electronic Gmbh 3D-Lichtlaufzeit-Kamerasystem mit einem Fabry-Perot-Interferenzfilter

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012002922A1 (de) * 2012-02-14 2013-08-14 Audi Ag Time-Of-Flight-Kamera für ein Kraftfahrzeug, Kraftfahrzeug und Verfahren zum Betrieb einer Time-Of-Flight-Kamera
US20130208256A1 (en) * 2012-02-10 2013-08-15 Optical Air Data Systems, Llc. LDV with Diffractive Optical Element for Transceiver Lens
DE102013221506A1 (de) * 2013-10-23 2015-04-23 Robert Bosch Gmbh Entfernungsmessvorrichtung
DE102014004697B4 (de) 2014-03-31 2018-03-29 Baden-Württemberg Stiftung Ggmbh System und Verfahren zur Distanzmessung
DE102016220232A1 (de) * 2016-10-17 2018-04-19 Robert Bosch Gmbh Optisches Element für ein Lidar-System

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6536008B2 (ja) * 2014-10-30 2019-07-03 株式会社デンソー 車両用光飛行型測距装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130208256A1 (en) * 2012-02-10 2013-08-15 Optical Air Data Systems, Llc. LDV with Diffractive Optical Element for Transceiver Lens
DE102012002922A1 (de) * 2012-02-14 2013-08-14 Audi Ag Time-Of-Flight-Kamera für ein Kraftfahrzeug, Kraftfahrzeug und Verfahren zum Betrieb einer Time-Of-Flight-Kamera
DE102013221506A1 (de) * 2013-10-23 2015-04-23 Robert Bosch Gmbh Entfernungsmessvorrichtung
DE102014004697B4 (de) 2014-03-31 2018-03-29 Baden-Württemberg Stiftung Ggmbh System und Verfahren zur Distanzmessung
DE102016220232A1 (de) * 2016-10-17 2018-04-19 Robert Bosch Gmbh Optisches Element für ein Lidar-System

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020133599A1 (de) 2020-12-15 2022-06-15 Ifm Electronic Gmbh Lichtlaufzeitkamerasystem mit schaltbarem Diffusor

Also Published As

Publication number Publication date
DE102018216694A1 (de) 2020-04-02

Similar Documents

Publication Publication Date Title
JP6387407B2 (ja) 周辺検知システム
EP1592985B1 (de) Vorrichtung eines kraftfahrzeuges zur räumlichen erfassung einer szene innerhalb und/oder ausserhalb des kraftfahrzeuges
EP3388860A1 (de) 3d-lichtlaufzeitkamera und verfahren zur erfassung dreidimensionaler bilddaten
US20230194719A1 (en) Method for Measuring a Distance Between an Object and an Optical Sensor, Control Device for Carrying Out Such a Method, Distance Measuring Apparatus Comprising Such a Control Device, and Motor Vehicle Comprising Such a Distance Measuring Apparatus
EP1668386B1 (de) Verfahren zur verbesserung der sicht in einem kraftfahrzeug
DE102017002235A1 (de) LIDAR-System mit flexiblen Scanparametern
DE102007004609A1 (de) Vertikalresonatoroberflächenemissionslaser- (VCSEL-) Array-Laserabtaster
EP3428677B1 (de) Sichtsystem und sichtverfahren für ein fahrzeug
IL266025A (en) Vehicle environment modulation system
WO2020064674A1 (de) Sensorvorrichtung zum erfassen eines umfelds eines geräts, verfahren zum betreiben einer sensorvorrichtung zum erfassen eines umfelds eines geräts und gerät mit der sensorvorrichtung
DE102009045600A1 (de) Kamerasystem
DE102016004334A1 (de) Sensoreinrichtung zur Erfassung von Umgebungsinformationen und Verfahren zum Betreiben derselben
CN113383280A (zh) 用于经由雾的图像增强的弹道光调制
EP3380868A1 (de) Laserentfernungsmessgerät
EP3428678B1 (de) Sichtsystem und -verfahren für ein fahrzeug
WO2023247302A1 (de) Verfahren zur ermittlung wenigstens einer korrekturfunktion für ein lidarsystem, lidar-system, fahrzeug mit wenigstens einem lidar-system, messanlage
DE102017215614A1 (de) Stochastisch getaktete Bilderzeugung eines Lidar-System
WO2021059967A1 (ja) 物体認識装置及び物体認識プログラム
EP4010737A1 (de) Lidar-messsystem mit zwei lidar-messvorrichtungen
DE102011007464A1 (de) Verfahren und Vorrichtung zur Visualisierung einer Szene
DE102018219420A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Entfernung von zumindest einem Objekt in einem Umfeld eines Fahrzeugs unter Verwendung einer Lasereinheit und einer Kameraeinheit
US11754905B2 (en) Phased spatial light modulator for imaging
EP3428686A1 (de) Sichtsystem und -verfahren für ein fahrzeug
DE102020119941A1 (de) Optische Detektionsvorrichtung, Fahrzeug mit wenigstens einer optischen Detektionsvorrichtung und Verfahren zum Betreiben einer optischen Detektionsvorrichtung
US20240092259A1 (en) Structured lighting system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19779422

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19779422

Country of ref document: EP

Kind code of ref document: A1