WO2021052859A1 - Sensor unit for a lidar system - Google Patents

Sensor unit for a lidar system Download PDF

Info

Publication number
WO2021052859A1
WO2021052859A1 PCT/EP2020/075345 EP2020075345W WO2021052859A1 WO 2021052859 A1 WO2021052859 A1 WO 2021052859A1 EP 2020075345 W EP2020075345 W EP 2020075345W WO 2021052859 A1 WO2021052859 A1 WO 2021052859A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
optical sensor
optical
active
units
Prior art date
Application number
PCT/EP2020/075345
Other languages
German (de)
French (fr)
Inventor
Frederik ANTE
Steffen Fritz
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Publication of WO2021052859A1 publication Critical patent/WO2021052859A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates

Definitions

  • the present invention relates to a sensor unit for a LiDAR system.
  • LiDAR systems are a key technology for highly automated driving.
  • Various versions of LiDAR systems are currently known. This includes in particular macro scanners, galvo mirrors, MEMS mirrors or solid-state-based systems. Each of these variants has different advantages and disadvantages in terms of integration, complexity, size and field of view.
  • the time-of-flight (ToF) method is typically used as the measuring principle in LiDAR systems. A laser pulse is emitted by a transmitter, reflected on an object and the time until detection is measured on a sensor unit.
  • CCDs charge-coupled devices
  • APDs avalanche photo detectors
  • SPADs single-photon avalanche detectors
  • CCDs charge-coupled devices
  • SPAD and CCD-based systems are susceptible to saturation of the individual pixels, so that no statement can be made about the detection of a nearby and highly reflective object.
  • so-called line flashes can be used in combination with CCD chips.
  • a vertical laser line is emitted and the reflected photons are first resolved vertically in a pixel array on the CCD chip.
  • the temporal resolution by which a distance to the object is described, is achieved by quickly sliding along inactive pixels. By rotating the system, a horizontal coverage of the environment can also be achieved.
  • the sensor device according to the invention for a LiDAR system comprises a sensor array which comprises a multiplicity of optical sensor units which are arranged next to one another on a sensor surface in order to capture one pixel in each case when the LiDAR system is in operation.
  • Each of the sensor units comprises a first optical sensor and a second optical sensor, the first optical sensor comprising a first active sensor surface and the second optical sensor comprising a second active sensor surface, the first active sensor surface being a larger area than the second active sensor surface .
  • a single image point is thus recorded by a single optical sensor unit in each case.
  • a pixel describes a distance to a point in the vicinity of the LiDAR system. The distance is preferably determined from a transit time of an optical signal, which results from a time difference between the transmission of the optical signal and the reception of the optical signal by the optical sensor unit.
  • a scanning point is therefore to be understood as an image point.
  • each of the optical sensor units is set up to receive a reflected optical signal from the surroundings of the LiDAR system in order to provide transit time information for the previously transmitted optical signal.
  • this does not exclude that different points in the vicinity of the LiDAR system are scanned by a sensor unit at different times.
  • Each of the optical sensor units includes a first optical sensor and a second optical sensor. Since each of the optical sensor units is set up to detect a respective pixel, this means that both the first optical sensor and the second optical sensor are used to detect an individual pixel.
  • the first optical sensor and the second optical sensor are therefore arranged in particular on the sensor surface in such a way that a common solid angle can be detected by them, that is, an optical signal can be received that radiates onto the sensor unit from a common direction.
  • the plurality of optical sensor units is set up, in particular, to detect incident light from different directions, preferably each of the optical sensor units is assigned to a specific direction of the different directions.
  • An active sensor surface is the surface of the respective optical sensor that reacts to the incidence of light.
  • the first active sensor surface is larger than the second active sensor surface. This means that the first optical sensor reacts more sensitively to the incidence of light than the second optical sensor. At the same time, this means that the first optical sensor typically goes into saturation sooner than the second optical sensor. It is thus made possible that in particular reflected light with low intensity can be detected by the first optical sensor and that in particular reflected light with high intensity can be received by the second optical sensor.
  • the optical sensor unit is adapted so that it can both detect light with high intensity without going into saturation, this is done by means of the second optical sensor as well To be able to detect light with low intensity, since a sufficiently large active sensor surface is available, which is achieved by the first optical sensor.
  • a sensor array is in particular an arrangement of several optical sensor units which can be arranged next to one another in any desired manner.
  • the sensor surface is either a flat surface, but it can also have a curvature.
  • the optical sensor units are set up in particular to detect an optical signal from the environment of the LiDAR system at the same time or in chronological order.
  • the sensor device is preferably set up so that the first optical sensor and the second optical sensor of an optical sensor unit are active at the same time, in particular over a limited period of time.
  • the sensor array according to the invention enables reliable detection to be made possible for both low-reflective and high-reflective objects.
  • Low-reflective objects lead to an incidence of light of low intensity on the sensor array and highly reflective objects lead to an incidence of light with high intensity on the sensor array.
  • the reflected light can be successfully detected, but prevented it becomes that the optical sensor unit does not enable a reliable detection, since it goes into saturation, or that the reflected optical signal cannot be detected by the optical sensor unit because an active sensor surface is too small.
  • the sensor array is preferably a CCD chip.
  • the sensor array is a SPAD chip.
  • Such sensors are particularly susceptible to saturation of individual sensor units. It is therefore particularly advantageous in the case of such sensors if the second optical sensor provides an active sensor surface through which saturation of the second optical sensor and thus of the optical sensor unit can be avoided.
  • first active sensor surface is arranged directly adjacent to the second active sensor surface.
  • further optical means to be provided for each image point, which could be used both by the first optical sensor and by the second optical sensor.
  • a lens can be used jointly by the first optical sensor and the second optical sensor.
  • the optical sensor units are arranged in a row, with a first optical sensor following a second optical sensor alternately in the row.
  • Such an arrangement is particularly advantageous because measured values provided by the first optical sensor and the second optical sensor can be tapped particularly easily, since supply lines do not have to cross the other of the optical sensors.
  • a particularly compact sensor device can thus be created.
  • the first optical sensor and the second optical sensor in particular their active sensor surfaces, preferably have the same width, that is, they extend with the same width in a direction on the sensor surface that is perpendicular to the direction along which the row extends.
  • the sensor units are arranged in a row, the first optical sensors being arranged in a first row and the second optical sensors being arranged in a second row, the first row being parallel to the second row.
  • a distance between first optical sensors and second optical sensors can be minimized and thus a particularly high angular resolution can be achieved, since the optical sensor units can be arranged particularly close to one another to allow the row to extend in the direction of the first row or the second row can be minimized.
  • the first optical sensor and the second optical sensor in particular their active sensor surfaces, preferably have the same height, that is, they extend with the same width in a direction on the sensor surface along which the row extends.
  • each of the optical sensor units comprises a first storage element which is associated with the first optical sensor, the first storage element being set up to store a first charge output by the first optical sensor or a value representing this first charge, and comprises a second storage element which is associated with the second optical sensor, the second storage element being configured to store a second charge output by the second optical sensor or a value representing this second charge.
  • the first storage element and the second storage element are in particular each a capacitor or a register. For example, the charge emitted by the respective optical sensor is stored in the capacitor or the capacitor is discharged by the optical sensor when an optical signal is received by the latter. Alternatively, the optical signal received by the optical sensors is converted into a digital value and stored in the register.
  • the storage elements are preferably also arranged on the sensor surface.
  • the brightness values detected by the optical sensor units and thus by the first and second optical sensors can be quickly stored by the nearby storage elements, whereby a high scanning frequency of the sensor array can be achieved.
  • each of the optical sensor units is set up to transfer a value stored in the first memory element to a first adjacent memory element and to transfer a value stored in the second memory element to a second adjacent memory element.
  • measured values can be recorded by each of the sensor units in a particularly rapid chronological sequence.
  • a particularly high sampling frequency of the sensor units and thus of the sensor array can thus be achieved.
  • the first adjacent memory element and the second adjacent memory element are preferably the memory elements of an adjacent optical sensor unit. The optical sensor units can thus pass on their measured values via the storage elements of adjacent sensor units, which simplifies reading out the individual sensor units, since no separate contact is required for each of the optical sensor units.
  • the sensor device comprises an evaluation unit which is set up to determine for each of the optical sensor units based on a first measured value provided by the first optical sensor and based on a second measured value provided by the second optical sensor whether a reflected optical signal was received.
  • the reflected optical signal is in particular a signal that was previously sent by an associated LiDAR system and was reflected in an environment of the LiDAR system. Signals from the first optical sensor and signals from the second optical sensor are thus used in combination in order to determine whether a reflected optical signal has been received.
  • each of the sensor units in combination with the evaluation unit can determine whether an optical signal, which was reflected either on a low-reflective or a high-reflective object, was thrown back to the sensor array.
  • the evaluation unit detects that a reflected optical signal has been received when the first measured value and / or the second measured value lies in a respectively associated predetermined value interval.
  • the value intervals can be variable, for example dependent on ambient brightness, or can be dependent on the first measured value or the second measured value. It can in particular on the second measured value can be used if the first measured value indicates saturation of the first optical sensor. Alternatively or additionally, the first measured value can be used if the second measured value indicates that no optical signal was received by the second optical sensor.
  • a LiDAR system which comprises the sensor unit according to the invention has all the advantages of the sensor unit according to the invention.
  • Figure 1 shows a sensor device according to a first embodiment of the invention
  • Figure 2 shows a sensor device according to a second embodiment of the invention
  • FIG. 3 shows a schematic illustration of a sensor device which comprises a first and a second memory element
  • FIG. 4 shows a sensor unit according to a third embodiment of FIG
  • Figure 1 shows a sensor device 1 according to a first embodiment of the invention.
  • the sensor device 1 comprises a sensor array 2, which comprises a multiplicity of optical sensor units 3a, 3b, 3c, 3d, which are arranged next to one another on a sensor surface in order to capture one pixel in each case when the LiDAR system is in operation.
  • the sensor surface extends over the image plane shown in FIG.
  • the sensor surface of the sensor array 2 is, for example, a substrate. There the sensor surface can be a flat surface or also have a curvature.
  • the sensor device 1 is a CCD chip or a SPAD chip.
  • the sensor array 2 shown in FIG. 1 has a first optical sensor unit 3a, a second optical sensor unit 3b, a third sensor unit 3c and a fourth optical sensor unit 3d.
  • the number of optical sensor units 3a, 3b, 3c, 3d is only to be understood as an example.
  • the first to fourth optical sensor units 3a to 3d are structurally identical optical sensor units. Therefore, only the structure of the first optical sensor unit 3a of the optical sensor units 3a, 3b, 3c, 3d is described below.
  • the first optical sensor unit 3 a comprises a first optical sensor 4 and a second optical sensor 5.
  • the first optical sensor 4 has a first active sensor surface 6.
  • the first active sensor surface 6 lies on the sensor surface of the sensor array 2.
  • the second optical sensor 5 is arranged next to the first optical sensor 4 and has a second active sensor surface 7.
  • the second active sensor surface 7 also lies on the sensor surface of the sensor array 2.
  • the first active sensor surface 6 is designed such that it is a larger area than the second active sensor surface 7. This means that the first active sensor surface 6 extends over a A larger area of the sensor surface of the sensor array 2 extends than the second active sensor surface 7.
  • first active sensor surface 6 and the second active sensor surface 7 have the same width, but the first optical sensor surface 6 has a greater height than the second optical sensor surface 7.
  • the first active sensor surface 6 is arranged directly adjacent to the second sensor surface 7 on the sensor surface of the sensor array 2.
  • the width is an extension in the direction along the sensor surface of the sensor array 2 in an X direction and the height is an extension in the direction along the sensor surface of the sensor array 2 in a Y direction.
  • the second sensor unit 3b, the third sensor unit 3c and the fourth sensor unit 3d are constructed in the same way as the first optical sensor unit 3a.
  • the optical sensor units 3a, 3b, 3c, 3d are arranged in a row on the sensor surface of the sensor array 2.
  • a first optical sensor 4 and a second optical sensor 5 are arranged alternately in the row.
  • FIG. 1 it can be seen in FIG. 1 that the optical sensor units 3a, 3b, 3c, 3d are arranged in a row which in FIG. 1 extends from bottom to top.
  • a first optical sensor 4 is initially arranged, which is followed by a second optical sensor 5.
  • the first optical sensor 4 of the second optical sensor unit 3b is arranged next to the second optical sensor 5 of the first optical sensor unit 3a.
  • the result is that, starting from above, a first optical sensor 4 is always arranged next to a second optical sensor 5 and, in turn, a first optical sensor 4 of a subsequent optical sensor unit is arranged next to the second optical sensor 5.
  • Figure 2 shows a sensor device 1 according to a second embodiment of the invention.
  • the second embodiment of the invention corresponds to the first embodiment of the invention, but the first optical sensors 4 and the second optical sensors 5 are arranged in a row next to one another.
  • the optical sensor units 3a, 3b, 3c, 3d are arranged in a row, but the first optical sensors 4 are arranged in a first row and the second optical sensors 5 are arranged in a second row, the first Row is parallel to the second row.
  • the first active sensor surface 6 of the first optical sensor 4 has the same height on the sensor surface as the second active sensor surface 7 of the second optical sensor 5.
  • the second active sensor surface 7 has a smaller width than the first active sensor surface 6 of the first optical sensor 4.
  • the first optical sensors 4 are arranged in a row which is located on the right in FIG. 2, and the second optical sensors 5 are arranged in a row which is located on the left in FIG. It can be seen that a height of the sensor surface can be reduced in this way.
  • each of the sensor units 3a, 3b, 3c, 3d has a first memory element 8 and a second storage element 9.
  • the first storage element 8 is a storage element which is associated with the first optical sensor 4, the first storage element 8 being set up to store a first charge output by the first optical sensor 4 or a value representing this first charge.
  • the second storage element 9 is a storage element which is associated with the second optical sensor 5, the second storage element 9 being set up to store a second charge output by the second optical sensor 5 or a value representing this second charge.
  • the first charge represents a measured value of the first optical sensor 4.
  • the second charge represents a measured value of the second optical sensor 5.
  • the first storage element 8 is preferably arranged on the sensor surface of the sensor array 2 between the first active sensor surface 6 and the second active sensor surface 7.
  • the second memory element 9 is preferably also arranged on the sensor surface, the second memory element 9 preferably being arranged on a side of the second active sensor surface 7 that is opposite the side on which the first memory element 8 is arranged.
  • the arrangement of the storage elements 8, 9 with respect to the active sensor surfaces 6, 7 is shown in FIG. 3 merely as an example. Other arrangements of the storage elements 8, 9 with respect to the active sensor surfaces 6, 7 are also advantageous. It is particularly advantageous if the active sensor surfaces 6, 7 are arranged adjacent to one another, which makes it possible for common optics to enable light to be focused on the active sensor surfaces 6, 7. Since the memory elements 8, 9 do not form an active sensor surface, it is also advantageous if the memory elements 8, 9 are not arranged on the sensor surface, but rather are arranged, for example, behind the active sensor surfaces 6, 7 on a rear side of the sensor array 2.
  • the first storage element 8 is, for example, a capacitor in which a charge provided by the first optical sensor 4 is stored, or a capacitor which is discharged by incident light on the first active sensor surface 6.
  • the first memory element 8 is a register, with the first optical sensor 4 and the first memory element 8 an analog-to-digital converter is preferably connected in order to store a measured value detected by the first optical sensor 4 as a digital value in the register.
  • the second storage element 9 is, for example, a capacitor in which a charge provided by the second optical sensor 5 is stored, or a capacitor which is discharged by incident light on the second active sensor surface 7.
  • the second storage element 9 is a register, an analog-to-digital converter preferably being connected between the second optical sensor 5 and the second storage element 9 in order to store a measured value acquired by the second optical sensor 5 as a digital value in the register.
  • each of the optical sensor units 3a, 3b, 3c, 3d is preferably set up to transfer a value stored in the first storage element 8 or a charge stored in the first storage element 8 to a first adjacent storage element 10.
  • each of the optical sensor units 3a, 3b, 3c, 3d is preferably set up to transfer a value stored in the second storage element 9 or a charge stored in the second storage element 9 to a second adjacent storage element 11.
  • the first adjacent storage element 10 and the second adjacent storage element 11 are preferably arranged adjacent to the first storage element 8 and the second storage element 9. In this way, the first memory element 8 and the second memory element 9 can be read out in a rapid manner and the optical sensor units 3a to 3d are ready to receive a further optical signal.
  • FIG. 4 shows a sensor device 1 according to a third embodiment of the invention.
  • the sensor device 1 comprises the optical sensor units 3a, 3b, 3c, 3d, as they are also described in the previously described embodiments.
  • the optical sensor units 3a, 3b, 3c, 3d are arranged as a group of active image points 12 on the sensor surface and form one of several columns of a sensor matrix.
  • a group of sliding pixels 20 are arranged on the sensor surface of the sensor array 2.
  • the shift pixels 20 are either active optical sensor units which are constructed in accordance with the first to fourth optical sensor units 3a to 3d or are passive optical sensor units which do not detect an optical signal.
  • FIG. 4 shows a sensor device 1 according to a third embodiment of the invention.
  • the sensor device 1 comprises the optical sensor units 3a, 3b, 3c, 3d, as they are also described in the previously described embodiments.
  • the optical sensor units 3a, 3b, 3c, 3d are arranged as a group of active image points 12 on the sensor surface
  • a sensor matrix is formed by the optical sensor units 3a, 3b, 3c, 3d and the shift pixels 20.
  • each of the optical sensor units 3a, 3b, 3c, 3d has associated with it a multiplicity of shift pixels which, in particular, lie in the same row of the sensor matrix.
  • a first shift pixel 21, a second shift pixel 22, a third shift pixel 23 and a fourth shift pixel 24 are associated with the first optical sensor unit 3a.
  • the sliding pixels 21 to 24 belonging to the first optical sensor unit 3a are arranged in a row with the first optical sensor unit 3a.
  • Each of the optical sensor units 3a, 3b, 3c, 3d and each of the shift pixels 20 each comprises a first memory element 8 and a second memory element 9, for example in accordance with the embodiment shown in FIG. If an optical signal is detected by the first optical sensor unit 3a, this is output by the first optical sensor 4 as a charge or a digital value and stored in the first memory element 8 of the first optical sensor unit 3a. The charge stored in the first storage element 8 or the digital value stored by the first storage element 8 is referred to below as the first measured value. If an optical signal is detected by the first optical sensor unit 3a, this is also output by the second optical sensor 5 as a charge or a digital value and is stored in the second memory element 9 of the first optical sensor unit 3a. The charge stored in the second storage element 9 or the digital value stored by the second storage element 9 is referred to below as the first measured value.
  • the first measured value is shifted from the first memory element 8 of the first optical sensor unit 3a into a first adjacent memory element 10, which is a first memory element of the first shift pixel 21.
  • the second measured value stored in the second memory element 9 of the first optical sensor unit 3a is transferred to a second, adjacent memory element 11, which is the second memory element 9 of the first shift pixel 21 is.
  • 3d recorded measured values are shifted step by step through the shift pixels 20 to a digitization unit 30.
  • the first measured value stored in the first memory element 8 of the first optical sensor unit 3a is first shifted into the first memory element of the first shift pixel 21, from there into the first memory element of the second
  • the digitization unit 30 is pushed. If the first measured value has already been converted into a digital value beforehand, it can only be temporarily stored in the digitization unit 30 or the digitization unit 30 can be dispensed with
  • the second measurement value which was stored in the second memory element 9 of the first optical sensor unit 3a, is first shifted into the second memory element 9 of the first shift pixel 21, from there into the second memory element of the second shift pixel
  • the second measured value has already been converted into a digital value beforehand, it can only be temporarily stored in the digitization unit 30 or the digitization unit 30 can be dispensed with
  • the measured values detected by the first optical sensor unit 3a are converted into digital values by the first analog-digital converter 31 and the second analog-digital converter 32 and transferred to a multiplexer 40. From there, the measured values are preferably transmitted to an evaluation unit 50. In a corresponding manner, the measured values that were recorded by the second to fourth optical sensor units 3b, 3c, 3d are transmitted via the shift pixels associated with these optical sensor units 3b, 3c, 3d to corresponding analog-digital converters and from there also to the Multiplexer 40 transmitted. The measured values of the second to fourth optical sensor units 3b, 3c, 3d are also preferably sent to the evaluation unit 50 transferred.
  • the evaluation unit 50 is a component of the CCD chip or a separate structural component.
  • the shift pixels 20 can also be active pixels. In this way, the number of optical sensor units on the sensor surface of the sensor array 2 can be increased. By shifting the measured values from memory element to memory element, it is possible for the optical sensor units 3a to 3d and the shift pixels 20 to be read out. It should be noted that the number of optical sensor units 3a to 3d and also the number of shift pixels 20 in FIG. 4 are selected merely as examples.
  • the evaluation unit 50 therefore has at least the first and second measured values recorded by the optical sensor units 3a to 3d.
  • the evaluation unit 50 is set up to determine for each of the sensor units 3a, 3b, 3c, 3d based on the first measured value provided by the first optical sensor 4 and based on the second measured value provided by the second optical sensor 5, whether a reflected optical signal is received has been.
  • a reflected optical signal has been received when the first measured value and / or the second measured value lies in a respectively associated predetermined value interval.
  • a reflected optical signal was received when the first measured value indicates saturation of the first optical sensor 5 and the second measured value indicates that an optical signal was received by the second optical sensor 5, but not in saturation is.
  • a reflected optical signal has been received when the first measured value indicates that an optical signal was received by the first optical sensor 4, but the first optical sensor 4 is not in saturation, and the second measured value indicates that from the second optical sensor 5 no optical signal was received.
  • a CCD chip is thus designed in such a way that it enables reliable detection, in particular for LiDAR applications in the field of automated driving, for both low-reflective and high-reflective objects.
  • a large pixel array high sensitivity
  • a small pixel array low sensitivity
  • the large pixel array is formed by the first optical sensors 4 and the small pixel array is formed by the second optical sensors 5.
  • the small pixel areas have a lower sensitivity to the incident photons, which is why a significantly higher photon density is required for the saturation of these pixels.
  • One pixel corresponds to one image point. This means that the small pixels are less sensitive to highly reflective objects.
  • the fact that the aperture of the receiving lens is optimized for the large pixel arrays is advantageous here.

Abstract

The invention relates to a sensor device (1) for a LIDAR system, comprising a sensor array (2) having a plurality of optical sensor units (3a, 3b, 3c, 3d), which are arranged next to one another on a sensor surface in order to detect a respective pixel during an operation of the LIDAR system, wherein each of the sensor units (3a, 3b, 3c, 3d) comprises a first optical sensor (4) and a second optical sensor (5), wherein the first optical sensor (4) has a first active sensor surface (6) which converts a received optical signal into a first measurement signal, and wherein the second optical sensor (5) has a second active sensor surface (7) which converts a received optical signal into a second measurement signal, wherein the first active sensor surface (6) has a greater area than the second active sensor surface (7).

Description

Beschreibung description
Titel title
Sensoreinheit für ein LiDAR-Svstem Sensor unit for a LiDAR system
Stand der Technik State of the art
Die vorliegende Erfindung betrifft eine Sensoreinheit für ein LiDAR-System. The present invention relates to a sensor unit for a LiDAR system.
LiDAR-Systeme gelten neben Video-, Ultraschall- und Radar-basierten Systemen als eine Schlüsseltechnologie für das hochautomatisierte Fahren. Derzeit sind verschiedene Ausprägungen von LiDAR-Systemen bekannt. Dazu gehören insbesondere Makroscanner, Galvo-Spiegel, MEMS-Spiegel oder Solid-state basierte Systeme. Jede dieser Varianten weist verschiedene Vor- und Nachteile bezüglich Integration, Komplexität, Baugröße und Sichtfeld auf. Als Messprinzip wird bei LiDAR-Systemen typischerweise auf das Time-Of-Flight (ToF) Verfahren zurückgegriffen. Dabei wird ein Laserpuls von einem Sender emittiert, an einem Objekt reflektiert und die Zeit bis zur Detektion an einer Sensoreinheit gemessen. In addition to video, ultrasound and radar-based systems, LiDAR systems are a key technology for highly automated driving. Various versions of LiDAR systems are currently known. This includes in particular macro scanners, galvo mirrors, MEMS mirrors or solid-state-based systems. Each of these variants has different advantages and disadvantages in terms of integration, complexity, size and field of view. The time-of-flight (ToF) method is typically used as the measuring principle in LiDAR systems. A laser pulse is emitted by a transmitter, reflected on an object and the time until detection is measured on a sensor unit.
Als Detektor und somit als Sensoreinheit bieten sich hier neben APDs (avalanche photo detectors) und SPADs (single-photon avalanche detectors) auch CCDs (charged-coupled devices) an. Insbesondere SPAD- und CCD- basierte Systeme zeigen sich jedoch anfällig gegenüber einer Sättigung der einzelnen Pixel, so dass keine Aussage über die Detektion eines nahen und hochreflektiven Objektes getroffen werden kann. Beispielsweise können in Kombination mit CCD-Chips sogenannte Linienflashs verwendet werden. Dabei wird eine vertikale Laserlinie ausgesendet und die reflektierten Photonen werden auf dem CCD-Chip in einem Pixelarray zunächst vertikal aufgelöst. Die zeitliche Auflösung, durch welche eine Entfernung zum Objekt beschrieben wird, wird durch schnelles Schieben entlang nicht aktiver Pixel erzielt. Durch Rotation des Systems kann auch eine horizontale Erfassung der Umgebung erzielt werden. In addition to APDs (avalanche photo detectors) and SPADs (single-photon avalanche detectors), CCDs (charged-coupled devices) can also be used as a detector and thus as a sensor unit. However, SPAD and CCD-based systems in particular are susceptible to saturation of the individual pixels, so that no statement can be made about the detection of a nearby and highly reflective object. For example, so-called line flashes can be used in combination with CCD chips. A vertical laser line is emitted and the reflected photons are first resolved vertically in a pixel array on the CCD chip. The temporal resolution, by which a distance to the object is described, is achieved by quickly sliding along inactive pixels. By rotating the system, a horizontal coverage of the environment can also be achieved.
Offenbarung der Erfindung Die erfindungsgemäße Sensorvorrichtung für ein LiDAR-System umfasst einen Sensorarray, welcher eine Vielzahl von optischen Sensoreinheiten umfasst, die auf einer Sensoroberfläche nebeneinander angeordnet sind, um bei einem Betrieb des LiDAR-Systems jeweils einen Bildpunkt zu erfassen. Dabei umfasst jeder der Sensoreinheiten einen ersten optischen Sensor und einen zweiten optischen Sensor, wobei der erste optische Sensor eine erste aktive Sensoroberfläche umfasst und der zweite optische Sensor eine zweite aktive Sensoroberfläche umfasst, wobei die erste aktive Sensoroberfläche eine größere Fläche ist als die zweite aktive Sensoroberfläche. Disclosure of the invention The sensor device according to the invention for a LiDAR system comprises a sensor array which comprises a multiplicity of optical sensor units which are arranged next to one another on a sensor surface in order to capture one pixel in each case when the LiDAR system is in operation. Each of the sensor units comprises a first optical sensor and a second optical sensor, the first optical sensor comprising a first active sensor surface and the second optical sensor comprising a second active sensor surface, the first active sensor surface being a larger area than the second active sensor surface .
Es wird somit durch jeweils eine einzelne optische Sensoreinheit ein einzelner Bildpunkt erfasst. Durch einen Bildpunkt wird ein Abstand zu einem Punkt in der Umgebung des LiDAR-Systems beschrieben. Der Abstand wird dabei bevorzugt aus einer Laufzeit eines optischen Signals ermittelt, die sich aus einer Zeitdifferenz zwischen einem Aussenden des optischen Signals und einem Empfangen des optischen Signals durch die optische Sensoreinheit ergibt. Als Bildpunkt ist also ein Abtastpunkt zu verstehen. Das bedeutet mit anderen Worten, dass jede der optischen Sensoreinheiten dazu eingerichtet ist, ein reflektiertes optisches Signal aus der Umgebung des LiDAR-Systems zu empfangen, um Laufzeitinformationen für das zuvor ausgesandte optische Signal bereitzustellen. Dies schließt jedoch nicht aus, dass durch eine Sensoreinheit zu unterschiedlichen Zeitpunkten unterschiedliche Punkte in der Umgebung des LiDAR-Systems abgetastet werden. A single image point is thus recorded by a single optical sensor unit in each case. A pixel describes a distance to a point in the vicinity of the LiDAR system. The distance is preferably determined from a transit time of an optical signal, which results from a time difference between the transmission of the optical signal and the reception of the optical signal by the optical sensor unit. A scanning point is therefore to be understood as an image point. In other words, this means that each of the optical sensor units is set up to receive a reflected optical signal from the surroundings of the LiDAR system in order to provide transit time information for the previously transmitted optical signal. However, this does not exclude that different points in the vicinity of the LiDAR system are scanned by a sensor unit at different times.
Jede der optischen Sensoreinheiten umfasst einen ersten optischen Sensor und einen zweiten optischen Sensor. Da jede der optischen Sensoreinheiten dazu eingerichtet ist, jeweils einen Bildpunkt zu erfassen bedeutet dies, dass sowohl der erste optische Sensor als auch der zweite optische Sensor dazu verwendet werden, um einen einzelnen Bildpunkt zu erfassen. Der erste optische Sensor und der zweite optische Sensor sind daher insbesondere derart auf der Sensoroberfläche angeordnet, dass durch diese ein gemeinsamer Raumwinkel erfasst werden kann, also ein optisches Signal empfangen werden kann, dass aus einer gemeinsamen Richtung auf die Sensoreinheit einstrahlt. Die Vielzahl der optischen Sensoreinheiten ist insbesondere dazu eingerichtet, einfallendes Licht aus unterschiedlichen Richtungen zu detektierten, wobei bevorzugt jede der optischen Sensoreinheiten einer bestimmten Richtung der unterschiedlichen Richtungen zugeordnet ist. Each of the optical sensor units includes a first optical sensor and a second optical sensor. Since each of the optical sensor units is set up to detect a respective pixel, this means that both the first optical sensor and the second optical sensor are used to detect an individual pixel. The first optical sensor and the second optical sensor are therefore arranged in particular on the sensor surface in such a way that a common solid angle can be detected by them, that is, an optical signal can be received that radiates onto the sensor unit from a common direction. The plurality of optical sensor units is set up, in particular, to detect incident light from different directions, preferably each of the optical sensor units is assigned to a specific direction of the different directions.
Eine aktive Sensoroberfläche ist die Oberfläche des jeweiligen optischen Sensors, welche auf den Einfall von Licht reagiert. Die erste aktive Sensoroberfläche ist größer als die zweite aktive Sensoroberfläche. Das bedeutet, dass der erste optische Sensor empfindlicher auf den Einfall von Licht reagiert als der zweite optische Sensor. Das bedeutet zugleich, dass der erste optische Sensor typischerweise eher in Sättigung geht als der zweite optische Sensor. Es wird somit ermöglicht, dass durch den ersten optischen Sensor insbesondere reflektiertes Licht mit geringer Intensität erfasst werden kann und dass durch den zweiten optischen Sensor insbesondere reflektiertes Licht mit hoher Intensität empfangen werden kann. Durch die Kombination des ersten optischen Sensors mit dem zweiten optischen Sensor in einer einzelnen optischen Sensoreinheit wird die optische Sensoreinheit somit dazu angepasst, dass diese sowohl Licht mit hoher Intensität detektieren kann ohne in Sättigung zu gehen, dies erfolgt mittels des zweiten optischen Sensors, als auch Licht mit geringer Intensität detektieren zu können, da eine hinreichend große aktive Sensoroberfläche zur Verfügung steht, was durch den ersten optischen Sensor erreicht wird. An active sensor surface is the surface of the respective optical sensor that reacts to the incidence of light. The first active sensor surface is larger than the second active sensor surface. This means that the first optical sensor reacts more sensitively to the incidence of light than the second optical sensor. At the same time, this means that the first optical sensor typically goes into saturation sooner than the second optical sensor. It is thus made possible that in particular reflected light with low intensity can be detected by the first optical sensor and that in particular reflected light with high intensity can be received by the second optical sensor. By combining the first optical sensor with the second optical sensor in a single optical sensor unit, the optical sensor unit is adapted so that it can both detect light with high intensity without going into saturation, this is done by means of the second optical sensor as well To be able to detect light with low intensity, since a sufficiently large active sensor surface is available, which is achieved by the first optical sensor.
Ein Sensorarray ist insbesondere eine Anordnung mehrerer optischer Sensoreinheiten, die in beliebiger Weise nebeneinander angeordnet sein können. Die Sensoroberfläche ist dabei entweder eine ebene Fläche, kann jedoch auch eine Krümmung aufweisen. Die optischen Sensoreinheiten sind insbesondere dazu eingerichtet zeitgleich oder in zeitlicher Abfolge ein optisches Signal aus der Umgebung des LiDAR-Systems zu detektieren. Bevorzugt ist die Sensorvorrichtung dazu eingerichtet, dass der erste optische Sensor und der zweite optische Sensor einer optischen Sensoreinheit zeitgleich aktiv sind, insbesondere über einen beschränkten gleichen Zeitraum hinweg. A sensor array is in particular an arrangement of several optical sensor units which can be arranged next to one another in any desired manner. The sensor surface is either a flat surface, but it can also have a curvature. The optical sensor units are set up in particular to detect an optical signal from the environment of the LiDAR system at the same time or in chronological order. The sensor device is preferably set up so that the first optical sensor and the second optical sensor of an optical sensor unit are active at the same time, in particular over a limited period of time.
Insbesondere wird durch den erfindungsgemäßen Sensorarray ermöglicht, dass sowohl für niederreflektive auch für hochreflektive Objekte eine zuverlässige Detektion ermöglicht wird. Niederreflektive Objekte führen zu einem Einfall von Licht geringer Intensität auf den Sensorarray und hochreflektive Objekte führen zu einem Einfall von Licht mit hoher Intensität auf den Sensorarray. In beiden Fällen kann das reflektierte Licht erfolgreich detektiert werden, wobei verhindert wird, dass die optische Sensoreinheit keine zuverlässige Detektion ermöglicht, da diese in Sättigung geht, oder dass das reflektierte optische Signal von der optischen Sensoreinheit nicht erfasst werden kann, da eine aktive Sensoroberfläche zu gering ist. In particular, the sensor array according to the invention enables reliable detection to be made possible for both low-reflective and high-reflective objects. Low-reflective objects lead to an incidence of light of low intensity on the sensor array and highly reflective objects lead to an incidence of light with high intensity on the sensor array. In both cases, the reflected light can be successfully detected, but prevented it becomes that the optical sensor unit does not enable a reliable detection, since it goes into saturation, or that the reflected optical signal cannot be detected by the optical sensor unit because an active sensor surface is too small.
Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung. The subclaims show preferred developments of the invention.
Bevorzugt ist der Sensorarray ein CCD-Chip. Alternativ ist der Sensorarray ein SPAD-Chip. Gerade solche Sensoren sind besonders anfällig gegenüber einer Sättigung einzelner Sensoreinheiten. Daher ist es gerade bei solchen Sensoren vorteilhaft, wenn durch den zweiten optischen Sensor eine aktive Sensoroberfläche bereitgestellt wird, durch die eine Sättigung des zweiten optischen Sensors und somit der optischen Sensoreinheit vermieden werden kann. The sensor array is preferably a CCD chip. Alternatively, the sensor array is a SPAD chip. Such sensors are particularly susceptible to saturation of individual sensor units. It is therefore particularly advantageous in the case of such sensors if the second optical sensor provides an active sensor surface through which saturation of the second optical sensor and thus of the optical sensor unit can be avoided.
Auch ist es vorteilhaft, wenn die erste aktive Sensoroberfläche unmittelbar angrenzend zu der zweiten aktiven Sensoroberfläche angeordnet ist. Dadurch wird es ermöglicht, dass für jeden Bildpunkt weitere optische Mittel bereitgestellt werden können, die sowohl von dem ersten optischen Sensor als auch von dem zweiten optischen Sensor genutzt werden könnten. So kann beispielsweise eine Linse von dem ersten optischen Sensor und dem zweiten optischen Sensor gemeinsam genutzt werden. It is also advantageous if the first active sensor surface is arranged directly adjacent to the second active sensor surface. This makes it possible for further optical means to be provided for each image point, which could be used both by the first optical sensor and by the second optical sensor. For example, a lens can be used jointly by the first optical sensor and the second optical sensor.
Ferner ist es vorteilhaft, wenn die optischen Sensoreinheiten in einer Reihe angeordnet sind, wobei in der Reihe abwechselnd ein erster optischer Sensor auf einen zweiten optischen Sensor folgt. Eine solche Anordnung ist besonders vorteilhaft, da von dem ersten optischen Sensor und dem zweiten optischen Sensor bereitgestellte Messwerte besonders einfach abgegriffen werden können, da Zuleitungen nicht den jeweils anderen der optischen Sensoren kreuzen müssen. Es kann somit eine besonders kompakte Sensorvorrichtung geschaffen werden. Bevorzugt weisen der erste optische Sensor und der zweite optische Sensor, insbesondere deren aktive Sensoroberflächen, dabei eine gleiche Breite auf, erstrecken sich also mit gleicher Weite in einer Richtung auf der Sensoroberfläche, die senkrecht zu der Richtung liegt, entlang derer sich die Reihe erstreckt. Ferner ist es ebenso vorteilhaft, wenn die Sensoreinheiten in einer Reihe angeordnet sind, wobei die ersten optischen Sensoren in einer ersten Reihe angeordnet sind und die zweiten optischen Sensoren in einer zweiten Reihe angeordnet sind, wobei die erste Reihe parallel zu der zweiten Reihe ist. Auf diese Weise kann ein Abstand zwischen ersten optischen Sensoren und zweiten optischen Sensoren minimiert werden und somit eine besonders hohe Winkelauflösung erreicht werden, da die optischen Sensoreinheiten besonders dicht aneinander angeordnet werden können, um eine Ausdehnung der Reihe in Richtung der ersten Reihe oder der zweiten Reihe minimiert werden kann. Bevorzugt weisen der erste optische Sensor und der zweite optische Sensor, insbesondere deren aktive Sensoroberflächen, dabei eine gleiche Höhe auf, erstrecken sich also mit gleicher Weite in einer Richtung auf der Sensoroberfläche, entlang derer sich die Reihe erstreckt. Furthermore, it is advantageous if the optical sensor units are arranged in a row, with a first optical sensor following a second optical sensor alternately in the row. Such an arrangement is particularly advantageous because measured values provided by the first optical sensor and the second optical sensor can be tapped particularly easily, since supply lines do not have to cross the other of the optical sensors. A particularly compact sensor device can thus be created. The first optical sensor and the second optical sensor, in particular their active sensor surfaces, preferably have the same width, that is, they extend with the same width in a direction on the sensor surface that is perpendicular to the direction along which the row extends. Furthermore, it is also advantageous if the sensor units are arranged in a row, the first optical sensors being arranged in a first row and the second optical sensors being arranged in a second row, the first row being parallel to the second row. In this way, a distance between first optical sensors and second optical sensors can be minimized and thus a particularly high angular resolution can be achieved, since the optical sensor units can be arranged particularly close to one another to allow the row to extend in the direction of the first row or the second row can be minimized. The first optical sensor and the second optical sensor, in particular their active sensor surfaces, preferably have the same height, that is, they extend with the same width in a direction on the sensor surface along which the row extends.
Auch ist es vorteilhaft, wenn jede der optischen Sensoreinheiten ein erstes Speicherelement umfasst, welches dem ersten optischen Sensor zugehörig ist, wobei das erste Speicherelement dazu eingerichtet ist, eine von dem ersten optischen Sensor ausgegebene erste Ladung oder einen diese erste Ladung repräsentierenden Wert zu speichern, und ein zweites Speicherelement umfasst, welches dem zweiten optischen Sensor zugehörig ist, wobei das zweite Speicherelement dazu eingerichtet ist, eine von dem zweiten optischen Sensor ausgegebene zweite Ladung oder einen dieser zweiten Ladung repräsentierenden Wert zu speichern. Das erste Speicherelement und das zweite Speicherelement sind insbesondere jeweils ein Kondensator oder ein Register. So wird in dem Kondensator beispielsweise die von dem jeweiligen optischen Sensor abgegebene Ladung gespeichert oder der Kondensator wird durch den optischen Sensor entladen, wenn durch diesen ein optisches Signal empfangen wird. Alternativ wird das von den optischen Sensoren empfangenes optische Signal in einen digitalen Wert gewandelt und in dem Register gespeichert. Die Speicherelemente sind dabei bevorzugt ebenfalls auf der Sensoroberfläche angeordnet. Auf diese Weise können die durch die optischen Sensoreinheiten und somit die von den ersten und den zweiten optischen Sensoren erfassten Helligkeitswerte durch die nahegelegenen Speicherelemente schnell gespeichert werden, wodurch und eine hohe Abtastfrequenz des Sensorarrays erreicht werden kann. Ferner ist es vorteilhaft, wenn jede der optischen Sensoreinheiten dazu eingerichtet ist, einen in dem ersten Speicherelement gespeicherten Wert in ein erstes benachbartes Speicherelement zu übertragen, und einen in dem zweiten Speicherelement gespeicherten Wert in ein zweites benachbartes Speicherelement zu übertragen. Somit können durch jede der Sensoreinheiten in besonders schneller zeitlicher Folge Messwerte erfasst werden. Es kann somit eine besonders hohe Abtastfrequenz der Sensoreinheiten und somit des Sensorarrays erreicht werden. Das erste benachbarte Speicherelement und das zweite benachbartes Speicherelement sind dabei bevorzugt die Speicherelemente einer benachbarten optischen Sensoreinheit. Somit können die optischen Sensoreinheiten ihre Messwerte über die Speicherelemente benachbarter Sensoreinheiten weitergeben, wodurch ein Auslesen der einzelnen Sensoreinheiten vereinfacht wird, da keine gesonderte Kontaktierung für jede der optischen Sensoreinheiten benötigt wird. It is also advantageous if each of the optical sensor units comprises a first storage element which is associated with the first optical sensor, the first storage element being set up to store a first charge output by the first optical sensor or a value representing this first charge, and comprises a second storage element which is associated with the second optical sensor, the second storage element being configured to store a second charge output by the second optical sensor or a value representing this second charge. The first storage element and the second storage element are in particular each a capacitor or a register. For example, the charge emitted by the respective optical sensor is stored in the capacitor or the capacitor is discharged by the optical sensor when an optical signal is received by the latter. Alternatively, the optical signal received by the optical sensors is converted into a digital value and stored in the register. The storage elements are preferably also arranged on the sensor surface. In this way, the brightness values detected by the optical sensor units and thus by the first and second optical sensors can be quickly stored by the nearby storage elements, whereby a high scanning frequency of the sensor array can be achieved. It is also advantageous if each of the optical sensor units is set up to transfer a value stored in the first memory element to a first adjacent memory element and to transfer a value stored in the second memory element to a second adjacent memory element. Thus, measured values can be recorded by each of the sensor units in a particularly rapid chronological sequence. A particularly high sampling frequency of the sensor units and thus of the sensor array can thus be achieved. The first adjacent memory element and the second adjacent memory element are preferably the memory elements of an adjacent optical sensor unit. The optical sensor units can thus pass on their measured values via the storage elements of adjacent sensor units, which simplifies reading out the individual sensor units, since no separate contact is required for each of the optical sensor units.
Auch ist es vorteilhaft, wenn die Sensorvorrichtung eine Auswertungseinheit umfasst, welche dazu eingerichtet ist, für jede der optischen Sensoreinheiten basierend auf einem von dem ersten optischen Sensor bereitgestellten ersten Messwert und basierend auf einem von dem zweiten optischen Sensor bereitgestellten zweiten Messwert zu ermitteln, ob ein reflektiertes optisches Signal empfangen wurde. Das reflektierte optische Signal ist dabei insbesondere ein Signal, welches von einem zugehörigen LiDAR-System zuvor ausgesandt wurde und in einem Umfeld des LiDAR-Systems reflektiert wurde. Es werden somit Signale des ersten optischen Sensors und Signale des zweiten optischen Sensors in Kombination herangezogen, um zu ermitteln, ob ein reflektiertes optisches Signal empfangen wurde. Auf diese Weise kann durch jede der Sensoreinheiten in Kombination mit der Auswertungseinheit ermittelt werden, ob ein optisches Signal, welches entweder an einem niederreflektiven oder an einem hochreflektiven Objekt reflektiert wurde, zurück zu dem Sensorarray geworfen wurde. It is also advantageous if the sensor device comprises an evaluation unit which is set up to determine for each of the optical sensor units based on a first measured value provided by the first optical sensor and based on a second measured value provided by the second optical sensor whether a reflected optical signal was received. The reflected optical signal is in particular a signal that was previously sent by an associated LiDAR system and was reflected in an environment of the LiDAR system. Signals from the first optical sensor and signals from the second optical sensor are thus used in combination in order to determine whether a reflected optical signal has been received. In this way, each of the sensor units in combination with the evaluation unit can determine whether an optical signal, which was reflected either on a low-reflective or a high-reflective object, was thrown back to the sensor array.
Dabei ist es insbesondere vorteilhaft, wenn die Auswertungseinheit erkennt, dass ein reflektiertes optisches Signal empfangen wurde, wenn der erste Messwert und/oder der zweite Messwert in einem jeweils zugehörigen vorgegebenen Wertintervall liegt. Die Wertintervalle können dabei variabel sein, beispielsweise von einer Umgebungshelligkeit abhängig sein, oder können abhängig von dem ersten Messwert oder dem zweiten Messwert sein. Es kann insbesondere auf den zweiten Messwert zurückgegriffen werden, wenn der erste Messwert eine Sättigung des ersten optischen Sensors anzeigt. Alternativ oder zusätzlich kann auf den ersten Messwert zurückgegriffen werden, wenn der zweite Messwert anzeigt, dass von dem zweiten optischen Sensor kein optisches Signal empfangen wurde. It is particularly advantageous if the evaluation unit detects that a reflected optical signal has been received when the first measured value and / or the second measured value lies in a respectively associated predetermined value interval. The value intervals can be variable, for example dependent on ambient brightness, or can be dependent on the first measured value or the second measured value. It can in particular on the second measured value can be used if the first measured value indicates saturation of the first optical sensor. Alternatively or additionally, the first measured value can be used if the second measured value indicates that no optical signal was received by the second optical sensor.
Ein LiDAR-System, welches die erfindungsgemäße Sensoreinheit umfasst, weist alle Vorteile der erfindungsgemäßen Sensoreinheit auf. A LiDAR system which comprises the sensor unit according to the invention has all the advantages of the sensor unit according to the invention.
Kurze Beschreibung der Zeichnungen Brief description of the drawings
Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die begleitende Zeichnung im Detail beschrieben. In der Zeichnung ist: Exemplary embodiments of the invention are described in detail below with reference to the accompanying drawings. In the drawing is:
Figur 1 eine Sensorvorrichtung gemäß einer ersten Ausführungsform der Erfindung, Figure 1 shows a sensor device according to a first embodiment of the invention,
Figur 2 eine Sensorvorrichtung gemäß einer zweiten Ausführungsform der Erfindung, Figure 2 shows a sensor device according to a second embodiment of the invention,
Figur 3 eine schematische Darstellung einer Sensorvorrichtung, welche ein erstes und ein zweites Speicherelement umfasst, und FIG. 3 shows a schematic illustration of a sensor device which comprises a first and a second memory element, and
Figur 4 eine Sensoreinheit gemäß einer dritten Ausführungsform derFIG. 4 shows a sensor unit according to a third embodiment of FIG
Erfindung. Invention.
Ausführungsformen der Erfindung Embodiments of the invention
Figur 1 zeigt eine Sensorvorrichtung 1 gemäß einer ersten Ausführungsform der Erfindung. Die Sensorvorrichtung 1 umfasst dabei ein Sensorarray 2, welcher eine Vielzahl von optischen Sensoreinheiten 3a, 3b, 3c, 3d umfasst, die auf einer Sensoroberfläche nebeneinander angeordnet sind, um bei einem Betrieb des LiDAR-Systems jeweils einen Bildpunkt zu erfassen. Figure 1 shows a sensor device 1 according to a first embodiment of the invention. The sensor device 1 comprises a sensor array 2, which comprises a multiplicity of optical sensor units 3a, 3b, 3c, 3d, which are arranged next to one another on a sensor surface in order to capture one pixel in each case when the LiDAR system is in operation.
Die Sensoroberfläche erstreckt sich über die in Figur 1 dargestellten Bildebene. Die Sensoroberfläche des Sensorarrays 2 ist beispielsweise ein Substrat. Dabei kann die Sensoroberfläche eine ebene Oberfläche sein oder auch eine Wölbung aufweisen. Die Sensorvorrichtung 1 ist ein CCD-Chip oder ein SPAD-Chip. The sensor surface extends over the image plane shown in FIG. The sensor surface of the sensor array 2 is, for example, a substrate. There the sensor surface can be a flat surface or also have a curvature. The sensor device 1 is a CCD chip or a SPAD chip.
Der in Figur 1 dargestellte Sensorarray 2 weist eine erste optische Sensoreinheit 3a, eine zweite optische Sensoreinheit 3b, eine dritte Sensoreinheit 3c und eine vierte optische Sensoreinheit 3d auf. Die Anzahl der optischen Sensoreinheiten 3a, 3b, 3c, 3d ist dabei lediglich beispielhaft zu verstehen. Die erste bis vierte optische Sensoreinheit 3a bis 3d sind baugleiche optische Sensoreinheiten. Es wird daher im Folgenden lediglich der Aufbau der ersten optischen Sensoreinheit 3a der optischen Sensoreinheiten 3a, 3b, 3c, 3d beschrieben. The sensor array 2 shown in FIG. 1 has a first optical sensor unit 3a, a second optical sensor unit 3b, a third sensor unit 3c and a fourth optical sensor unit 3d. The number of optical sensor units 3a, 3b, 3c, 3d is only to be understood as an example. The first to fourth optical sensor units 3a to 3d are structurally identical optical sensor units. Therefore, only the structure of the first optical sensor unit 3a of the optical sensor units 3a, 3b, 3c, 3d is described below.
Die erste optische Sensoreinheit 3a umfasst einen ersten optischen Sensor 4 und einen zweiten optischen Sensor 5. Der erste optische Sensor 4 weist eine erste aktive Sensoroberfläche 6 auf. Die erste aktive Sensoroberfläche 6 liegt auf der Sensoroberfläche des Sensorarrays 2. Der zweite optische Sensor 5 ist neben dem ersten optischen Sensor 4 angeordnet und weist eine zweite aktive Sensoroberfläche 7 auf. Die zweite aktive Sensoroberfläche 7 liegt ebenfalls auf der Sensoroberfläche des Sensorarrays 2. Dabei ist die erste aktive Sensoroberfläche 6 derart gestaltet, dass diese eine größere Fläche ist, als die zweite aktive Sensoroberfläche 7. Das bedeutet, dass die erste aktive Sensoroberfläche 6 sich über einen größeren Bereich der Sensoroberfläche des Sensorarrays 2 erstreckt als die zweite aktive Sensoroberfläche 7. Dies ist bei der in Figur 1 dargestellten Ausführungsform dadurch erreicht, dass die erste aktive Sensoroberfläche 6 und die zweite aktive Sensoroberfläche 7 eine gleiche Breite aufweisen, die erste optische Sensoroberfläche 6 jedoch eine größere Höhe aufweist als die zweite optische Sensoroberfläche 7. Die erste aktive Sensoroberfläche 6 ist dabei unmittelbar angrenzend zu der zweiten Sensoroberfläche 7 auf der Sensoroberfläche des Sensorarrays 2 angeordnet. Als Breite wird dabei eine Erstreckung in Richtung entlang der Sensoroberfläche des Sensorarrays 2 in einer X-Richtung und als Höhe wird dabei eine Erstreckung in Richtung entlang der Sensoroberfläche des Sensorarrays 2 in einer Y-Richtung bezeichnet. The first optical sensor unit 3 a comprises a first optical sensor 4 and a second optical sensor 5. The first optical sensor 4 has a first active sensor surface 6. The first active sensor surface 6 lies on the sensor surface of the sensor array 2. The second optical sensor 5 is arranged next to the first optical sensor 4 and has a second active sensor surface 7. The second active sensor surface 7 also lies on the sensor surface of the sensor array 2. The first active sensor surface 6 is designed such that it is a larger area than the second active sensor surface 7. This means that the first active sensor surface 6 extends over a A larger area of the sensor surface of the sensor array 2 extends than the second active sensor surface 7. In the embodiment shown in FIG. 1, this is achieved in that the first active sensor surface 6 and the second active sensor surface 7 have the same width, but the first optical sensor surface 6 has a greater height than the second optical sensor surface 7. The first active sensor surface 6 is arranged directly adjacent to the second sensor surface 7 on the sensor surface of the sensor array 2. The width is an extension in the direction along the sensor surface of the sensor array 2 in an X direction and the height is an extension in the direction along the sensor surface of the sensor array 2 in a Y direction.
Die zweite Sensoreinheit 3b, die dritte Sensoreinheit 3c und die vierte Sensoreinheit 3d sind entsprechend der ersten optischen Sensoreinheit 3a aufgebaut. Die optischen Sensoreinheiten 3a, 3b, 3c, 3d sind in einer Reihe auf der Sensoroberfläche des Sensorarrays 2 angeordnet. Dabei ist in der Reihe abwechselnd ein erster optischer Sensor 4 und ein zweiter optischer Sensor 5 angeordnet. So ist in Figur 1 erkenntlich, dass die optischen Sensoreinheiten 3a, 3b, 3c, 3d in einer Reihe angeordnet sind, die sich in Figur 1 von unten nach oben erstreckt. Beginnend von oben ist zunächst ein erster optischer Sensor 4 angeordnet, auf welchen ein zweiter optischer Sensor 5 folgt. Neben dem zweiten optischen Sensor 5 der ersten optischen Sensoreinheit 3a ist der erste optische Sensor 4 der zweiten optischen Sensoreinheit 3b angeordnet. Es ergibt sich, dass beginnend von oben, immer ein erster optischer Sensor 4 neben einem zweiten optischen Sensor 5 angeordnet ist und neben dem zweiten optischen Sensor 5 wiederum ein erster optischer Sensor 4 einer folgenden optischen Sensoreinheit angeordnet ist. The second sensor unit 3b, the third sensor unit 3c and the fourth sensor unit 3d are constructed in the same way as the first optical sensor unit 3a. The optical sensor units 3a, 3b, 3c, 3d are arranged in a row on the sensor surface of the sensor array 2. A first optical sensor 4 and a second optical sensor 5 are arranged alternately in the row. Thus, it can be seen in FIG. 1 that the optical sensor units 3a, 3b, 3c, 3d are arranged in a row which in FIG. 1 extends from bottom to top. Starting from above, a first optical sensor 4 is initially arranged, which is followed by a second optical sensor 5. The first optical sensor 4 of the second optical sensor unit 3b is arranged next to the second optical sensor 5 of the first optical sensor unit 3a. The result is that, starting from above, a first optical sensor 4 is always arranged next to a second optical sensor 5 and, in turn, a first optical sensor 4 of a subsequent optical sensor unit is arranged next to the second optical sensor 5.
Figur 2 zeigt eine Sensorvorrichtung 1 gemäß einer zweiten Ausführungsform der Erfindung. Die zweite Ausführungsform der Erfindung entspricht der ersten Ausführungsform der Erfindung, jedoch sind die ersten optischen Sensoren 4 und die zweiten optischen Sensoren 5 in einer Reihe nebeneinander angeordnet. So sind auch bei dieser zweiten Ausführungsform die optischen Sensoreinheiten 3a, 3b, 3c, 3d in einer Reihe angeordnet, dabei sind jedoch die ersten optischen Sensoren 4 in einer ersten Reihe angeordnet und die zweiten optischen Sensoren 5 in einer zweiten Reihe angeordnet, wobei die erste Reihe parallel zu der zweiten Reihe ist. Dabei weist die erste aktive Sensoroberfläche 6 des ersten optischen Sensors 4 die gleiche Höhe auf der Sensoroberfläche auf wie auch die zweite aktive Sensoroberfläche 7 des zweiten optischen Sensors 5. Dabei weist jedoch die zweite aktive Sensoroberfläche 7 eine geringere Breite auf als die erste aktive Sensoroberfläche 6 des ersten optische Sensors 4. Figure 2 shows a sensor device 1 according to a second embodiment of the invention. The second embodiment of the invention corresponds to the first embodiment of the invention, but the first optical sensors 4 and the second optical sensors 5 are arranged in a row next to one another. In this second embodiment, too, the optical sensor units 3a, 3b, 3c, 3d are arranged in a row, but the first optical sensors 4 are arranged in a first row and the second optical sensors 5 are arranged in a second row, the first Row is parallel to the second row. The first active sensor surface 6 of the first optical sensor 4 has the same height on the sensor surface as the second active sensor surface 7 of the second optical sensor 5. However, the second active sensor surface 7 has a smaller width than the first active sensor surface 6 of the first optical sensor 4.
Aus Figur 2 ist ersichtlich, dass die ersten optischen Sensoren 4 in einer Reihe angeordnet sind, die in Figur 2 rechts gelegen ist, und die zweiten optischen Sensoren 5 in einer Reihe angeordnet sind, die in Figur 2 links gelegen ist. Es ist ersichtlich, dass auf diese Weise eine Höhe der Sensoroberfläche verringert werden kann. From FIG. 2 it can be seen that the first optical sensors 4 are arranged in a row which is located on the right in FIG. 2, and the second optical sensors 5 are arranged in a row which is located on the left in FIG. It can be seen that a height of the sensor surface can be reduced in this way.
In bevorzugten Ausführungsformen, welche insbesondere entsprechend der ersten Ausführungsform oder der zweiten Ausführungsform ausgestaltet sind, weist jede der Sensoreinheiten 3a, 3b, 3c, 3d ein erstes Speicherelement 8 und ein zweites Speicherelement 9 auf. Dies ist in Figur 3 dargestellt. Das erste Speicherelement 8 ist ein Speicherelement, welches dem ersten optischen Sensor 4 zugehörig ist, wobei das erste Speicherelement 8 dazu eingerichtet ist, eine von dem ersten optischen Sensor 4 ausgegebene erste Ladung oder einen diese erste Ladung repräsentierenden Wert zu speichern. In entsprechender Weise ist das zweite Speicherelement 9 ein Speicherelement, welches dem zweiten optischen Sensor 5 zugehörig ist, wobei das zweite Speicherelement 9 dazu eingerichtet ist, eine von dem zweiten optischen Sensor 5 ausgegebene zweite Ladung oder einen diese zweite Ladung repräsentierenden Wert zu speichern. Die erste Ladung repräsentiert einen Messwert des ersten optischen Sensors 4. Die zweite Ladung repräsentiert einen Messwert des zweiten optischen Sensors 5. In preferred embodiments, which are designed in particular in accordance with the first embodiment or the second embodiment, each of the sensor units 3a, 3b, 3c, 3d has a first memory element 8 and a second storage element 9. This is shown in FIG. The first storage element 8 is a storage element which is associated with the first optical sensor 4, the first storage element 8 being set up to store a first charge output by the first optical sensor 4 or a value representing this first charge. In a corresponding manner, the second storage element 9 is a storage element which is associated with the second optical sensor 5, the second storage element 9 being set up to store a second charge output by the second optical sensor 5 or a value representing this second charge. The first charge represents a measured value of the first optical sensor 4. The second charge represents a measured value of the second optical sensor 5.
Bevorzugt ist das erste Speicherelement 8 auf der Sensoroberfläche des Sensorarrays 2 zwischen der ersten aktiven Sensoroberfläche 6 und der zweiten aktiven Sensoroberfläche 7 angeordnet. Das zweite Speicherelement 9 ist bevorzugt ebenfalls auf der Sensoroberfläche angeordnet, wobei das zweite Speicherelement 9 bevorzugt auf einer Seite der zweiten aktiven Sensoroberfläche 7 angeordnet ist, die der Seite gegenüberliegt, auf welcher das erste Speicherelement 8 angeordnet ist. Die Anordnung der Speicherelemente 8, 9 gegenüber den aktiven Sensoroberflächen 6, 7 ist dabei in Figur 3 lediglich beispielhaft dargestellt. Auch andere Anordnungen der Speicherelemente 8, 9 gegenüber den aktiven Sensoroberflächen 6, 7 sind vorteilhaft. So ist es insbesondere vorteilhaft, wenn die aktiven Sensoroberflächen 6, 7 zueinander angrenzend angeordnet sind, wodurch es ermöglicht wird, dass eine gemeinsame Optik eine Fokussierung von Licht auf die aktiven Sensoroberflächen 6, 7 ermöglicht. Da die Speicherelemente 8, 9 keine aktive Sensoroberfläche bilden ist es ebenfalls vorteilhaft, wenn die Speicherelemente 8, 9 nicht auf der Sensoroberfläche angeordnet sind, sondern beispielsweise hinter den aktiven Sensoroberflächen 6, 7 auf einer Rückseite des Sensorarrays 2 angeordnet sind. The first storage element 8 is preferably arranged on the sensor surface of the sensor array 2 between the first active sensor surface 6 and the second active sensor surface 7. The second memory element 9 is preferably also arranged on the sensor surface, the second memory element 9 preferably being arranged on a side of the second active sensor surface 7 that is opposite the side on which the first memory element 8 is arranged. The arrangement of the storage elements 8, 9 with respect to the active sensor surfaces 6, 7 is shown in FIG. 3 merely as an example. Other arrangements of the storage elements 8, 9 with respect to the active sensor surfaces 6, 7 are also advantageous. It is particularly advantageous if the active sensor surfaces 6, 7 are arranged adjacent to one another, which makes it possible for common optics to enable light to be focused on the active sensor surfaces 6, 7. Since the memory elements 8, 9 do not form an active sensor surface, it is also advantageous if the memory elements 8, 9 are not arranged on the sensor surface, but rather are arranged, for example, behind the active sensor surfaces 6, 7 on a rear side of the sensor array 2.
Das erste Speicherelement 8 ist beispielsweise ein Kondensator, in dem eine von dem ersten optischen Sensor 4 bereitgestellte Ladung gespeichert wird, oder ein Kondensator, der durch Lichteinfall auf die erste aktive Sensoroberfläche 6 entladen wird. Alternativ ist das erste Speicherelement 8 ein Register, wobei zwischen den ersten optischen Sensor 4 und das erste Speicherelement 8 bevorzugt ein Analog-Digital-Wandler geschaltet ist, um einen von dem ersten optischen Sensor 4 erfassten Messwert als digitalen Wert in dem Register zu speichern. The first storage element 8 is, for example, a capacitor in which a charge provided by the first optical sensor 4 is stored, or a capacitor which is discharged by incident light on the first active sensor surface 6. Alternatively, the first memory element 8 is a register, with the first optical sensor 4 and the first memory element 8 an analog-to-digital converter is preferably connected in order to store a measured value detected by the first optical sensor 4 as a digital value in the register.
Das zweite Speicherelement 9 ist beispielsweise ein Kondensator, in dem eine von dem zweiten optischen Sensor 5 bereitgestellte Ladung gespeichert wird, oder ein Kondensator, der durch Lichteinfall auf die zweite aktive Sensoroberfläche 7 entladen wird. Alternativ ist das zweite Speicherelement 9 ein Register, wobei zwischen den zweiten optischen Sensor 5 und das zweite Speicherelement 9 bevorzugt ein Analog-Digital-Wandler geschaltet ist, um einen von dem zweiten optischen Sensor 5 erfassten Messwert als digitalen Wert in dem Register zu speichern. The second storage element 9 is, for example, a capacitor in which a charge provided by the second optical sensor 5 is stored, or a capacitor which is discharged by incident light on the second active sensor surface 7. Alternatively, the second storage element 9 is a register, an analog-to-digital converter preferably being connected between the second optical sensor 5 and the second storage element 9 in order to store a measured value acquired by the second optical sensor 5 as a digital value in the register.
Bevorzugt ist dabei in dieser Ausführungsform jede der optischen Sensoreinheiten 3a, 3b, 3c, 3d dazu eingerichtet, einen in dem ersten Speicherelement 8 gespeicherten Wert oder eine in dem ersten Speicherelement 8 gespeicherte Ladung in ein erstes benachbartes Speicherelement 10 zu übertragen. Insbesondere ist dabei bevorzugt jede der optischen Sensoreinheiten 3a, 3b, 3c, 3d dazu eingerichtet, einen in dem zweiten Speicherelement 9 gespeicherten Wert oder eine in dem zweiten Speicherelement 9 gespeicherte Ladung in ein zweites benachbartes Speicherelement 11 zu übertragen. Das erste benachbarte Speicherelement 10 und das zweite benachbarte Speicherelement 11 sind dabei bevorzugt angrenzend zu dem ersten Speicherelement 8 und dem zweiten Speicherelement 9 angeordnet. Auf diese Weise kann das erste Speicherelement 8 und das zweite Speicherelement 9 in schneller Weise ausgelesen werden und die optischen Sensoreinheiten 3a bis 3d sind bereit, um ein weiteres optisches Signal zu empfangen. In this embodiment, each of the optical sensor units 3a, 3b, 3c, 3d is preferably set up to transfer a value stored in the first storage element 8 or a charge stored in the first storage element 8 to a first adjacent storage element 10. In particular, each of the optical sensor units 3a, 3b, 3c, 3d is preferably set up to transfer a value stored in the second storage element 9 or a charge stored in the second storage element 9 to a second adjacent storage element 11. The first adjacent storage element 10 and the second adjacent storage element 11 are preferably arranged adjacent to the first storage element 8 and the second storage element 9. In this way, the first memory element 8 and the second memory element 9 can be read out in a rapid manner and the optical sensor units 3a to 3d are ready to receive a further optical signal.
Figur 4 zeigt eine Sensorvorrichtung 1 gemäß einer dritten Ausführungsform der Erfindung. Die Sensorvorrichtung 1 umfasst dabei die optischen Sensoreinheiten 3a, 3b, 3c, 3d, wie diese auch in dem zuvor beschriebenen Ausführungsformen beschrieben sind. Die optischen Sensoreinheiten 3a, 3b, 3c, 3d sind dabei als eine Gruppe aktiver Bildpunkte 12 auf der Sensoroberfläche angeordnet und bilden eine von mehreren Spalten einer Sensormatrix. Auf der Sensoroberfläche des Sensorarrays 2 sind bei in der in Figur 4 gezeigten Ausführungsform eine Gruppe von Schiebepixeln 20 angeordnet. Die Schiebepixel 20 sind entweder aktive optische Sensoreinheiten, die entsprechend der ersten bis vierten optischen Sensoreinheit 3a bis 3d aufgebaut sind oder sind passive optische Sensoreinheiten, durch welche kein Erfassen eines optischen Signals erfolgt. So wird bei der in Figur 4 gezeigten Ausführungsform durch die optischen Sensoreinheiten 3a, 3b, 3c, 3d und durch die Schiebepixel 20 eine Sensormatrix gebildet. Dabei ist jeder der optischen Sensoreinheiten 3a, 3b, 3c, 3d eine Vielzahl von Schiebepixeln zugehörig, welche insbesondere in einer gleichen Reihe der Sensormatrix liegen. So ist beispielsweise der ersten optischen Sensoreinheit 3a ein erster Schiebepixel 21, ein zweiter Schiebepixel 22, ein dritter Schiebepixel 23 und ein vierter Schiebepixel 24 zugehörig. Die der ersten optischen Sensoreinheit 3a zugehörigen Schiebepixel 21 bis 24 sind in einer Reihe mit der ersten optischen Sensoreinheit 3a angeordnet. FIG. 4 shows a sensor device 1 according to a third embodiment of the invention. The sensor device 1 comprises the optical sensor units 3a, 3b, 3c, 3d, as they are also described in the previously described embodiments. The optical sensor units 3a, 3b, 3c, 3d are arranged as a group of active image points 12 on the sensor surface and form one of several columns of a sensor matrix. In the embodiment shown in FIG. 4, a group of sliding pixels 20 are arranged on the sensor surface of the sensor array 2. The shift pixels 20 are either active optical sensor units which are constructed in accordance with the first to fourth optical sensor units 3a to 3d or are passive optical sensor units which do not detect an optical signal. In the embodiment shown in FIG. 4, a sensor matrix is formed by the optical sensor units 3a, 3b, 3c, 3d and the shift pixels 20. In this case, each of the optical sensor units 3a, 3b, 3c, 3d has associated with it a multiplicity of shift pixels which, in particular, lie in the same row of the sensor matrix. For example, a first shift pixel 21, a second shift pixel 22, a third shift pixel 23 and a fourth shift pixel 24 are associated with the first optical sensor unit 3a. The sliding pixels 21 to 24 belonging to the first optical sensor unit 3a are arranged in a row with the first optical sensor unit 3a.
Jeder der optischen Sensoreinheiten 3a, 3b, 3c, 3d und jedes der Schiebepixel 20 umfasst dabei jeweils ein erstes Speicherelement 8 und ein zweites Speicherelement 9, beispielsweise entsprechend der in Figur 3 gezeigten Ausführungsform. Wird durch die erste optische Sensoreinheit 3a ein optisches Signal erfasst, so wird dieses von dem ersten optischen Sensor 4 als eine Ladung oder ein digitaler Wert ausgegeben und in dem ersten Speicherelement 8 der ersten optischen Sensoreinheit 3a gespeichert. Die in dem ersten Speicherelement 8 gespeicherte Ladung oder der von dem ersten Speicherelement 8 gespeicherte digitale Wert wird im Folgenden als erster Messwert bezeichnet. Wird durch die erste optische Sensoreinheit 3a ein optisches Signal erfasst, so wird dieses auch von dem zweiten optischen Sensor 5 als eine Ladung oder ein digitaler Wert ausgegeben und in dem zweiten Speicherelement 9 der ersten optischen Sensoreinheit 3a gespeichert. Die in dem zweiten Speicherelement 9 gespeicherte Ladung oder der von dem zweiten Speicherelement 9 gespeicherte digitale Wert wird im Folgenden als erster Messwert bezeichnet. Each of the optical sensor units 3a, 3b, 3c, 3d and each of the shift pixels 20 each comprises a first memory element 8 and a second memory element 9, for example in accordance with the embodiment shown in FIG. If an optical signal is detected by the first optical sensor unit 3a, this is output by the first optical sensor 4 as a charge or a digital value and stored in the first memory element 8 of the first optical sensor unit 3a. The charge stored in the first storage element 8 or the digital value stored by the first storage element 8 is referred to below as the first measured value. If an optical signal is detected by the first optical sensor unit 3a, this is also output by the second optical sensor 5 as a charge or a digital value and is stored in the second memory element 9 of the first optical sensor unit 3a. The charge stored in the second storage element 9 or the digital value stored by the second storage element 9 is referred to below as the first measured value.
Ist ein Empfangszeitraum verstrichen, so wird der erste Messwert aus dem ersten Speicherelement 8 der ersten optischen Sensoreinheit 3a in ein erstes benachbartes Speicherelement 10 verschoben, welches ein erstes Speicherelement des ersten Schiebepixels 21 ist. In entsprechender Weise wird der in dem zweiten Speicherelement 9 der ersten optischen Sensoreinheit 3a gespeicherte zweite Messwert in ein zweites benachbartes Speicherelement 11 übertragen, welches das zweite Speicherelement 9 des ersten Schiebepixels 21 ist. Auf diese Weise können die von den optischen Sensoreinheiten 3a, 3b, 3c,If a reception period has elapsed, the first measured value is shifted from the first memory element 8 of the first optical sensor unit 3a into a first adjacent memory element 10, which is a first memory element of the first shift pixel 21. In a corresponding manner, the second measured value stored in the second memory element 9 of the first optical sensor unit 3a is transferred to a second, adjacent memory element 11, which is the second memory element 9 of the first shift pixel 21 is. In this way, the optical sensor units 3a, 3b, 3c,
3d erfassten Messwerte Schritt für Schritt durch die Schiebepixel 20 zu einer Digitalisierungseinheit 30 geschoben werden. 3d recorded measured values are shifted step by step through the shift pixels 20 to a digitization unit 30.
So wird der in dem ersten Speicherelement 8 der ersten optischen Sensoreinheit 3a gespeicherte erste Messwert zuerst in das erste Speicherelement des ersten Schiebepixels 21 geschoben, von dort in das erste Speicherelement des zweitenThe first measured value stored in the first memory element 8 of the first optical sensor unit 3a is first shifted into the first memory element of the first shift pixel 21, from there into the first memory element of the second
Schiebepixels 22 geschoben, von dort in das erste Speicherelement des drittenShift pixel 22 pushed, from there into the first storage element of the third
Schiebepixels 23 geschoben, von dort in das erste Speicherelement des viertenShift pixel 23 pushed, from there into the first storage element of the fourth
Schiebepixels 24 geschoben und von dort in einen ersten Analog-Digital-WandlerShift pixel 24 pushed and from there into a first analog-to-digital converter
31 der Digitalisierungseinheit 30 geschoben. Wurde der erste Messwert bereits zuvor in einen digitalen Wert gewandelt, so kann dieser in der Digitalisierungseinheit 30 nur zwischengespeichert werde oder es kann auf die Digitalisierungseinheit 30 verzichtet werden 31 of the digitization unit 30 is pushed. If the first measured value has already been converted into a digital value beforehand, it can only be temporarily stored in the digitization unit 30 or the digitization unit 30 can be dispensed with
In entsprechender Weise wird der zweite Messewert, welcher in dem zweiten Speicherelement 9 der ersten optischen Sensoreinheit 3a gespeichert wurde, zunächst in die das zweite Speicherelement 9 des ersten Schiebepixels 21 geschoben, von dort in das zweite Speicherelement des zweiten SchiebepixelsIn a corresponding manner, the second measurement value, which was stored in the second memory element 9 of the first optical sensor unit 3a, is first shifted into the second memory element 9 of the first shift pixel 21, from there into the second memory element of the second shift pixel
22 geschoben, von dort in das zweite Speicherelement des dritten Schiebepixels22, from there into the second storage element of the third shift pixel
23 geschoben, von dort in das zweite Speicherelement des vierten Schiebepixels23, from there into the second storage element of the fourth shift pixel
24 geschoben und von dort in einen zweiten Analog-Digital-Wandler 32 der Digitalisierungseinheit 30 geschoben. Wurde der zweite Messwert bereits zuvor in einen digitalen Wert gewandelt, so kann dieser in der Digitalisierungseinheit 30 nur zwischengespeichert werde oder es kann auf die Digitalisierungseinheit 30 verzichtet werden 24 and pushed from there into a second analog-to-digital converter 32 of the digitization unit 30. If the second measured value has already been converted into a digital value beforehand, it can only be temporarily stored in the digitization unit 30 or the digitization unit 30 can be dispensed with
Durch den ersten Analog-Digital-Wandler 31 und den zweiten Analog-Digital- Wandler 32 werden die von dem der ersten optischen Sensoreinheit 3a erfassten Messwerte in digitale Werte umgesetzt und in einen Multiplexer 40 übergeben. Von dort werden die Messwerte bevorzugt an eine Auswertungseinheit 50 übertragen. In entsprechender Weise werden die Messwerte, welche von der zweiten bis vierten optischen Sensoreinheit 3b, 3c, 3d erfasst wurden, über die diesen optischen Sensoreinheiten 3b, 3c, 3d jeweils zugehörigen Schiebepixel zu entsprechenden Analog-Digital-Wandlern übertragen und von dort ebenfalls an den Multiplexer 40 übertragen. Auch die Messwerte der zweiten bis vierten optischen Sensoreinheit 3b, 3c, 3d werden bevorzugt an die Auswertungseinheit 50 übertragen. Die Auswertungseinheit 50 ist dabei eine Komponente des CCD- Chips oder eine separate bauliche Komponente. The measured values detected by the first optical sensor unit 3a are converted into digital values by the first analog-digital converter 31 and the second analog-digital converter 32 and transferred to a multiplexer 40. From there, the measured values are preferably transmitted to an evaluation unit 50. In a corresponding manner, the measured values that were recorded by the second to fourth optical sensor units 3b, 3c, 3d are transmitted via the shift pixels associated with these optical sensor units 3b, 3c, 3d to corresponding analog-digital converters and from there also to the Multiplexer 40 transmitted. The measured values of the second to fourth optical sensor units 3b, 3c, 3d are also preferably sent to the evaluation unit 50 transferred. The evaluation unit 50 is a component of the CCD chip or a separate structural component.
Es ist aus Figur 4 ersichtlich, dass die Schiebepixel 20 ebenfalls aktive Pixel sein können. Auf diese Weise kann die Anzahl von optischen Sensoreinheiten auf der Sensoroberfläche des Sensorarrays 2 erhöht werden. Durch das Verschieben der Messwerte von Speicherelement zu Speicherelement wird dazu ermöglicht, dass die optischen Sensoreinheiten 3a bis 3d sowie die Schiebepixel 20 ausgelesen werden können. Es wird darauf hingewiesen, dass die Anzahl der optischen Sensoreinheiten 3a bis 3d und auch die Anzahl der Schiebepixel 20 in Figur 4 lediglich beispielhaft gewählt ist. It can be seen from FIG. 4 that the shift pixels 20 can also be active pixels. In this way, the number of optical sensor units on the sensor surface of the sensor array 2 can be increased. By shifting the measured values from memory element to memory element, it is possible for the optical sensor units 3a to 3d and the shift pixels 20 to be read out. It should be noted that the number of optical sensor units 3a to 3d and also the number of shift pixels 20 in FIG. 4 are selected merely as examples.
Der Auswertungseinheit 50 liegen somit zumindest die von den optischen Sensoreinheiten 3a bis 3d erfassten ersten und zweiten Messwerte vor. Die Auswertungseinheit 50 ist dazu eingerichtet, für jede der Sensoreinheiten 3a, 3b, 3c, 3d basierend auf dem ersten optischen Sensor 4 bereitgestellten ersten Messwert und basierend auf dem von dem zweiten optischen Sensor 5 bereitgestellten zweiten Messwert zu ermitteln, ob ein reflektiertes optisches Signal empfangen wurde. The evaluation unit 50 therefore has at least the first and second measured values recorded by the optical sensor units 3a to 3d. The evaluation unit 50 is set up to determine for each of the sensor units 3a, 3b, 3c, 3d based on the first measured value provided by the first optical sensor 4 and based on the second measured value provided by the second optical sensor 5, whether a reflected optical signal is received has been.
Dabei wird insbesondere dann erkannt, dass ein reflektiertes optisches Signal empfangen wurde, wenn der erste Messwert und/oder der zweite Messwert in einem jeweils zugehörigen vorgegebenen Wertintervall liegt. So wird insbesondere dann erkannt, dass ein reflektiertes optisches Signal empfangen wurde, wenn der erste Messwert eine Sättigung des ersten optischen Sensors 5 anzeigt und der zweite Messwert anzeigt, dass ein optisches Signal durch den zweiten optischen Sensor 5 empfangen wurde, dieser jedoch nicht in Sättigung ist. Auch wird erkannt, dass ein reflektiertes optisches Signal empfangen wurde, wenn der erste Messwert anzeigt, dass ein optisches Signal von dem ersten optischen Sensor 4 empfangen wurde, der erste optische Sensor 4 jedoch nicht in Sättigung ist, und der zweite Messwert anzeigt, dass von dem zweiten optischen Sensor 5 kein optisches Signal empfangen wurde. Basierend auf den Messwerten und basierend darauf, ob erkannt wurde, dass ein reflektiertes optisches Signal empfangen wurde, kann ein zugehöriger Zeitpunkt bestimmt werden, zu dem das reflektierte optische Signal empfangen wurde und es kann beispielsweise eine Time-Of-Flight-Messung basierend auf diesen Messwerten ausgeführt werden. Es wird somit insbesondere ein CCD-Chip so gestaltet, dass dieser insbesondere für LiDAR-Anwendungen im Bereich des automatisierten Fahrens sowohl für niederreflektive als auch für hochreflektive Objekte eine zuverlässige Detektion ermöglicht. In this case, it is recognized in particular that a reflected optical signal has been received when the first measured value and / or the second measured value lies in a respectively associated predetermined value interval. In particular, it is recognized that a reflected optical signal was received when the first measured value indicates saturation of the first optical sensor 5 and the second measured value indicates that an optical signal was received by the second optical sensor 5, but not in saturation is. It is also recognized that a reflected optical signal has been received when the first measured value indicates that an optical signal was received by the first optical sensor 4, but the first optical sensor 4 is not in saturation, and the second measured value indicates that from the second optical sensor 5 no optical signal was received. Based on the measured values and based on whether it was detected that a reflected optical signal was received, an associated point in time at which the reflected optical signal was received can be determined and, for example, a time-of-flight measurement can be based on this Measured values are carried out. In particular, a CCD chip is thus designed in such a way that it enables reliable detection, in particular for LiDAR applications in the field of automated driving, for both low-reflective and high-reflective objects.
Dies wird durch die Kombination eines großen Pixelarrays (hohe Sensitivität) und eines kleinen Pixelarrays (niedrige Sensitivität) jeweils bestehend aus Photodioden auf einem Silizium Chip, um sowohl für nieder- als auch hochreflektive Objekte eine zuverlässige Auswertung ermöglicht. Der große Pixelarray wird dabei durch die ersten optischen Sensoren 4 gebildet und der kleine Pixelarray wird dabei durch die zweiten optischen Sensoren 5 gebildet. Die kleinen Pixelflächen (Photodioden) weisen dabei eine geringere Sensitivität gegenüber den auftreffenden Photonen auf, weshalb für die Sättigung dieser Pixel eine wesentlich höhere Photonendichte benötigt wird. Ein Pixel entspricht dabei einem Bildpunkt. Damit sind die kleinen Pixel gegenüber hochreflektiven Objekten weniger empfindlich. Vorteilhaft ist hierbei die Tatsache, dass die Apertur des Empfangsobjektivs auf die großen Pixelarrays optimiert ist. This is made possible by the combination of a large pixel array (high sensitivity) and a small pixel array (low sensitivity), each consisting of photodiodes on a silicon chip, in order to enable a reliable evaluation for both low and high reflective objects. The large pixel array is formed by the first optical sensors 4 and the small pixel array is formed by the second optical sensors 5. The small pixel areas (photodiodes) have a lower sensitivity to the incident photons, which is why a significantly higher photon density is required for the saturation of these pixels. One pixel corresponds to one image point. This means that the small pixels are less sensitive to highly reflective objects. The fact that the aperture of the receiving lens is optimized for the large pixel arrays is advantageous here.
Durch die Auswertung der beiden unabhängigen Pixelarrays und eine Plausibilisierung kann im System erkannt werden, ob sich (teilweise) hochreflektive Objekte im Sichtfeld befinden. Die Robustheit des Systems wird erhöht, da direkt im ersten Scan eine zuverlässige Aussage getroffen werden kann. By evaluating the two independent pixel arrays and performing a plausibility check, it can be recognized in the system whether there are (partially) highly reflective objects in the field of view. The robustness of the system is increased because a reliable statement can be made directly in the first scan.
Neben der obigen schriftlichen Offenbarung wird explizit auf die Offenbarung der Figuren 1 bis 4 verwiesen. In addition to the above written disclosure, explicit reference is made to the disclosure of FIGS. 1 to 4.

Claims

Ansprüche Expectations
1. Sensorvorrichtung (1) für ein LiDAR-System, umfassend: einen Sensorarray (2), welcher eine Vielzahl von optischen1. A sensor device (1) for a LiDAR system, comprising: a sensor array (2) which has a plurality of optical
Sensoreinheiten (3a, 3b, 3c, 3d) umfasst, die auf einer Sensoroberfläche nebeneinander angeordnet sind, um bei einem Betrieb des LiDAR- Systems jeweils einen Bildpunkt zu erfassen, wobei jede der Sensoreinheiten (3a, 3b, 3c, 3d) einen ersten optischen Sensor (4) und einen zweiten optischen Sensor (5) umfasst, o wobei der erste optische Sensor (4) eine erste aktive Sensoroberfläche (6) umfasst, und o wobei der zweite optische Sensor (5) eine zweite aktive Sensoroberfläche (7) umfasst, wobei die erste aktive Sensoroberfläche (6) eine größere Fläche ist, als die zweite aktive Sensoroberfläche (7). Sensor units (3a, 3b, 3c, 3d), which are arranged next to one another on a sensor surface in order to capture one pixel when the LiDAR system is in operation, each of the sensor units (3a, 3b, 3c, 3d) having a first optical Sensor (4) and a second optical sensor (5), o wherein the first optical sensor (4) comprises a first active sensor surface (6), and o wherein the second optical sensor (5) comprises a second active sensor surface (7) , wherein the first active sensor surface (6) is a larger area than the second active sensor surface (7).
2. Sensorvorrichtung (1) gemäß Anspruch 1, dadurch gekennzeichnet, dass der Sensorarray (2) ein CCD-Chip oder SPAD-Chip ist. 2. Sensor device (1) according to claim 1, characterized in that the sensor array (2) is a CCD chip or SPAD chip.
3. Sensorvorrichtung (1) gemäß einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass die erste aktive Sensoroberfläche (6) unmittelbar angrenzend zu der zweiten aktiven Sensoroberfläche (7) angeordnet ist. 3. Sensor device (1) according to one of the preceding claims, characterized in that the first active sensor surface (6) is arranged directly adjacent to the second active sensor surface (7).
4. Sensorvorrichtung (1) gemäß einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass die Sensoreinheiten (3a, 3b, 3c, 3d) in einer Reihe angeordnet sind, wobei in der Reihe abwechselnd ein erster optischer Sensor (4) auf einen zweiten optischen Sensor (5) folgt. 4. Sensor device (1) according to one of the preceding claims, characterized in that the sensor units (3a, 3b, 3c, 3d) are arranged in a row, with a first optical sensor (4) alternating on a second optical sensor in the row (5) follows.
5. Sensorvorrichtung gemäß einem der voranstehenden Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Sensoreinheiten (3a, 3b, 3c, 3d) in einer Reihe angeordnet sind, wobei die ersten optischen Sensoren (4) in einer ersten Reihe angeordnet sind und die zweiten optischen Sensoren (5) in einer zweiten Reihe angeordnet sind, wobei die erste Reihe parallel zu der zweiten Reihe ist. 5. Sensor device according to one of the preceding claims 1 to 3, characterized in that the sensor units (3a, 3b, 3c, 3d) are arranged in a row, the first optical sensors (4) being arranged in a first row and the second optical sensors (5) in a second row, the first row being parallel to the second row.
6. Sensorvorrichtung (1) gemäß einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass jede der Sensoreinheiten (3a, 3b, 3c, 3d) ein erstes Speicherelement (8) umfasst, welches dem ersten optischen6. Sensor device (1) according to one of the preceding claims, characterized in that each of the sensor units (3a, 3b, 3c, 3d) comprises a first memory element (8) which is the first optical
Sensor (4) zugehörig ist, wobei das erste Speicherelement (8) dazu eingerichtet ist, eine von dem ersten optischen Sensor (4) ausgegebene erste Ladung oder einen diese erste Ladung repräsentierenden Wert zu speichern, und ein zweites Speicherelement (9) umfasst, welches dem zweiten optischen Sensor (5) zugehörig ist, wobei das zweite Speicherelement (9) dazu eingerichtet ist, eine von dem zweiten optischen Sensor (5) ausgegebene zweite Ladung oder einen diese zweite Ladung repräsentierenden Wert zu speichern. Sensor (4), the first storage element (8) being set up to store a first charge output by the first optical sensor (4) or a value representing this first charge, and comprising a second storage element (9) which is associated with the second optical sensor (5), the second storage element (9) being set up to store a second charge output by the second optical sensor (5) or a value representing this second charge.
7. Sensorvorrichtung (1) gemäß einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass jede der Sensoreinheiten (3a, 3b, 3c, 3d) dazu eingerichtet ist, einen in dem ersten Speicherelement (8) gespeicherten Wert in ein erstes benachbartes Speicherelement (10) zu übertragen, und einen in dem zweiten Speicherelement (9) gespeicherten Wert in ein zweites benachbartes Speicherelement (11) zu übertragen.7. Sensor device (1) according to one of the preceding claims, characterized in that each of the sensor units (3a, 3b, 3c, 3d) is set up to transfer a value stored in the first memory element (8) to a first adjacent memory element (10) to transmit, and to transmit a value stored in the second memory element (9) to a second adjacent memory element (11).
8. Sensorvorrichtung (1) gemäß einem der voranstehenden Ansprüche, ferner umfassend eine Auswertungseinheit (50), welche dazu eingerichtet ist, für jede der Sensoreinheiten (3a, 3b, 3c, 3d) basierend auf einem von dem ersten optischen Sensor (4) bereitgestellten ersten Messwert und basierend auf einem von dem zweiten optischen Sensor (5) bereitgestellten zweiten Messwert zu ermitteln, ob ein reflektiertes optisches Signal empfangen wurde. 8. Sensor device (1) according to one of the preceding claims, further comprising an evaluation unit (50) which is set up for each of the sensor units (3a, 3b, 3c, 3d) based on one provided by the first optical sensor (4) to determine first measured value and, based on a second measured value provided by the second optical sensor (5), whether a reflected optical signal has been received.
9. Sensorvorrichtung gemäß Anspruch 8, dadurch gekennzeichnet, dass die Auswertungseinheit (50) erkennt, dass ein reflektiertes optisches Signal empfangen wurde, wenn der erste Messwert und/oder der zweite Messwert in einem jeweils zugehörigen vorgegebenen Werteintervall liegt. 9. Sensor device according to claim 8, characterized in that the evaluation unit (50) detects that a reflected optical signal has been received when the first measured value and / or the second measured value is in a respectively associated predetermined value interval.
10. LiDAR-System, umfassend eine Sensoreinheit (1) gemäß einem der voranstehenden Ansprüche. 10. LiDAR system comprising a sensor unit (1) according to one of the preceding claims.
PCT/EP2020/075345 2019-09-18 2020-09-10 Sensor unit for a lidar system WO2021052859A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019214211.7 2019-09-18
DE102019214211.7A DE102019214211A1 (en) 2019-09-18 2019-09-18 Sensor unit for a LiDAR system

Publications (1)

Publication Number Publication Date
WO2021052859A1 true WO2021052859A1 (en) 2021-03-25

Family

ID=72473557

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/075345 WO2021052859A1 (en) 2019-09-18 2020-09-10 Sensor unit for a lidar system

Country Status (2)

Country Link
DE (1) DE102019214211A1 (en)
WO (1) WO2021052859A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006015906A1 (en) * 2004-08-04 2006-02-16 Siemens Aktiengesellschaft Optical module for a driver assistance system
DE102011005740A1 (en) * 2011-03-17 2012-09-20 Robert Bosch Gmbh Measuring device for measuring a distance between the measuring device and a target object by means of optical measuring radiation
DE102016013861A1 (en) * 2016-11-22 2017-05-18 Daimler Ag Optical sensor for a motor vehicle and motor vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006015906A1 (en) * 2004-08-04 2006-02-16 Siemens Aktiengesellschaft Optical module for a driver assistance system
DE102011005740A1 (en) * 2011-03-17 2012-09-20 Robert Bosch Gmbh Measuring device for measuring a distance between the measuring device and a target object by means of optical measuring radiation
DE102016013861A1 (en) * 2016-11-22 2017-05-18 Daimler Ag Optical sensor for a motor vehicle and motor vehicle

Also Published As

Publication number Publication date
DE102019214211A1 (en) 2021-03-18

Similar Documents

Publication Publication Date Title
EP3185038B1 (en) Optoelectronic sensor and method for measuring a distance
DE102017101501B3 (en) An optoelectronic sensor and method for determining the distance of an object in a surveillance area
EP3729137B1 (en) Multi-pulse lidar system for multi-dimensional detection of objects
EP3611535B1 (en) Detection of light with a plurality of avalanche photodiode elements
EP3279685B2 (en) Optoelectronic sensor and method for detecting an object
DE212018000118U1 (en) LiDAR readout circuit
EP3450915B1 (en) Total station or theodolite with scan functionality and adjustable receiving areas of the receiver
EP3633405B1 (en) Measuring apparatus for geometric 3d-scanning of an environment having a plurality of emission channels and semiconductor photomultiplier sensors
DE112005003698B4 (en) Detection of optical radiation
DE202018002044U1 (en) Flight time measurement depth mapping with parallax compensation
EP2708913A1 (en) Opto-electronic sensor and object detection method
EP3557284A2 (en) Optoelectronic sensor and distance measurement method
EP3451021A1 (en) Measuring device with scan functionality and adjustable receiving areas of the receiver
EP3557286B1 (en) Optoelectronic sensor and method for detecting and determining the distance from objects
DE102006029025A1 (en) Reflective object distance determining device, has two integrators connected with photoelectric unit and control input, where photoelectric unit is rectangle or square shape and exhibits specific side length
EP1860462A1 (en) Distance measuring method and distance meter for determining the spatial dimension of a target
DE202013105389U1 (en) Optoelectronic sensor with avalanche photodiode elements operated in Geiger mode
WO2020114740A1 (en) Lidar system and motor vehicle
EP3861374A1 (en) Imaging sensor
WO2021052859A1 (en) Sensor unit for a lidar system
DE102018126631A1 (en) Method for determining a distance of an object using an optical detection device and optical detection device
EP3650888B1 (en) Optoelectronic sensor and method for recording and determining the distance of an object
WO2021048029A1 (en) Optical sensor
DE102017222974A1 (en) Arrangement and method for determining a distance of at least one object with light signals
DE10025897B4 (en) Method for operating an optoelectronic sensor arrangement and optoelectronic sensor arrangement

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20771536

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20771536

Country of ref document: EP

Kind code of ref document: A1