DE112014002962B4 - Interpretation of a measurement point recorded by an optical sensor - Google Patents

Interpretation of a measurement point recorded by an optical sensor Download PDF

Info

Publication number
DE112014002962B4
DE112014002962B4 DE112014002962.9T DE112014002962T DE112014002962B4 DE 112014002962 B4 DE112014002962 B4 DE 112014002962B4 DE 112014002962 T DE112014002962 T DE 112014002962T DE 112014002962 B4 DE112014002962 B4 DE 112014002962B4
Authority
DE
Germany
Prior art keywords
distance
optical sensor
sensor
measurement point
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112014002962.9T
Other languages
German (de)
Other versions
DE112014002962T5 (en
Inventor
Mikael Salmén
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Scania CV AB
Original Assignee
Scania CV AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Scania CV AB filed Critical Scania CV AB
Publication of DE112014002962T5 publication Critical patent/DE112014002962T5/en
Application granted granted Critical
Publication of DE112014002962B4 publication Critical patent/DE112014002962B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Verfahren (400) in einer Berechnungseinheit (200), die mit einem optischen Sensor (110) verbunden ist, um einen vom optischen Sensor (110) erfassten Messpunkt (120) zu interpretieren, gekennzeichnet durch:Ermitteln (401) einer ersten Distanz (A1) innerhalb des Sichtfelds (130) des optischen Sensors (110) zwischen dem optischen Sensor (110) und einer ersten Grenze (150-1), innerhalb welcher eine Sensorerfassung mithilfe des optischen Sensors (110) eindeutig ist, wobei das Sichtfeld (130) des optischen Sensors (110) eine Ebene aufweist, in der die erste Distanz (A1) ermittelt wird;Assoziieren (403) eines ersten Sensorwinkelbereichs (Δθ1) mit Distanzen, die kürzer als die ermittelte (401) erste Distanz (A1) zur ersten Grenze (150-1) sind, und eines zweiten Sensorwinkelbereichs (Δθ2) mit Distanzen, die länger als die ermittelte (401) erste Distanz (A1) zur ersten Grenze (150-1) sind;Erfassen (404) des Messpunkts (120) innerhalb des Sichtfelds (130) des optischen Sensors (110); undInterpretieren (405) der Distanz zum erfassten (404) Messpunkt (120) auf Basis des Sensorwinkelbereichs (Δθ1, Δθ2), innerhalb dessen eine Lichtreflexion (140-2) vom Messpunkt (120) erfasst wird (404).Method (400) in a calculation unit (200) which is connected to an optical sensor (110) in order to interpret a measuring point (120) detected by the optical sensor (110), characterized by: determining (401) a first distance (A1 ) within the field of view (130) of the optical sensor (110) between the optical sensor (110) and a first boundary (150-1) within which a sensor detection using the optical sensor (110) is unambiguous, the field of view (130) of the optical sensor (110) has a plane in which the first distance (A1) is determined;associating (403) a first sensor angular range (Δθ1) with distances shorter than the determined (401) first distance (A1) to the first boundary (150-1), and a second sensor angle range (Δθ2) with distances that are longer than the determined (401) first distance (A1) to the first boundary (150-1);detecting (404) the measuring point (120) within the field of view (130) of the optical sensor (110); andinterpreting (405) the distance to the detected (404) measurement point (120) based on the sensor angular range (Δθ1, Δθ2) within which a light reflection (140-2) from the measurement point (120) is detected (404).

Description

Technisches Gebiet der ErfindungTechnical field of the invention

Die Erfindung betrifft ein Verfahren und eine Berechnungseinheit, die mit einem optischen Sensor verbunden ist. Mehr im Detail betrifft die Erfindung einen Mechanismus zum Interpretieren eines vom optischen Sensor erfassten Messpunkts.The invention relates to a method and a calculation unit connected to an optical sensor. In more detail, the invention relates to a mechanism for interpreting a measurement point detected by the optical sensor.

Hintergrundbackground

US 7 791 715 B1 offenbart ein Verfahren, um einen Abstandsbereich eines Time-of-Flight-Systems vom Phasentyp hierarchisch zu dealiasieren. U.S. 7,791,715 B1 discloses a method to hierarchically de-alias a distance range of a phase-type time-of-flight system.

Manche optischen Sensoren geben eine modulierte Wellenbewegung aus, wie z. B. eine Lichtwelle, und ermitteln die Distanz zu einem Objekt, indem sie eine reflektierte Lichtwelle erfassen, die mit dem vom optischen Sensor ausgegebenen Licht assoziiert ist, und die Verschiebung der Lichtwelle messen.Some optical sensors output modulated wave motion, such as B. a light wave, and determine the distance to an object by detecting a reflected light wave associated with the light output from the optical sensor and measuring the displacement of the light wave.

In diesem Kontext kann ein optischer Sensor z. B. aus einer 3D-Kamera, einer Time-of-Flight-(ToF-)Kamera, einer Stereokamera, einer Lichtfeldkamera, einer Radarmessvorrichtung, einer Lasermessvorrichtung, einer LIDAR, einer Distanzmessvorrichtung auf Basis von Ultraschallwellen oder dergleichen bestehen.In this context, an optical sensor z. B. consist of a 3D camera, a time-of-flight (ToF) camera, a stereo camera, a light field camera, a radar measuring device, a laser measuring device, a LIDAR, a distance measuring device based on ultrasonic waves or the like.

Ein Problem bei optischen Sensoren dieser Art liegt darin, dass die Ermittlung der Distanz zu einem Objekt eindeutig ist. Dies gilt wahrscheinlich insbesondere für Objekte, die sich außerhalb einer Distanzgrenze befinden, der manchmal als eindeutiger Bereich (NAR; Non-Ambiguous Range) bezeichnet wird, innerhalb dessen die Distanz nicht eindeutig ermittelt werden kann. Diese Distanzgrenze bzw. NAR liegt in einer Distanz, in der die Verschiebung der Wellenbewegung in Bezug auf die ausgegebene Wellenbewegung 360 Grad beträgt.A problem with optical sensors of this type is that the determination of the distance to an object is unambiguous. This is likely to be especially true for objects that are outside a distance boundary, sometimes referred to as a non-ambiguous range (NAR), within which distance cannot be unambiguously determined. This distance limit, or NAR, is at a distance where the displacement of the wave motion is 360 degrees with respect to the output wave motion.

Wenn die Verschiebung der Wellenbewegung 360 Grad übersteigt, kann es schwer sein, eindeutig zu ermitteln, ob sich das Objekt innerhalb der Distanzgrenze oder außerhalb der Distanzgrenze befindet. Dieses Problem wird manchmal Aliasing genannt.When the displacement of the wave motion exceeds 360 degrees, it can be difficult to determine unequivocally whether the object is within range or beyond range. This problem is sometimes called aliasing.

Beispielsweise kann ein optischer Sensor, der mit 20 MHz betrieben wird, eine Distanzgrenze von z. B. 7,5 Metern aufweisen. Ein Objekt, das sich tatsächlich 8 Meter weg befindet, wird sodann aufgrund des Aliasing-Effekts vom optischen Sensor so erfasst, als würde es in einer Distanz von 0,5 Metern oder in einer Distanz von sowohl 0,5 als auch 8 Metern liegen.For example, an optical sensor operating at 20 MHz may have a distance limit of e.g. B. have 7.5 meters. An object that is actually 8 meters away will then be detected by the optical sensor as if it were at a distance of 0.5 meters or at a distance of both 0.5 and 8 meters due to the aliasing effect.

Zwei oder mehr Modulationsfrequenzen für ausgegebene Lichtwellen, wie z. B. 20 MHz und 30 MHz, werden im Stand der Technik häufig verwendet, um dieses Problem zu lösen. Dadurch werden unterschiedliche Distanzgrenzen für die unterschiedlichen Modulationsfrequenzen erhalten, und somit wird es möglich, die Distanz zu identifizieren, in der das Objekt liegt. Dies erfordert jedoch mehrere Expositionen, was die Effizienz des optischen Sensors verschlechtert. Doppelmodulationsfrequenzen verdoppeln die Anzahl von Expositionen, Dreifachmodulationsfrequenzen verdreifachen die Anzahl von Expositionen und so weiter.Two or more modulation frequencies for output light waves, such as e.g. B. 20 MHz and 30 MHz, are often used in the prior art to solve this problem. Thereby different distance limits are obtained for the different modulation frequencies and thus it becomes possible to identify the distance at which the object lies. However, this requires multiple exposures, which degrades the efficiency of the optical sensor. Double modulation frequencies double the number of exposures, triple modulation frequencies triple the number of exposures, and so on.

Es dauert demnach auch proportional länger, die Distanz zum Objekt zu ermitteln, was ein Problem darstellt, da optische Sensoren häufig bei zeitempfindlichen Anwendungen verwendet werden, z. B. in Fahrzeugen, um z. B. Hindernisse wie Fußgänger oder Tiere, die plötzlich auf der Straße auftreten, zu erfassen; Distanzen zu voranfahrenden Fahrzeugen zu erfahren und in ähnlichen Anwendungsbereichen.It also takes proportionally longer to determine the distance to the object, which is a problem since optical sensors are often used in time-sensitive applications, e.g. B. in vehicles to z. B. to detect obstacles such as pedestrians or animals that suddenly appear on the road; Finding out distances to vehicles ahead and in similar areas of application.

Die Verringerung der Zeit, die der optische Sensor benötigt, um die Distanz zum erfassten Objekt zu ermitteln, ist folglich ein wichtiger Sicherheitsfaktor, da es auf diese Weise möglich wird, einen Fahrer früher zu warnen und eine längere Reaktionszeit einzuräumen oder ein automatisches Bremsen auszulösen oder Airbags auszulösen oder dergleichen.The reduction in the time it takes for the optical sensor to determine the distance to the detected object is therefore an important safety factor, as it makes it possible to warn a driver earlier and allow a longer reaction time or to trigger automatic braking or Deploy airbags or the like.

Es ist klar, dass es noch vieler Bemühungen bedarf, um das Ermitteln der Distanz von einem optischen Sensor zu einem Objekt eindeutig und ohne nicht notwendigen Zeitverlust zu ermöglichen.It is clear that a great deal of effort is still required to make it possible to determine the distance from an optical sensor to an object unequivocally and without unnecessary loss of time.

Kurzfassung der ErfindungSummary of the Invention

Es ist folglich eine Aufgabe dieser Erfindung, die Distanzmessung mithilfe eines optischen Sensors zu verbessern, um zumindest eines der oben genannten Probleme zu lösen und dadurch einen verbesserten optischen Sensor zu erzielen.It is therefore an object of this invention to improve distance measurement using an optical sensor to solve at least one of the above problems and thereby achieve an improved optical sensor.

Gemäß einem ersten Aspekt der Erfindung wird diese Aufgabe mithilfe eines Verfahrens in einer Berechnungseinheit gelöst, die mit einem optischen Sensor verbunden ist, um einen vom optischen Sensor erfassten Messpunkt zu interpretieren. Das Verfahren umfasst das Ermitteln einer ersten Distanz innerhalb des Sensorsichtfelds zwischen dem optischen Sensor und einer ersten Grenze, innerhalb welcher eine Sensorerfassung mithilfe des optischen Sensors eindeutig ist, wobei das Sichtfeld des Sensors eine Ebene aufweist, in der die erste Distanz ermittelt wird. Das Verfahren umfasst des Weiteren das Assoziieren des ersten Sensorwinkelbereichs mit Distanzen, die kürzer als die ermittelte erste Distanz mit der ersten Grenze sind, und eines zweiten Sensorwinkelbereichs mit Distanzen, die länger als die ermittelte erste Distanz mit der ersten Grenze sind. Das Verfahren umfasst außerdem das Erfassen des Messpunkts innerhalb des Sensorsichtfelds. Das Verfahren umfasst des Weiteren das Interpretieren der Distanz zum erfassten Messpunkt auf Basis des Sensorwinkelbereichs, innerhalb dessen eine Lichtreflexion vom Messpunkt erfasst wird.According to a first aspect of the invention, this object is achieved using a method in a calculation unit that is connected to an optical sensor in order to interpret a measurement point detected by the optical sensor. The method includes determining a first distance within the sensor field of view between the optical sensor and a first boundary within which sensor detection using the optical sensor is unambiguous, the field of view of the sensor having a plane in which the first distance is determined. The method further includes associating the first sensor angle range with distances shorter than the determined first distance to the first boundary and a second sensor angle range with distances longer than the determined first distance to the first boundary. The method also includes acquiring the measurement point within the sensor's field of view. The method further includes interpreting the distance to the detected measurement point based on the sensor angular range within which a light reflection from the measurement point is detected.

Gemäß einem zweiten Aspekt der Erfindung wird diese Aufgabe mithilfe einer Berechnungseinheit gelöst, die mit einem optischen Sensor verbunden ist. Die Berechnungseinheit ist so ausgelegt, dass sie einen vom optischen Sensor erfassten Messpunkt interpretiert. Die Berechnungseinheit umfasst einen Signalempfänger, der so ausgelegt ist, dass er ein Signal empfängt, das Informationen zu einer Erfassung des Messpunkts enthält. Die Berechnungseinheit umfasst außerdem einen Prozessorschaltkreis, der so ausgelegt ist, dass er eine erste Distanz innerhalb des Sensorsichtfelds zwischen dem optischen Sensor und einer ersten Grenze, innerhalb welcher eine Sensorerfassung mithilfe des optischen Sensors eindeutig ist, ermittelt, wobei das Sichtfeld des Sensors eine Ebene aufweist, in der die erste Distanz ermittelt wird. Der Prozessorschaltkreis ist außerdem so ausgelegt, dass er einen ersten Sensorwinkelbereich mit Distanzen, die kürzer als die ermittelte erste Distanz mit der ersten Grenze sind, assoziiert und einen zweiten Sensorwinkelbereich mit Distanzen, die länger als die ermittelte erste Distanz mit der ersten Grenze sind, assoziiert. Der Prozessorschaltkreis ist des Weiteren so ausgelegt, dass er den Messpunkt mit dem Sensorsichtfeld auf Basis des empfangenen Signals erfasst.According to a second aspect of the invention, this object is achieved using a calculation unit connected to an optical sensor. The calculation unit is designed to interpret a measurement point detected by the optical sensor. The calculation unit includes a signal receiver that is designed to receive a signal that contains information about a detection of the measurement point. The calculation unit also includes a processor circuit configured to determine a first distance within the sensor's field of view between the optical sensor and a first boundary within which sensor detection using the optical sensor is unambiguous, wherein the sensor's field of view comprises a plane , in which the first distance is determined. The processor circuit is also configured to associate a first sensor angle range with distances shorter than the determined first distance with the first boundary and a second sensor angle range with distances longer than the determined first distance with the first boundary . The processor circuit is further configured to acquire the measurement point with the sensor's field of view based on the received signal.

Der Prozessorschaltkreis ist außerdem so ausgelegt, dass er die Distanz zum erfassten Messpunkt auf Basis des Sensorwinkelbereichs, innerhalb dessen eine Lichtreflexion vom Messpunkt erfasst wurde, interpretiert.The processor circuitry is also designed to interpret the distance to the detected measurement point based on the sensor angular range within which a light reflection from the measurement point was detected.

Das Assoziieren gewisser Messwinkel von einfallenden Lichtreflexionen mit gewissen Distanzen ermöglicht das robuste und zuverlässige Ermitteln der Distanz zum Messpunkt, ohne dass es infolge der Distanzgrenze zu einem Aliasing-Effekt kommt. Somit wird es möglich, ein Objekt eindeutig zu erfassen und bereichsmäßig einzuordnen.Associating certain measurement angles of incident light reflections with certain distances enables the robust and reliable determination of the distance to the measurement point without aliasing due to the distance limit. This makes it possible to clearly detect an object and classify it according to area.

Bei gewissen Ausführungsformen kann ein Bildverarbeitungsprozess Messpunktcluster innerhalb diverser Distanzbereiche miteinander assoziieren, nachdem bestätigt wurde, dass die Messpunktcluster mit einem Wahrscheinlichkeitsgrad zum gleichen Objekt gehören und sich innerhalb des gleichen Distanzbereichs befinden.In certain embodiments, an image processing process may associate measurement point clusters within various distance ranges with one another after confirming that the measurement point clusters belong to the same object with a degree of probability and are within the same distance range.

Störungen der Messungen können somit weiter verringert werden, wodurch ein zuverlässigeres und verbessertes System zur Distanzmessung mithilfe eines optischen Sensors erzielt wird.Thus, disturbances in the measurements can be further reduced, resulting in a more reliable and improved distance measurement system using an optical sensor.

Andere Vorteile und weitere neue Merkmale gehen aus der folgenden ausführlichen Beschreibung der Erfindung hervor.Other advantages and further novel features will appear from the following detailed description of the invention.

Figurenlistecharacter list

Die Erfindung wird nun unter Bezugnahme auf die beiliegenden Figuren, die diverse Ausführungsformen der Erfindung veranschaulichen, ausführlicher beschrieben:

  • 1A veranschaulicht ein Fahrzeug mit einem optischen Sensor gemäß einer Ausführungsform.
  • 1B veranschaulicht die Wellenbewegung einer ausgegebenen und einer reflektierten Lichtwelle gemäß einer Ausführungsform.
  • 2A zeigt ein Beispiel für eine Kartierung zwischen Distanz und Winkel für eine Lichtwelle, die von einem Objekt reflektiert wird, gemäß einer Ausführungsform.
  • 2B zeigt ein Beispiel für eine Kartierung zwischen Distanz und Winkel für eine Lichtwelle, die von einem Objekt reflektiert wird, gemäß einer Ausführungsform.
  • 3A zeigt ein Beispiel für eine Kartierung zwischen Distanz und Winkel für eine Lichtwelle, die von einem Objekt reflektiert wird, gemäß einer Ausführungsform.
  • 3B zeigt ein Beispiel für eine Kartierung zwischen Distanz und Winkel für eine Lichtwelle, die von einem Objekt reflektiert wird, gemäß einer Ausführungsform.
  • 4 zeigt einen Ablaufplan, der eine Ausführungsform der Erfindung veranschaulicht.
  • 5 ist eine Veranschaulichung einer Berechnungseinheit, die mit einem optischen Sensor verbunden ist, gemäß einer Ausführungsform der Erfindung.
The invention will now be described in more detail with reference to the accompanying figures, which illustrate various embodiments of the invention:
  • 1A 12 illustrates a vehicle having an optical sensor according to one embodiment.
  • 1B 12 illustrates the wave motion of an emitted and a reflected light wave, according to one embodiment.
  • 2A 12 shows an example of a distance-angle mapping for a light wave reflected from an object, according to one embodiment.
  • 2 B 12 shows an example of a distance-angle mapping for a light wave reflected from an object, according to one embodiment.
  • 3A 12 shows an example of a distance-angle mapping for a light wave reflected from an object, according to one embodiment.
  • 3B 12 shows an example of a distance-angle mapping for a light wave reflected from an object, according to one embodiment.
  • 4 Figure 12 shows a flow chart illustrating an embodiment of the invention.
  • 5 13 is an illustration of a computing unit connected to an optical sensor according to an embodiment of the invention.

Ausführliche Beschreibung der ErfindungDetailed Description of the Invention

Die Erfindung ist als Verfahren und als Berechnungseinheit definiert, die mit einem optischen Sensor verbunden ist, um einen vom optischen Sensor erfassten Messpunkt zu interpretieren, die gemäß beliebigen der nachstehend beschriebenen Ausführungsformen umgesetzt werden können. Diese Erfindung kann jedoch auf viele unterschiedliche Formen umgesetzt werden und ist nicht als durch die hier beschriebenen Ausführungsformen beschränkt anzusehen, die vielmehr diverse Aspekte der Erfindung darbieten und verdeutlichen sollen.The invention is defined as a method and a calculation unit associated with an optical sensor to interpret a measurement point detected by the optical sensor, which can be implemented according to any of the embodiments described below. This invention, however, may be embodied in many different forms and should not be construed as limited to the embodiments described herein, which are intended to demonstrate and clarify various aspects of the invention.

Weitere Aspekte und Merkmale der Erfindung können aus der folgenden ausführlichen Beschreibung in Zusammenschau mit den beiliegenden Figuren hervorgehen. Die Figuren sind jedoch ausschließlich als Beispiele für diverse Ausführungsformen der Erfindung anzusehen und nicht als die Erfindung einschränkend auszulegen, die lediglich durch die beiliegenden Ansprüche eingeschränkt ist. Des Weiteren sind die Figuren nicht notwendigerweise maßstabsgetreu und sollen, falls nicht anderweitig angegeben, Aspekte der Erfindung konzeptionell veranschaulichen.Further aspects and features of the invention can emerge from the following detailed description in conjunction with the accompanying figures. However, the figures are to be considered solely as examples of various embodiments of the invention and are not to be construed as limiting the invention, which is limited only by the appended claims. Furthermore, the figures are not necessarily to scale and are intended to conceptually illustrate aspects of the invention unless otherwise noted.

1A zeigt ein Fahrzeug 100 mit einem optischen Sensor 110. Der optische Sensor 110 kann z. B. aus einer Kamera, einer 3D-Kamera, einer Time-of-Flight-Kamera, einer Stereokamera, einer Lichtfeldkamera, einer Radarmessvorrichtung, einer Lasermessvorrichtung, einer LIDAR, einer Distanzmessvorrichtung auf Basis von Ultraschallwellen oder dergleichen bestehen. 1A shows a vehicle 100 with an optical sensor 110. The optical sensor 110 can, for. B. consist of a camera, a 3D camera, a time-of-flight camera, a stereo camera, a light field camera, a radar measuring device, a laser measuring device, a LIDAR, a distance measuring device based on ultrasonic waves or the like.

Eine LIDAR ist ein optisches Messinstrument, das Eigenschaften von reflektiertem Licht misst, um die Distanz (und/oder andere Eigenschaften) eines entfernt gelegenen Objekts zu ermitteln. Die Technologie erinnert stark an ein Radar (Radio Detection and Ranging), anstatt Licht werden jedoch Funkwellen verwendet. Die Distanz zu einem Objekt wird für gewöhnlich durch Messen der Zeitverzögerung zwischen einem ausgegebenen Laserimpuls und einer registrierten Reflexion gemessen.A LIDAR is an optical measurement instrument that measures properties of reflected light to determine the distance (and/or other properties) of a distant object. The technology is very similar to radar (radio detection and ranging), but radio waves are used instead of light. The distance to an object is usually measured by measuring the time delay between an emitted laser pulse and a registered reflection.

Eine Time-of-Flight-Kamera (ToF-Kamera) ist ein Kamerasystem, das eine Reihe von Bildern aufnimmt und eine Distanz zu einem Objekt auf Basis der bekannten Lichtgeschwindigkeit misst, indem sie die Zeit misst, die ein Lichtsignal benötigt, um zwischen der Kamera und dem Subjekt/Objekt zu passieren.A time-of-flight (ToF) camera is a camera system that takes a series of images and measures a distance to an object based on the known speed of light by measuring the time it takes for a light signal to travel between the to happen to the camera and the subject/object.

Der optische Sensor 110 ist so konfiguriert, dass er einen Messpunkt 120 innerhalb eines Sichtfelds 130 erfasst, indem er eine Lichtwelle 140-1 ausgibt und eine Reflexion der vom Objekt 120 reflektierten Lichtwelle 140-2 erfasst. Die Distanz zum Messpunkt 120 kann danach durch Messen eines Phasenunterschieds zwischen der ausgegebenen Lichtwelle 140-1 und deren Reflexion 140-2 ermittelt werden, wie in Verbindung mit 1B verdeutlicht und ausführlicher veranschaulicht.The optical sensor 110 is configured to detect a measurement point 120 within a field of view 130 by outputting a lightwave 140 - 1 and detecting a reflection of the lightwave 140 - 2 reflected from the object 120 . The distance to the measuring point 120 can then be determined by measuring a phase difference between the emitted lightwave 140-1 and its reflection 140-2, as in connection with FIG 1B clarified and illustrated in more detail.

Der Messpunkt 120 kann aus einem beliebigen Objekt bestehen, wie z. B. einen Fahrzeug, einem Straßenschild, einem Fußgänger, einem Tier, einer Wand, einem Gebäude, einem Baum oder dergleichen. In Hinblick auf die Erfindung ist nicht wichtig, ob der Messpunkt 120 sich bewegt oder stillsteht. Die Erfindung hängt auch nicht davon ab, ob der optische Sensor 110 an einem Fahrzeug 100 angebracht ist oder nicht, und auch nicht davon, ob das Fahrzeug 100 stillsteht oder sich bewegt.The measuring point 120 can consist of any object, such as e.g. a vehicle, street sign, pedestrian, animal, wall, building, tree or the like. With regard to the invention, it is not important whether the measurement point 120 is moving or stationary. The invention also does not depend on whether the optical sensor 110 is attached to a vehicle 100 or not, nor whether the vehicle 100 is stationary or moving.

Ein Fahrzeug 100 bezieht sich in diesem Kontext z. B. auf einen Guttransporter, einen Langstreckensattelschlepper, ein Transportfahrzeug, ein Privatfahrzeug, ein Notfahrzeug, ein Auto, einen Geländewagen, ein Kettenfahrzeug, einen Bus, ein Boot, eine Fähre, ein Amphibienfahrzeug, ein Flugzeug, einen Helikopter oder ein anderes motorisiertes bemanntes oder nicht bemanntes Mittel zum Transportieren, das für eine geographische Bewegung im Meer, in der Luft oder am Land ausgelegt ist.A vehicle 100 refers in this context z. B. on a cargo transporter, a long-distance semi-trailer, a transport vehicle, a private vehicle, an emergency vehicle, a car, an SUV, a tracked vehicle, a bus, a boat, a ferry, an amphibious vehicle, an airplane, a helicopter or other motorized means of transportation, manned or unmanned, designed for geographic movement by sea, air or land.

In Bezug auf optische Sensoren 110, wie z. B. ToF-Kameras, die auf eine Weise angebracht sind, dass sie an jedem Punkt innerhalb des Sichtfelds 130 einen linear steigenden Bereich erzielen, ist es möglich, eine eindeutige Lokalisierung des Messpunkts 120 und eine Distanzmessung zu diesem zu erreichen, sogar wenn der Messpunkt 120 außerhalb einer Distanzgrenze liegt. Durch Kartieren des Winkels, mit dem eine ausgegebene Lichtwelle 140-1 vom Messpunkt 120 mit einer Distanz reflektiert wird 140-2, ist es somit möglich, zu ermitteln, ob der Messpunkt 120 innerhalb der Distanzgrenze oder außerhalb der Grenze oder bei gewissen Ausführungsformen an einem Vielfachen der Distanz zur Distanzgrenze liegt.With respect to optical sensors 110, such as. B. ToF cameras mounted in such a way that they achieve a linearly increasing range at every point within the field of view 130, it is possible to achieve an unambiguous localization of the measuring point 120 and a distance measurement to it, even if the measuring point 120 is outside a distance limit. Thus, by mapping the angle at which an emitted lightwave 140-1 is reflected from the measurement point 120 at a distance 140-2, it is possible to determine whether the measurement point 120 is within the distance boundary or outside the boundary, or in certain embodiments at a multiples of the distance to the distance limit.

Software im optischen Sensor 110 kann somit den oben beschriebenen Aliasing-Effekt kompensieren und eine korrekte Distanzmessung zum Messpunkt 120 bereitstellen, ohne dass Lichtwellen mit unterschiedlichen Modulationen und somit unterschiedlichen Distanzgrenzen ausgegeben werden müssen.Software in the optical sensor 110 can thus compensate for the aliasing effect described above and provide a correct distance measurement to the measuring point 120 without having to output light waves with different modulations and thus different distance limits.

Bei gewissen Ausführungsformen ist der Aliasing-Effekt nicht phasenbasiert, bei anderen Ausführungsformen kann er hingegen zeitbasiert sein. Beispielsweise kann es für einen optischen Sensor 110 in Form einer LIDAR problematisch sein, in der Lage zu sein, eine Lichtreflexion innerhalb eines angedachten Zeitfensters mit einer hohen Abtastrate wieder zu empfangen. Die Lichtreflexionen können sodann in einem darauf folgenden Zeitfenster ankommen, worauf es zu einer Form des Aliasing kommt.In certain embodiments, the aliasing effect is not phase based, while in other embodiments it may be time based. For example, it can be problematic for an optical sensor 110 in the form of a LIDAR to be able to receive a light reflection again within an intended time window with a high sampling rate. The light reflections can then arrive in a subsequent time window, whereupon a form of aliasing occurs.

Ein besonders wünschenswertes Beispiel für eine Anwendung eines optischen Sensors 110 kann ein Fahrzeug 100 mit einem nach unten zeigenden optischen Sensor 110 beinhalten, die einen Erfassungsbereich größer als eine Proximitätsgrenze aufweisen. Der Messwinkel für einfallende Lichtreflexionen 140-2, der der Distanzgrenze entspricht, kann gemäß Ausführungsformen manuell oder auf Basis von Sensormessungen automatisch geschätzt werden.A particularly desirable example of an application of an optical sensor 110 may include a vehicle 100 with a downward-facing optical sensor 110 having a detection range greater than a proximity limit. The measurement angle for incident light reflections 140 - 2 corresponding to the distance limit can be estimated manually or automatically based on sensor measurements according to embodiments.

Dadurch wird eine robuste und zuverlässige Ermittlung der Distanz zum Messpunkt 120 ermöglicht, ohne dabei durch Aliasing-Effekte eingeschränkt zu sein, die sich aus der Distanzgrenze ergeben. Es wird somit möglich, den Messpunkt 120, der außerhalb der Distanzgrenze liegt, zu erfassen und bereichsmäßig einzuordnen, der andernfalls als Störungen der Messung wahrgenommen werden oder diese bewirken würde.This enables a robust and reliable determination of the distance to the measurement point 120 without being restricted by aliasing effects that result from the distance limit. It is thus possible to detect and to classify the measurement point 120 which lies outside the distance limit, which would otherwise be perceived as disturbances of the measurement or cause them.

1B veranschaulicht die Wellenbewegung einer ausgegebenen 140-1 und reflektierten 140-2 Lichtwelle, die jeweils von einem optischen Sensor 110 ausgegeben und empfangen wird, wie z. B. in 1A veranschaulicht. 1B Figure 1 illustrates the wave motion of an output 140-1 and reflected 140-2 light wave, each output and received by an optical sensor 110, such as FIG. Am 1A illustrated.

Die Figur veranschaulicht die ausgegebene Lichtwelle 140-1 mit einer durchgehenden Linie, die vom Messpunkt 120 reflektierte Lichtwelle 140-2 hingegen ist mit einer strichlierten Linie veranschaulicht.The figure illustrates the output lightwave 140-1 with a solid line, while the lightwave 140-2 reflected from the measuring point 120 is illustrated with a dashed line.

Die Distanz A1, innerhalb welcher die Distanz zu einem Messpunkt 120 eindeutig ermittelt werden kann, entspricht 360 Grad, wobei von einer sinusoidalen Wellenbewegung für die ausgegebene Lichtwelle 140-1 ausgegangen wird.The distance A1, within which the distance to a measurement point 120 can be determined unequivocally, corresponds to 360 degrees, with a sinusoidal wave movement being assumed for the emitted light wave 140-1.

Wenn die entsprechende Reflexion 140-2 wieder am Messpunkt 120 angekommen ist, kann die Phasenverschiebung Δφ zwischen der ausgegebenen Lichtwelle 140-1 und der reflektierten Lichtwelle 140-2 ermittelt werden. Die Phasenverschiebung Δφ kann sodann wiederum in Bezug auf eine Distanz kartiert werden, z. B. in einem nicht einschränkenden Beispiel für eine Kartierung, das in Tabelle 1 gezeigt ist. Die Distanz zum Messpunkt 120 kann damit ermittelt werden. Tabelle 1 Phasenverschiebung Δφ (Grad) Distanz (Meter) 0 0 90 1,875 180 3,75 360 7,5 When the corresponding reflection 140-2 has arrived again at the measuring point 120, the phase shift Δφ between the emitted light wave 140-1 and the reflected light wave 140-2 can be determined. The phase shift Δφ can then in turn be mapped with respect to a distance, e.g. B. in a non-limiting example of mapping shown in Table 1. The distance to the measuring point 120 can thus be determined. Table 1 Phase shift Δφ (degrees) distance (meters) 0 0 90 1,875 180 3.75 360 7.5

2A zeigt eine Ausführungsform des optischen Sensors 110, der hier auf einem Fahrzeug 100 angebracht ist, und zeigt, wie die Erfassungseinheit den Messpunkt 120 durch Ausgeben und Empfangen von Lichtwellen auf die in Verbindung mit 1B beschriebene Weise erfasst. 2A 12 shows an embodiment of the optical sensor 110, here mounted on a vehicle 100, and shows how the detection unit detects the measurement point 120 by emitting and receiving light waves on the in connection with 1B described manner recorded.

Eine Kartierung wird zwischen einem ersten Winkelbereich Δθ1 und einem ersten Distanzbereich 0 m zur ersten Distanzgrenze 150-1 durchgeführt, die in einer ersten Distanz A1 liegt. Bei gewissen Ausführungsformen wird eine Zuordnung auch zwischen einem zweiten Winkelbereich Δθ2 und einem zweiten Distanzbereich zwischen der ersten Distanzgrenze 150-1 in der ersten Distanz A1 und einer zweiten Distanzgrenze 150-2 durchgeführt, die in einer zweiten Distanz A2 liegt. Bei gewissen anderen Ausführungsformen wird eine noch weitere Zuordnung zwischen einem dritten Winkelbereich Δθ3 und einem dritten Distanzbereich durchgeführt, der zwischen der zweiten Distanzgrenze 150-2 in einer zweiten Distanz A2 und einer dritten Distanzgrenze 150-3 liegt, die in einer dritten Distanz A3 liegt.Mapping is performed between a first angular range Δθ1 and a first distance range 0 m to the first distance boundary 150-1, which is at a first distance A1. In certain embodiments, a mapping is also performed between a second angular range Δθ2 and a second distance range between the first distance limit 150-1 at the first distance A1 and a second distance limit 150-2 that is at a second distance A2. In certain other embodiments, a still further mapping is performed between a third angular range Δθ3 and a third distance range lying between the second distance boundary 150-2 at a second distance A2 and a third distance boundary 150-3 lying at a third distance A3.

Bei gewissen Ausführungsformen kann die Zuordnung derart fortgesetzt werden, dass eine erste n-te Grenze 150-n und eine n-te Grenze An zwischen dem optischen Sensor 110 und der n-ten Grenze 150-n ermittelt wird, wobei n eine zufällige positive ganze Zahl ist. Eine Zuordnung kann danach zwischen einem n-ten Sensorwinkelbereich Δθn mit einer Distanz länger als die Distanz A(n - 1) zur (n - 1)-ten Grenze 150-(n - 1), aber kürzer als die n-te Grenze 150-n durchgeführt werden.In certain embodiments, the mapping may be continued such that a first nth boundary 150-n and an nth boundary An is determined between the optical sensor 110 and the nth boundary 150-n, where n is a random positive integer number is. An assignment can then be made between an nth sensor angle range Δθn with a distance longer than the distance A(n - 1) to the (n - 1)th limit 150-(n - 1), but shorter than the nth limit 150 -n are performed.

Gemäß diversen Ausführungsformen kann eine solche Zuordnung mithilfe von manueller Kalibrierung oder mithilfe einer automatischen Kalibrierung auf Basis von Sensormessungen durch den optischen Sensor 110 durchgeführt werden. Bei gewissen Ausführungsformen kann die Zuordnung durch Speichern von kalibrierten Werten in einer Tabelle, wie z. B. Tabelle 2, durchgeführt werden. Tabelle 2 Sensorwinkelbereich Δθn Distanzbereich 0-48 Grad (Δθ1) 0-7,5 Meter 48-80 Grad (Δθ2) 7,5-15 Meter 80-88 Grad (Δθ3) 15-22,5 Meter According to various embodiments, such an association can be performed by the optical sensor 110 using manual calibration or using an automatic calibration based on sensor measurements. In certain embodiments, the mapping can be performed by storing calibrated values in a table, such as B. Table 2, are carried out. Table 2 Sensor angle range Δθn distance range 0-48 degrees (Δθ1) 0-7.5 meters 48-80 degrees (Δθ2) 7.5-15 meters 80-88 degrees (Δθ3) 15-22.5 meters

2B zeigt eine Ausführungsform darüber, wie Messsignale von einer Berechnungseinheit im optischen Sensor 110 interpretiert werden. 2 B 12 shows an embodiment of how measurement signals are interpreted by a calculation unit in the optical sensor 110. FIG.

Eine Lichtwelle 140-1 mit einer bekannten Frequenz, z. B. 20 MHz, wird ausgegeben und die vom Messpunkt 120 reflektierte Reflexion 140-2 wird erfasst. Die Phasenverschiebung Δφ zwischen der ausgegebenen Lichtwelle 140-1 und deren Reflexion 140-2 wird ermittelt. Des Weiteren kann die ermittelte Phasenverschiebung Δφ in Bezug auf eine Distanz kartiert werden, z. B. wie in Verbindung mit 1B und Tabelle 1 verdeutlicht.A light wave 140-1 with a known frequency, e.g. 20 MHz, is output and the reflection 140-2 reflected from the measuring point 120 is detected. The phase shift Δφ between the emitted light wave 140-1 and its reflection 140-2 is determined. Furthermore, the determined phase shift Δφ can be mapped in relation to a distance, e.g. B. as in connection with 1B and Table 1 clarifies.

Des Weiteren kann der Sensorwinkelbereich Δθn, innerhalb dessen die Reflexion 140-2 vom Messpunkt 120 erfasst wurde, ermittelt werden.Furthermore, the sensor angle range Δθn, within which the reflection 140-2 was detected by the measuring point 120, can be determined.

Eine Kartierung des ermittelten Sensorwinkelbereichs Δθn kann sodann zu einem Distanzbereich erfolgen, wie oben in Verbindung mit 2A und Tabelle 2 beschrieben.The determined sensor angle range Δθn can then be mapped to a distance range, as above in connection with 2A and Table 2.

Die Distanz zum Messpunkt 120 kann dadurch eindeutig ermittelt werden, und das Problem eines Aliasing-Effekts wird gelöst. Gleichzeitig wird die Notwendigkeit, Lichtwellen mit unterschiedlichen Modulationsfrequenzen auszugeben, beseitigt, wodurch die Zeit, die notwendig ist, um die Distanz zum Messpunkt 120 zu ermitteln, verringert wird.The distance to the measurement point 120 can thus be determined unambiguously, and the problem of an aliasing effect is solved. At the same time, the need to output light waves with different modulation frequencies is eliminated, thereby reducing the time required to determine the distance to the measurement point 120.

3A zeigt eine Ausführungsform darüber, wie Messsignale von einer Berechnungseinheit im optischen Sensor 110 interpretiert werden. 3A 12 shows an embodiment of how measurement signals are interpreted by a calculation unit in the optical sensor 110. FIG.

Ein Messpunkt 120 und wahrscheinlich insbesondere ein Messpunkt 120 auf einem Objekt mit vertikaler Erstreckung kann unter Verwendung der oben beschriebenen Technik innerhalb von zwei separaten Sensorwinkelbereichen Δθ erfasst werden. In 3A liegt der Messpunkt 120 innerhalb des ersten Distanzbereichs 0-A1, während vom optischen Sensor 110 ausgegebene Lichtwellen sowohl vom ersten Sensorwinkelbereich Δθ1 als auch vom zweiten Sensorwinkelbereich Δθ2 reflektiert werden.A measurement point 120, and likely in particular a measurement point 120 on an object of vertical extent, can be detected within two separate sensor angular ranges Δθ using the technique described above. In 3A the measuring point 120 lies within the first distance range 0-A1, while light waves emitted by the optical sensor 110 are reflected both by the first sensor angular range Δθ1 and by the second sensor angular range Δθ2.

Wenn zur Lösung dieses Problems keine Maßnahmen ergriffen werden, interpretiert die Berechnungseinheit im optischen Sensor 110 dies als Anzeichen dafür, dass gewisse Messpunkte 120, die zum Objekt gehören, innerhalb des ersten Distanzbereichs 0-A1 liegen, während ein weiterer Teil der Messpunkte 120, die zum Objekt gehören, innerhalb des zweiten Distanzbereichs A1-A2 liegt.If no measures are taken to solve this problem, the calculation unit in the optical sensor 110 interprets this as an indication that certain measuring points 120 that belong to the object are within the first distance range 0-A1, while another part of the measuring points 120 that belong to the object is within the second distance range A1-A2.

Gemäß gewissen Ausführungsformen kann die nachvollziehbare Fehlerquelle dadurch behoben werden, dass ein Messpunktcluster 125 innerhalb eines Sensorwinkelbereichs Δθ1 erfasst wird und ein innerhalb eines zweiten Sensorwinkelbereichs Δθ2 erfasster Messpunkt mit dem ersten Distanzbereich A1 assoziiert wird, der mit dem ersten Sensorwinkelbereich Δθ1 assoziiert ist, wenn eine Analyse der Phasenverschiebung Δφ zeigt, dass die Messpunkte 120, 125 wahrscheinlich zum gleichen Objekt gehören.According to certain embodiments, the traceable source of error can be eliminated in that a measurement point cluster 125 is detected within a sensor angle range Δθ1 and a measurement point detected within a second sensor angle range Δθ2 is associated with the first distance range A1, which is associated with the first sensor angle range Δθ1, when an analysis of the phase shift Δφ shows that the measuring points 120, 125 probably belong to the same object.

Es kann danach davon ausgegangen werden, dass es wahrscheinlicher ist, dass ein Objekt am Boden in dem am nächsten gelegenen Distanzbereich steht, innerhalb dessen ein Messpunkt 120 erfasst wurde, der zu einem Messpunktcluster 125 gehört, und dass es eine vertikale Hochkanterstreckung hat, die sich über einem entsprechenden Sensorwinkelbereich Δθ erstreckt, als die gegenteilige Situation, so dass davon ausgegangen werden kann, dass der Messpunkt 120 zum Distanzbereich gehören muss, der dem optischen Sensor 110 am nächsten gelegen ist.It can then be assumed that it is more likely that an object is on the ground in the closest distance range within which a measurement point 120 belonging to a measurement point cluster 125 was recorded and that it has a vertical edgewise extension that extends over a corresponding sensor angle range Δθ than the opposite situation, so that it can be assumed that the measuring point 120 must belong to the distance range that is closest to the optical sensor 110 .

4 veranschaulicht ein Beispiel für eine Ausführungsform der Erfindung. Der Ablaufplan von 4 veranschaulicht ein Verfahren 400 in einer Berechnungseinheit 200, die mit einem optischen Sensor 110 verbunden ist, um einen vom optischen Sensor 110 erfassten Messpunkt 120 zu interpretieren. Die Berechnungseinheit 200 kann gemäß diversen Ausführungsformen im optischen Sensor 110 enthalten sein oder kann mit dem optischen Sensor 110 extern verbindbar sein. 4 illustrates an example of an embodiment of the invention. The schedule of 4 FIG. 4 illustrates a method 400 in a calculation unit 200 which is connected to an optical sensor 110 in order to interpret a measurement point 120 detected by the optical sensor 110. FIG. According to various embodiments, the calculation unit 200 can be contained in the optical sensor 110 or can be externally connectable to the optical sensor 110 .

Der optische Sensor 110 kann gemäß diversen Ausführungsformen z. B. aus einer Kamera, einer 3D-Kamera, einer Time-of-Flight-Kamera, einer Stereokamera, einer Lichtfeldkamera, einer Radarmessvorrichtung, einer Lasermessvorrichtung, einer LIDAR, einer Distanzmessvorrichtung auf Basis von Ultraschallwellen oder dergleichen bestehen.The optical sensor 110 can, according to various embodiments, e.g. B. consist of a camera, a 3D camera, a time-of-flight camera, a stereo camera, a light field camera, a radar measuring device, a laser measuring device, a LIDAR, a distance measuring device based on ultrasonic waves or the like.

Um in der Lage sein zu können, den vom optischen Sensor 110 erfassten Messpunkt 120 korrekt zu erfassen, kann das Verfahren 400 eine Reihe von Schritten 401-406 umfassen. Es sei jedoch angemerkt, dass gewisse der beschriebenen Schritte 401-406 gemäß diversen Ausführungsformen in einer chronologischen Reihenfolge durchgeführt werden können, die sich von der angezeigten numerischen Reihenfolge unterscheidet, und dass gewisse dieser parallel zueinander durchgeführt werden können. Des Weiteren werden gewisse Schritte nur bei gewissen Ausführungsformen durchgeführt, wie z. B. Schritt 402 und/oder Schritt 406. Das Verfahren 400 umfasst die folgenden Schritte:In order to be able to correctly detect the measurement point 120 detected by the optical sensor 110, the method 400 may comprise a series of steps 401-406. It should be noted, however, that certain of the described steps 401-406 may be performed in a chronological order that differs from the numerical order indicated, and certain of these may be performed in parallel, according to various embodiments. Furthermore, certain steps are only performed in certain embodiments, e.g. B. step 402 and/or step 406. The method 400 includes the following steps:

Schritt 401Step 401

Eine erste Distanz A1 wird innerhalb des Sichtfelds 130 des Sensors 110 zwischen dem optischen Sensor 110 und einer ersten Grenze 150-1 ermittelt, innerhalb welcher eine Sensorerfassung eines Messpunkts 120 durch den optischen Sensor 110 eindeutig ist. Die erste Grenze 150-1 wird manchmal eindeutiger Bereich (NAR) genannt.A first distance A1 is determined within the field of view 130 of the sensor 110 between the optical sensor 110 and a first limit 150-1, within which a sensor detection of a measurement point 120 by the optical sensor 110 is unambiguous. The first boundary 150-1 is sometimes called a unique area (NAR).

Die Distanz A1 zur ersten Grenze 150-1 hängt von der Frequenz einer Lichtwelle ab, die vom optischen Sensor 110 ausgegeben wird. Beispielsweise erzeugt eine mit einer ersten Frequenz von 20 MHz ausgegebene Lichtwelle 140-1 eine erste Grenze 150-1, die sich in einer Distanz von ungefähr 7,5 Metern befindet.The distance A1 to the first boundary 150 - 1 depends on the frequency of a light wave that is output from the optical sensor 110 . For example, a lightwave 140-1 emitted at a first frequency of 20 MHz creates a first boundary 150-1 located at a distance of approximately 7.5 meters.

Gemäß gewissen Ausführungsformen erfolgt das Ermitteln der Distanz A1 zur ersten Grenze 150-1, innerhalb welcher eine Sensorerfassung mit dem optischen Sensor 110 eindeutig ist, wenn die Phasenverschiebung Δφ zwischen der ausgegebenen Lichtwelle 140-1 und der empfangenen Reflexion der Lichtwelle 140-2 360 Grad nicht überschreitet.According to certain embodiments, the distance A1 to the first boundary 150-1, within which a sensor detection with the optical sensor 110 is unambiguous, is determined if the phase shift Δφ between the emitted lightwave 140-1 and the received reflection of the lightwave 140-2 is 360 degrees does not exceed.

Schritt 402Step 402

Dieser Schritt wird bei einigen, aber nicht notwendigerweise bei allen Ausführungsformen des Verfahrens 400 durchgeführt.This step is performed in some, but not necessarily all, embodiments of the method 400.

Eine zweite Grenze 150-2 und eine zweite Distanz A2 zwischen dem optischen Sensor 110 und der zweiten Grenze 150-2 können ermittelt werden.A second boundary 150-2 and a second distance A2 between the optical sensor 110 and the second boundary 150-2 can be determined.

Des Weiteren kann gemäß gewissen Ausführungsformen eine weitere Ermittlung einer n-ten Grenze 150-n und einer n-ten Distanz An zwischen dem optischen Sensor 110 und der n-ten Grenze 150-n durchgeführt werden, wobei n eine zufällige positive ganze Zahl ist.Furthermore, according to certain embodiments, a further determination of an nth boundary 150-n and an nth distance An between the optical sensor 110 and the nth boundary 150-n may be performed, where n is a random positive integer.

Schritt 403Step 403

Ein erster Sensorwinkelbereich Δθ1 wird mit Distanzen assoziiert, die kürzer als die ermittelte 401 erste Distanz A1 zur ersten Grenze 150-1 sind, und ein zweiter Sensorwinkelbereich Δθ2 wird mit Distanzen assoziiert, die länger als die ermittelte 401 erste Distanz A1 zur ersten Grenze 150-1 sind.A first sensor angle range Δθ1 is associated with distances that are shorter than the determined 401 first distance A1 to the first boundary 150-1, and a second sensor angle range Δθ2 is associated with distances that are longer than the determined 401 first distance A1 to the first boundary 150- 1 are.

Bei gewissen Ausführungsformen, bei denen eine zweite Grenze 150-2 und eine zweite Distanz A2 zwischen dem optischen Sensor 110 und der zweiten Grenze ermittelt wurden 402, kann auch eine Assoziation des zweiten Sensorwinkelbereichs Δθ2 mit Distanzen erfolgen, die länger als die ermittelte 401 erste Distanz A1 zur ersten Grenze 150-1 sind, die jedoch kürzer als die zweite Distanz A2 zur zweiten Grenze 150-2 sind, und eines dritten Sensorwinkelbereichs Δθ3 mit einer Distanz erfolgen, die länger als die ermittelte 402 zweite Distanz ist.In certain embodiments, in which a second boundary 150-2 and a second distance A2 between the optical sensor 110 and the second boundary were determined 402, the second sensor angle range Δθ2 can also be associated with distances that are longer than the determined 401 first distance A1 to the first boundary 150-1, which are however shorter than the second distance A2 to the second boundary 150-2, and a third sensor angular range Δθ3 with a distance that is longer than the ascertained 402 second distance.

Bei gewissen Ausführungsformen, bei denen eine n-te Grenze 150-n und eine n-te Distanz An zwischen dem optischen Sensor 110 und der n-ten Grenze 150-n ermittelt wurden 402, kann eine Assoziation des n-ten Sensorwinkelbereichs Δθ0 ebenfalls mit Distanzen, die länger als die ermittelte 401 Distanz A(n - 1) zur (n - 1)-ten Distanz Grenze 150-(n - 1) sind, die jedoch kürzer als die ermittelte 402 n-te Grenze 150-n sind, durchgeführt werden, wobei n eine zufällige positive ganze Zahl ist.In certain embodiments where an nth boundary 150-n and an nth distance An between the optical sensor 110 and the nth boundary 150-n have been determined 402, an association of the nth sensor angular range Δθ0 can also be associated with Distances that are longer than the determined 401 distance A(n - 1) to the (n - 1)th distance limit 150-(n - 1), but which are shorter than the determined 402 nth limit 150-n, be performed, where n is a random positive integer.

Gemäß diversen Ausführungsformen kann eine solche Assoziation eines Sensorwinkelbereichs Δθ mit einer Distanz A1, A2 ... An zu Grenzen 150 auf Basis von Messungen durch den optischen Sensor 110 oder mithilfe einer manuellen Kalibrierung erfolgen.According to various embodiments, such an association of a sensor angular range Δθ with a distance A1, A2 . . . An to boundaries 150 can be based on measurements by the optical sensor 110 or using manual calibration.

Schritt 404Step 404

Ein Messpunkt 120 wird innerhalb des Sichtfelds 130 des Sensors 110 erfasst.A measurement point 120 is captured within the field of view 130 of the sensor 110 .

Der Messpunkt 120 kann einen Teil eines Objekts darstellen, wie z. B. ein Fahrzeug, ein Straßenschild, einen Fußgänger, ein Tier, eine Wand, ein Gebäude, einen Baum oder dergleichen.Measurement point 120 may represent part of an object, such as a a vehicle, street sign, pedestrian, animal, wall, building, tree or the like.

Das Erfassen des Messpunkts 120 innerhalb des Sichtfelds 130 des Sensors 110 kann derart erfolgen, dass der Sensor 110 eine Lichtreflexion 140-2 einer zuvor ausgegebenen Lichtwelle 140-1 empfängt und die Phasenverschiebung Δφ zwischen der ausgegebenen Lichtwelle 140-1 und der empfangenen Reflexion 140-2 davon misst.The measurement point 120 within the field of view 130 of the sensor 110 can be detected in such a way that the sensor 110 receives a light reflection 140-2 of a previously emitted light wave 140-1 and the phase shift Δφ between the emitted light wave 140-1 and the received reflection 140- 2 of which measures.

Schritt 405Step 405

Die Distanz zum erfassten 404 Messpunkt 120 wird auf Basis des Sensorwinkelbereichs Δθ1, Δθ2 interpretiert, innerhalb dessen eine Lichtreflexion 140-2 vom Messpunkt 120 erfasst wird.The distance to the detected 404 measuring point 120 is interpreted on the basis of the sensor angle range Δθ1, Δθ2 within which a light reflection 140-2 from the measuring point 120 is detected.

Schritt 406Step 406

Dieser Schritt wird bei einigen, aber nicht notwendigerweise bei allen Ausführungsformen des Verfahrens 400 durchgeführt.This step is performed in some, but not necessarily all, embodiments of the method 400.

Ein Messpunkt 120, von dem eine Lichtreflexion 140-2 innerhalb eines Sensorwinkelbereichs Δθ2 erfasst wird 404, kann mit einer ersten Distanz A1 assoziiert werden, die wiederum mit einem Sensorwinkelbereich Δθ1 assoziiert ist, auf Basis der Erfassung 404 eines Messpunktclusters 125 innerhalb des Sensorwinkelbereichs Δθ1. Es ist somit möglich, Teile eines Objekts 120, insbesondere eines Objekts 120 mit vertikaler Erstreckung, zu vermeiden, von dem ermittelt wird, das es in unterschiedlichen Distanzen vom optischen Sensor 110 liegt, je nach Sensorwinkelbereich Δθ, [innerhalb dessen] eine Lichtreflexion 140-2 vom Messpunkt 120 erfasst wird 404.A measuring point 120, from which a light reflection 140-2 is detected 404 within a sensor angular range Δθ2, can be associated with a first distance A1, which in turn is associated with a sensor angular range Δθ1, based on the detection 404 of a measuring point cluster 125 within the sensor angular range Δθ1. It is thus possible to avoid portions of an object 120, particularly an object 120 of vertical extent, which is determined to be at different distances from the optical sensor 110 depending on the sensor angular range Δθ [within which] a light reflection 140- 2 is detected by the measuring point 120 404.

5 zeigt eine Ausführungsform eines Systems 500, das eine Berechnungseinheit 200 enthält, die mit einem optischen Sensor 110 verbunden ist. 5 FIG. 12 shows an embodiment of a system 500 that includes a calculation unit 200 that is connected to an optical sensor 110. FIG.

Das System 500 zum Interpretieren eines Messpunkts 120, der von einem optischen Sensor 110 erfasst wird, umfasst zumindest einen optischen Sensor 110, der so ausgelegt ist, dass er eine Lichtwelle 140-1 ausgibt und eine Reflexion 140-2 der Lichtwelle 140-1 von einem Messpunkt empfängt. Das System 500 umfasst des Weiteren eine Berechnungseinheit 200.The system 500 for interpreting a measurement point 120, which is detected by an optical sensor 110, comprises at least one optical sensor 110, which is designed to emit a light wave 140-1 and a reflection 140-2 of the light wave 140-1 from received at a measuring point. The system 500 also includes a calculation unit 200.

Der optische Sensor 110 kann gemäß diversen Ausführungsformen z. B. aus einer Kamera, einer 3D-Kamera, einer Time-of-Flight-Kamera, einer Stereokamera, einer Lichtfeldkamera, einer Radarmessvorrichtung, einer Lasermessvorrichtung, einer LIDAR und/oder einer Distanzmessvorrichtung auf Basis von Ultraschallwellen oder dergleichen bestehen.The optical sensor 110 can, according to various embodiments, e.g. B. from a camera, a 3D camera, a time-of-flight camera, a stereo camera, a light field camera, a radar measuring device, a laser measuring device, a LIDAR and / or a distance measuring device based on ultrasonic waves or the like.

Die Berechnungseinheit 200 ist so ausgelegt, dass sie zumindest Teile des Verfahrens 300 zum Interpretieren eines vom optischen Sensor 110 erfassten Messpunkts 120 durchführt.The calculation unit 200 is designed in such a way that it carries out at least parts of the method 300 for interpreting a measuring point 120 detected by the optical sensor 110 .

Die Berechnungseinheit 200 kann bei diversen Ausführungsformen im optischen Sensor 110 enthalten sein oder kann mit dem optischen Sensor 110 verbindbar sein.In various embodiments, the calculation unit 200 can be contained in the optical sensor 110 or can be connectable to the optical sensor 110 .

Um in der Lage zu sein, den vom optischen Sensor 110 erfassten Messpunkt 120 korrekt zu interpretieren, enthält die Berechnungseinheit 200 eine Reihe von Komponenten, die im nachfolgenden Text ausführlicher beschrieben sind. Gewisse der beschriebenen Teilkomponenten sind bei einigen, aber nicht notwendigerweise bei allen Ausführungsformen enthalten. Außerdem kann weitere Elektronik in der Berechnungseinheit 200 vorhanden sein, die für ein Verstehen der Funktion der Berechnungseinheit 200 und des Verfahrens 400 gemäß der Erfindung nicht zur Gänze erforderlich ist.In order to be able to correctly interpret the measuring point 120 detected by the optical sensor 110, the calculation unit 200 contains a series of components that are described in more detail in the following text. Certain of the sub-components described are included in some, but not necessarily all, embodiments. In addition, there may be other electronics in the calculation unit 200 that are not fully necessary for an understanding of the function of the calculation unit 200 and the method 400 according to the invention.

Die Berechnungseinheit 200 umfasst einen Signalempfänger 510, der so ausgelegt ist, dass er ein Signal empfängt, das Informationen zu einer Erfassung des Messpunkts 120 enthält. Dieses Empfangen eines Signals kann gemäß diversen Ausführungsformen über eine drahtgebundene oder drahtlose Schnittstelle erfolgen.The calculation unit 200 comprises a signal receiver 510 which is designed in such a way that it receives a signal which contains information on a detection of the measuring point 120 . According to various embodiments, this receiving of a signal can take place via a wired or wireless interface.

Die drahtlose Schnittstelle kann gemäß diversen Ausführungsformen z. B. auf beliebigen der folgenden Technologien basieren: Global System for Mobile Communications (GSM), Enhanced Data Rates for GSM Evolution (EDGE), Universal Mobile Telecommunications System (UMTS), Code Division Access (CDMA), (CDMA 2000), Time Division Synchronous CDMA (TD-SCDMA), Long Term Evolution (LTE); Wireless Fidelity (Wi-Fi), wie durch die Standards 802.11 a, ac, b, g und/oder n der Electrical and Electronics Engineers (IEEE) definiert, Internetprotokoll (IP), Bluetooth und/oder Nahfeldkommunikation (NFC) oder einer ähnlichen Kommunikationstechnologie.The wireless interface can, according to various embodiments, e.g. based on any of the following technologies: Global System for Mobile Communications (GSM), Enhanced Data Rates for GSM Evolution (EDGE), Universal Mobile Telecommunications System (UMTS), Code Division Access (CDMA), (CDMA 2000), Time Division Synchronous CDMA (TD-SCDMA), Long Term Evolution (LTE); Wireless Fidelity (Wi-Fi) as defined by Electrical and Electronics Engineers (IEEE) 802.11 a, ac, b, g and/or n standards, Internet Protocol (IP), Bluetooth and/or Near Field Communication (NFC) or similar communication technology.

Gemäß gewissen anderen Ausführungsformen sind die Berechnungseinheit 200 und der Sensor 110 für eine Kommunikation und einen Informationsaustausch über eine drahtgebundene Schnittstelle ausgelegt. Eine solche drahtgebundene Schnittstelle kann ein Kommunikationsbussystem umfassen, das aus einem oder einer Mehrzahl von Kommunikationsbussen besteht, um eine Reihe von elektronischen Steuereinheiten (ECUs) oder Steuereinheiten/Steuerungen und diverse Komponenten und Sensoren, die sich auf dem Fahrzeug 100 befinden, miteinander zu verknüpfen. Der Fahrzeug-Kommunikationsbus kann z. B. aus einem oder einer Mehrzahl eines Kabels; eines Datenbusses, wie z. B. eines CAN-Busses (Controller-Area-Network-Busses), eines MOST-Busses (Media Oriented Systems Transport) oder einer beliebigen anderen Buskonfiguration; oder einer drahtlosen Verbindung, z. B. gemäß beliebigen der oben aufgelisteten Technologien zur drahtlosen Kommunikation, bestehen.According to certain other embodiments, the calculation unit 200 and the sensor 110 are designed for communication and an exchange of information via a wired interface. Such a wired interface may include a communication bus system consisting of one or a plurality of communication buses to link together a number of electronic control units (ECUs) or controllers/controllers and various components and sensors located on the vehicle 100 . The vehicle communication bus can e.g. B. one or a plurality of a cable; a data bus, such as a CAN bus (Controller Area Network bus), a MOST bus (Media Oriented Systems Transport) or any other bus configuration; or a wireless connection, e.g. e.g. according to any of the wireless communication technologies listed above.

Die Berechnungseinheit 200 umfasst außerdem einen Prozessorschaltkreis 520, der so ausgelegt ist, dass er eine erste Distanz A1 innerhalb des Sichtfelds 130 des Sensors 110 zwischen dem optischen Sensor 110 und einer ersten Grenze 150-1, innerhalb welcher eine Sensorerfassung mithilfe des optischen Sensors 110 eindeutig ist, ermittelt. Der Prozessorschaltkreis 520 ist außerdem so ausgelegt, dass er einen ersten Sensorwinkelbereich Δθ1 mit Distanzen, die kürzer als die erste ermittelte Distanz A1 zur ersten Grenze 150-1 sind, assoziiert. Der Prozessorschaltkreis 520 ist des Weiteren außerdem so ausgelegt, dass er einen zweiten Sensorwinkelbereich Δθ2 mit Distanzen, die länger als die erste ermittelte Distanz A1 sind, mit der ersten Grenze 150-1 assoziiert. Der Prozessorschaltkreis 520 ist des Weiteren außerdem so ausgelegt, dass er den Messpunkt 120 innerhalb des Sichtfelds 130 des Sensors 110 auf Basis des empfangenen Signals erfasst, und so ausgelegt, dass er die Distanz zum erfassten Messpunkt 120 auf Basis des Sensorwinkelbereichs Δθ interpretiert, innerhalb dessen eine Lichtreflexion 140-2 vom Messpunkt 120 erfasst wurde.The calculation unit 200 also includes a processor circuit 520, which is designed in such a way that it calculates a first distance A1 within the field of view 130 of the sensor 110 between the optical sensor 110 and a first limit 150-1, within which a sensor detection using the optical sensor 110 is unambiguous is determined. The processor circuit 520 is also configured to associate a first sensor angular range Δθ1 with distances shorter than the first determined distance A1 to the first boundary 150-1. The processor circuit 520 is further also configured to associate a second sensor angular range Δθ2 with distances longer than the first determined distance A1 with the first boundary 150-1. The processor circuit 520 is further also configured to determine the measurement point 120 within the field of view 130 of the sensor 110 based on the received Sig als detected and configured to interpret the distance to the detected measurement point 120 based on the sensor angular range Δθ within which a light reflection 140-2 from the measurement point 120 was detected.

Der Prozessorschaltkreis 520 kann des Weiteren so ausgelegt sein, dass er einen Sensorwinkelbereich Δθ mit Distanzen A1, A2 ... An auf Basis von Messungen durch den Sensor 110 mit Grenzen 150 assoziiert.The processor circuit 520 may further be configured to associate a sensor angular range Δθ with distances A1, A2 . . . An with boundaries 150 based on measurements by the sensor 110.

Bei gewissen Ausführungsformen kann der Prozessorschaltkreis 520 des Weiteren so ausgelegt sein, dass er einen Messpunkt 120, von dem eine Reflexion 140-2 innerhalb eines zweiten Sensorwinkels Δθ2 erfasst wurde, mit einer ersten Distanz A1 assoziiert, die mit einem zweiten Sensorwinkelbereich Δθ1 assoziiert ist, auf Basis der Erfassung eines Messpunktclusters 125 innerhalb des Sensorwinkelbereichs Δθ1.In certain embodiments, processor circuitry 520 may be further configured to associate a measurement point 120, from which a reflection 140-2 was detected within a second sensor angle Δθ2, with a first distance A1 associated with a second sensor angle range Δθ1, based on the detection of a measurement point cluster 125 within the sensor angle range Δθ1.

Der Prozessorschaltkreis 520 kann z. B. aus einem oder einer Mehrzahl einer zentralen Verarbeitungseinheit (CPU), eines Mikroprozessors oder einer anderen Logik bestehen, die so konzipiert ist, dass sie interpretiert und Anweisungen ausführt und/oder Daten liest und schreibt. Der Prozessorschaltkreis 520 kann Daten für Eingänge, Ausgänge oder eine Datenverarbeitung von Daten verwalten, darunter auch das Puffern von Daten, Steuerfunktionen und dergleichen.The processor circuit 520 can e.g. B. consist of one or a plurality of a central processing unit (CPU), a microprocessor or other logic designed to interpret and execute instructions and/or read and write data. Processor circuitry 520 may manage data for inputs, outputs, or data processing of data, including data buffering, control functions, and the like.

Bei gewissen Ausführungsformen kann die Berechnungseinheit 200 des Weiteren einen Signalsender 530 umfassen, der so ausgelegt ist, dass er ein Steuersignal sendet, z. B. um ein Warnsignal oder dergleichen auszulösen, wenn ein Messpunkt 120 innerhalb einer bestimmten Distanz vom optischen Sensor 110 erfasst wird, gemäß gewissen Ausführungsformen. Bei gewissen Ausführungsformen kann der Signalsender 530 so ausgelegt sein, dass er ein Steuersignal sendet, um eine Beschleunigung des Fahrzeugs 100 zu verhindern und/oder ein Bremsen des Fahrzeugs 100 einzuleiten.In certain embodiments, the calculation unit 200 may further comprise a signal transmitter 530 configured to transmit a control signal, e.g. B. to trigger a warning signal or the like when a measurement point 120 is detected within a certain distance from the optical sensor 110, according to certain embodiments. In certain embodiments, the signal transmitter 530 may be configured to transmit a control signal to prevent vehicle 100 acceleration and/or to initiate vehicle 100 braking.

Gemäß gewissen Ausführungsformen kann die Berechnungseinheit 110 des Weiteren eine Speichereinheit 525 umfassen, die bei gewissen Ausführungsformen aus einem Speichermedium für Daten bestehen kann. Die Speichereinheit 525 kann bei diversen Ausführungsformen z. B. aus einer Speicherkarte, einem Flash-Speicher, einem USB-Speicher, einem Festplattenlaufwerk oder einer anderen ähnlichen Datenspeichereinheit bestehen, z. B. beliebigen der Gruppe, bestehend aus ROM (Nur-Lese-Speicher), PROM (Programmierbarer Nur-Lese-Speicher), EPROM (Löschbarer PROM), Flash-Speicher- FEPROM (Elektrisch löschbarer PROM) usw.According to certain embodiments, the calculation unit 110 may further comprise a storage unit 525, which in certain embodiments may consist of a storage medium for data. The memory unit 525 can, in various embodiments, e.g. a memory card, flash memory, USB memory, hard disk drive or other similar data storage device, e.g. any of the group consisting of ROM (Read Only Memory), PROM (Programmable Read Only Memory), EPROM (Erasable PROM), Flash Memory FEPROM (Electrically Erasable PROM), etc.

Des Weiteren enthält die Erfindung gemäß gewissen Ausführungsformen ein Computerprogramm zum Interpretieren eines von einem optischen Sensor 110 erfassten Messpunkts 120.Furthermore, according to certain embodiments, the invention includes a computer program for interpreting a measurement point 120 detected by an optical sensor 110.

Das Computerprogramm ist so ausgelegt, dass es das Verfahren 400 gemäß zumindest einem der oben beschriebenen Schritte 401-406 durchführt, wenn das Programm in einem Prozessorschaltkreis 520 in der Berechnungseinheit 200 ausgeführt wird.The computer program is designed to perform the method 400 according to at least one of the steps 401-406 described above when the program is executed in a processor circuit 520 in the calculation unit 200.

Das Verfahren 400 gemäß zumindest einem der Schritte 401-406 zum Interpretieren eines vom optischen Sensor 110 erfassten Messpunkts 120 kann somit mithilfe eines oder einer Mehrzahl von Prozessorschaltkreisen 520 in der Berechnungseinheit 200 gemeinsam mit dem Computerprogrammcode zum Durchführen eines, mehrerer, gewisser oder aller der Schritte 401-406, wie oben beschrieben, umgesetzt werden. Ein Computerprogramm, das Anweisungen zum Durchführen der Schritte 401-406 enthält, wenn das Computerprogramm in den Prozessorschaltkreis 520 geladen ist, kann somit sein [sic].The method 400 according to at least one of the steps 401-406 for interpreting a measuring point 120 detected by the optical sensor 110 can thus be carried out using one or a plurality of processor circuits 520 in the calculation unit 200 together with the computer program code for carrying out one, several, certain or all of the steps 401-406 as described above. A computer program that includes instructions for performing steps 401-406 when the computer program is loaded into the processor circuit 520 can thus be [sic].

Bei gewissen Ausführungsformen ist das oben beschriebene Computerprogramm in der Berechnung 200 so ausgelegt, dass es in der Speichereinheit 525 installiert wird, z. B. über eine drahtlose Schnittstelle.In certain embodiments, the computer program in the calculation 200 described above is designed to be installed in the storage unit 525, e.g. B. via a wireless interface.

Der Signalempfänger und/oder der Signalsender 530, die oben beschrieben und erörtert sind, können bei gewissen Ausführungsformen aus einem separaten Sender und Empfänger bestehen. Der Signalempfänger 510 und der Signalsender 530 in der Berechnungseinheit 200 können bei gewissen Ausführungsformen jedoch aus einem Sendeempfänger bestehen, der so ausgelegt ist, dass er Funksignale sendet und empfängt, und wobei Teile des Designs, wie z. B. die Antenne, für Sender und Empfänger üblich sind. Die Kommunikation kann für einen drahtlosen Informationsaustausch über Funkwellen, WLAN, Bluetooth oder ein Infrarot-Sendeempfängermodul ausgelegt sein. Bei gewissen Ausführungsformen jedoch kann bzw. können der Signalempfänger 510 und/oder der Signalsender 530 alternativ speziell für einen drahtgebundenen Informationsaustausch oder gemäß gewissen Ausführungsformen alternativ für sowohl einen drahtlosen als auch einen drahtgebundenen Informationsaustausch ausgelegt sein.The signal receiver and/or signal transmitter 530 described and discussed above may consist of a separate transmitter and receiver in certain embodiments. However, in certain embodiments, the signal receiver 510 and the signal transmitter 530 in the calculation unit 200 may consist of a transceiver designed to transmit and receive radio signals, and with parts of the design, such as e.g. B. the antenna, for transmitter and receiver are common. The communication can be designed for a wireless exchange of information via radio waves, WLAN, Bluetooth or an infrared transceiver module. However, in certain embodiments, the signal receiver 510 and/or the signal transmitter 530 may alternatively be configured specifically for wired information exchange, or alternatively, according to certain embodiments, for both wireless and wired information exchange.

Manche Ausführungsformen der Erfindung umfassen außerdem ein Fahrzeug 100, das ein System 500 enthält, das im Fahrzeug 100 installiert und so ausgelegt ist, dass es ein Verfahren 400 gemäß zumindest einem der Verfahrensschritte 401-406 durchführt, um einen von einem optischen Sensor 110 erfassten Messpunkt 120 zu interpretieren.Some embodiments of the invention also include a vehicle 100 containing a system 500 installed in the vehicle 100 and designed to perform a method 400 according to at least one of method steps 401-406 to measure a measurement point detected by an optical sensor 110 120 to interpret.

Claims (15)

Verfahren (400) in einer Berechnungseinheit (200), die mit einem optischen Sensor (110) verbunden ist, um einen vom optischen Sensor (110) erfassten Messpunkt (120) zu interpretieren, gekennzeichnet durch: Ermitteln (401) einer ersten Distanz (A1) innerhalb des Sichtfelds (130) des optischen Sensors (110) zwischen dem optischen Sensor (110) und einer ersten Grenze (150-1), innerhalb welcher eine Sensorerfassung mithilfe des optischen Sensors (110) eindeutig ist, wobei das Sichtfeld (130) des optischen Sensors (110) eine Ebene aufweist, in der die erste Distanz (A1) ermittelt wird; Assoziieren (403) eines ersten Sensorwinkelbereichs (Δθ1) mit Distanzen, die kürzer als die ermittelte (401) erste Distanz (A1) zur ersten Grenze (150-1) sind, und eines zweiten Sensorwinkelbereichs (Δθ2) mit Distanzen, die länger als die ermittelte (401) erste Distanz (A1) zur ersten Grenze (150-1) sind; Erfassen (404) des Messpunkts (120) innerhalb des Sichtfelds (130) des optischen Sensors (110); und Interpretieren (405) der Distanz zum erfassten (404) Messpunkt (120) auf Basis des Sensorwinkelbereichs (Δθ1, Δθ2), innerhalb dessen eine Lichtreflexion (140-2) vom Messpunkt (120) erfasst wird (404).Method (400) in a calculation unit (200) which is connected to an optical sensor (110) in order to interpret a measuring point (120) detected by the optical sensor (110), characterized by : determining (401) a first distance (A1 ) within the field of view (130) of the optical sensor (110) between the optical sensor (110) and a first boundary (150-1) within which a sensor detection using the optical sensor (110) is unambiguous, the field of view (130) of the optical sensor (110) has a plane in which the first distance (A1) is determined; Associating (403) a first sensor angular range (Δθ1) with distances shorter than the determined (401) first distance (A1) to the first boundary (150-1) and a second sensor angular range (Δθ2) with distances longer than the determined (401) first distance (A1) to the first boundary (150-1); detecting (404) the measurement point (120) within the field of view (130) of the optical sensor (110); and interpreting (405) the distance to the detected (404) measurement point (120) based on the sensor angular range (Δθ1, Δθ2) within which a light reflection (140-2) from the measurement point (120) is detected (404). Verfahren (400) nach Anspruch 1, das des Weiteren umfasst: Ermitteln (402) einer zweiten Grenze (150-2) und einer zweiten Distanz (A2) zwischen dem optischen Sensor (110) und der zweiten Grenze (150-2), und wobei des Weiteren ein Assoziieren (403) des zweiten Sensorwinkelbereichs (Δθ2) mit Distanzen durchgeführt wird, die länger als die ermittelte (401) erste Distanz (A1) zur ersten Grenze (150-1) sind, die jedoch kürzer als die zweite Distanz (A2) zur zweiten Grenze (150-2) sind, und eines dritten Sensorwinkelbereichs (∆θ3) mit Distanzen durchgeführt wird, die länger als die ermittelte (402) zweite Distanz (A2) sind.Method (400) according to claim 1 , further comprising: determining (402) a second boundary (150-2) and a second distance (A2) between the optical sensor (110) and the second boundary (150-2), and wherein further associating (403 ) of the second sensor angle range (Δθ2) is carried out with distances that are longer than the determined (401) first distance (A1) to the first limit (150-1), but shorter than the second distance (A2) to the second limit (150 -2) are, and a third sensor angle range (∆θ3) is performed with distances that are longer than the determined (402) second distance (A2). Verfahren (400) nach einem der Ansprüche 1 oder 2, wobei das Ermitteln (402) einer n-ten Grenze (150-n) und einer n-ten Distanz (An) zwischen dem optischen Sensor (110) und der n-ten Grenze (150-n) durchgeführt wird; und wobei des Weiteren ein Assoziieren (403) des n-ten Sensorwinkelbereichs (Δθn) zur (n - 1)-ten Grenze (150-(n - 1) mit Distanzen durchgeführt wird, die länger als die ermittelte (401) Distanz (A(n - 1)) sind, jedoch kürzer als die ermittelte (402) n-te Grenze (150-n), wobei n eine zufällige positive ganze Zahl ist.Method (400) according to any one of Claims 1 or 2 wherein the determining (402) of an nth boundary (150-n) and an nth distance (An) between the optical sensor (110) and the nth boundary (150-n) is performed; and further associating (403) the nth sensor angle range (Δθn) to the (n - 1)th boundary (150-(n - 1) with distances longer than the determined (401) distance (A (n - 1)) but shorter than the determined (402) nth limit (150-n), where n is a random positive integer. Verfahren (400) nach einem der Ansprüche 1 bis 3, wobei das Assoziieren (403) eines Sensorwinkelbereichs (Δθ) mit Distanzen (A1, A2 ... An) zu Grenzen (150) auf Basis von Messungen durch den optischen Sensor (110) durchgeführt wird.Method (400) according to any one of Claims 1 until 3 , wherein associating (403) a sensor angular range (Δθ) with distances (A1, A2...An) to boundaries (150) is performed based on measurements by the optical sensor (110). Verfahren (400) nach einem der Ansprüche 1 bis 4, wobei das Erfassen (404) des Messpunkts (120) innerhalb des Sichtfelds (130) des optischen Sensors (110) derart durchgeführt wird, dass der optische Sensor (110) eine Lichtreflexion (140-2) einer zuvor ausgegebenen Lichtwelle (140-1) empfängt und die Phasenverschiebung (Δφ) zwischen der ausgegebenen Lichtwelle (140-1) und der empfangenen Reflexion (140-2) davon misst.Method (400) according to any one of Claims 1 until 4 , wherein the detection (404) of the measuring point (120) within the field of view (130) of the optical sensor (110) is carried out in such a way that the optical sensor (110) detects a light reflection (140-2) of a previously emitted light wave (140-1 ) and measures the phase shift (Δφ) between the emitted lightwave (140-1) and the received reflection (140-2) thereof. Verfahren (400) nach einem der Ansprüche 1 bis 5, wobei das Ermitteln (401) der Distanz (A1) zur ersten Grenze (150-1), innerhalb welcher eine Sensorerfassung mit dem optischen Sensor (110) eindeutig ist, durchgeführt wird, wobei die Phasenverschiebung (Δφ) zwischen der ausgegebenen Lichtwelle (140-1) und der empfangenen Reflexion der Lichtwelle (140-2) 360 Grad nicht überschreitet.Method (400) according to any one of Claims 1 until 5 , wherein the determination (401) of the distance (A1) to the first limit (150-1), within which a sensor detection with the optical sensor (110) is unambiguous, is carried out, the phase shift (Δφ) between the emitted light wave (140 -1) and the received reflection of the light wave (140-2) does not exceed 360 degrees. Verfahren (400) nach einem der Ansprüche 1 bis 6, das des Weiteren umfasst: Assoziieren (406) eines Messpunkts (120), von dem eine Lichtreflexion (140-2) innerhalb eines Sensorwinkelbereichs (Δθ2) erfasst wird (404), mit einer ersten Distanz (A1), die mit einem Sensorwinkelbereich (Δθ1) assoziiert ist, auf Basis der Erfassung (404) eines Messpunktclusters (125) innerhalb des Sensorwinkelbereichs (Δθ1).Method (400) according to any one of Claims 1 until 6 , further comprising: associating (406) a measurement point (120) from which a light reflection (140-2) within a sensor angular range (Δθ2) is detected (404) with a first distance (A1) associated with a sensor angular range ( Δθ1) is associated, based on the detection (404) of a measuring point cluster (125) within the sensor angle range (Δθ1). Berechnungseinheit (200), die mit einem optischen Sensor (110) verbunden und so ausgelegt ist, dass sie einen vom optischen Sensor (110) erfassten Messpunkt (120) interpretiert, gekennzeichnet durch: einen Signalempfänger (510), der so ausgelegt ist, dass er ein Signal empfängt, das Informationen zu einer Erfassung des Messpunkts (120) enthält; und einen Prozessorschaltkreis (520), der so ausgelegt ist, dass er eine erste Distanz (A1) innerhalb des Sichtfelds (130) des optischen Sensors (110) zwischen dem optischen Sensor (110) und einer ersten Grenze (150-1) ermittelt, innerhalb welcher eine Sensorerfassung mithilfe des optischen Sensors (110) eindeutig ist, wobei das Sichtfeld (130) des optischen Sensors (110) eine Ebene aufweist, in der die erste Distanz (A1) ermittelt wird, und außerdem so ausgelegt ist, dass er einen ersten Sensorwinkelbereich (Δθ1) mit Distanzen assoziiert, die kürzer als die ermittelte erste Distanz (A1) zur ersten Grenze (150-1) sind, und einen zweiten Sensorwinkelbereich (Δθ2) mit Distanzen assoziiert, die länger als die ermittelte erste Distanz (A1) zur ersten Grenze (150-1) sind, und außerdem so ausgelegt ist, dass er den Messpunkt (120) innerhalb des Sichtfelds (130) des optischen Sensors (110) auf Basis des empfangenen Signals ermittelt, und außerdem so ausgelegt ist, dass er die Distanz zum erfassten Messpunkt (120) auf Basis des Sensorwinkelbereichs (Δθ1, Δθ2) interpretiert, innerhalb dessen eine Lichtreflexion (140-2) vom Messpunkt (120) erfasst wurde.Calculation unit (200) connected to an optical sensor (110) and designed to interpret a measurement point (120) detected by the optical sensor (110), characterized by : a signal receiver (510) arranged to receive a signal containing information on a detection of the measurement point (120); and a processor circuit (520) configured to determine a first distance (A1) within the field of view (130) of the optical sensor (110) between the optical sensor (110) and a first boundary (150-1), within which a sensor detection using the optical sensor (110) is unambiguous, wherein the field of view (130) of the optical sensor (110) has a plane in which the first distance (A1) is determined and is also designed so that it has a first sensor angle range (Δθ1) associated with distances that are shorter than the determined first distance (A1) to the first boundary (150-1), and a second sensor angle range (Δθ2) associated with distances that are longer than the determined first distance (A1) to the first boundary (150-1), and is further arranged to determine the measurement point (120) within the field of view (130) of the optical sensor (110) based on the received signal, and further arranged to interprets the distance to the detected measuring point (120) on the basis of the sensor angle range (Δθ1, Δθ2) within which a light reflection (140-2) from the measuring point (120) was detected. Berechnungseinheit (200) nach Anspruch 8, wobei der Prozessorschaltkreis (520) so ausgelegt ist, dass er einen Sensorwinkelbereich (Δθ) mit Distanzen (A1, A2 ... An) zu Grenzen (150) auf Basis von Messungen durch den optischen Sensor (110) assoziiert.Calculation unit (200) after claim 8 wherein the processor circuit (520) is arranged to associate a sensor angular range (Δθ) with distances (A1, A2...An) to boundaries (150) based on measurements by the optical sensor (110). Berechnungseinheit (200) nach einem der Ansprüche 8 oder 9, wobei der Prozessorschaltkreis (520) so ausgelegt ist, dass er einen Messpunkt (120), von dem eine Lichtreflexion (140-2) erfasst wird, innerhalb eines zweiten Sensorwinkelbereichs (Δθ2) mit einer ersten Distanz (A1) assoziiert, die mit einem Sensorwinkelbereich (∆θ1) assoziiert ist, auf Basis der Erfassung eines Messpunktclusters (125) innerhalb des Sensorwinkelbereichs (Δθ1).Calculation unit (200) according to one of Claims 8 or 9 , wherein the processor circuit (520) is arranged to associate a measurement point (120) from which a light reflection (140-2) is detected within a second sensor angular range (Δθ2) with a first distance (A1) associated with a Sensor angle range (∆θ1) is associated, based on the detection of a measurement point cluster (125) within the sensor angle range (Δθ1). Berechnungseinheit (200) nach einem der Ansprüche 8 bis 10, wobei die Berechnungseinheit (200) im optischen Sensor (110) enthalten ist.Calculation unit (200) according to one of Claims 8 until 10 , wherein the calculation unit (200) is contained in the optical sensor (110). Berechnungseinheit (200) nach einem der Ansprüche 8 bis 11, wobei der optische Sensor (110) aus einer Kamera, einer 3D-Kamera, einer Time-of-Flight-Kamera, einer Stereokamera, einer Lichtfeldkamera, einer Radarmessvorrichtung, einer Lasermessvorrichtung, einer LIDAR, einer Distanzmessvorrichtung auf Basis von Ultraschallwellen besteht.Calculation unit (200) according to one of Claims 8 until 11 , wherein the optical sensor (110) consists of a camera, a 3D camera, a time-of-flight camera, a stereo camera, a light field camera, a radar measuring device, a laser measuring device, a LIDAR, a distance measuring device based on ultrasonic waves. Computerprogramm zum Interpretieren eines Messpunkts (120), der von einem optischen Sensor (110) erfasst wird, mithilfe eines Verfahrens (400) nach einem der Ansprüche 1 bis 7, wenn das Computerprogramm in einem Prozessorschaltkreis (520) in einer Berechnungseinheit (200) nach einem der Ansprüche 8 bis 12 ausgeführt wird.Computer program for interpreting a measurement point (120) detected by an optical sensor (110) using a method (400) according to any one of Claims 1 until 7 , if the computer program in a processor circuit (520) in a calculation unit (200) according to one of Claims 8 until 12 is performed. System (500) zum Interpretieren eines von einem optischen Sensor (110) erfassten Messpunkts (120), wobei das System (500) umfasst: einen optischen Sensor (110), der so ausgelegt ist, dass er eine Lichtwelle (140-1) ausgibt und eine Reflexion (140-2) der Lichtwelle (140-1) von einem Messpunkt (120) empfängt; und eine Berechnungseinheit (200) nach einem der Ansprüche 8 bis 12.A system (500) for interpreting a measurement point (120) detected by an optical sensor (110), the system (500) comprising: an optical sensor (110) configured to output a light wave (140-1). and receiving a reflection (140-2) of the light wave (140-1) from a measurement point (120); and a calculation unit (200) according to any one of Claims 8 until 12 . Fahrzeug (100), das ein System (500) nach Anspruch 14 enthält, das im Fahrzeug (100) installiert und so ausgelegt ist, dass es ein Verfahren (400) nach einem der Ansprüche 1 bis 7 durchführt, um einen von einem optischen Sensor (110) erfassten Messpunkt (120) zu interpretieren.Vehicle (100) according to a system (500). Claim 14 contains, installed in the vehicle (100) and designed so that it is a method (400) according to one of Claims 1 until 7 carries out in order to interpret a measurement point (120) detected by an optical sensor (110).
DE112014002962.9T 2013-07-18 2014-06-30 Interpretation of a measurement point recorded by an optical sensor Active DE112014002962B4 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SE1350900-5 2013-07-18
SE1350900A SE537280C2 (en) 2013-07-18 2013-07-18 Interpretation of measuring point detected by an optical sensor
PCT/SE2014/050816 WO2015009220A1 (en) 2013-07-18 2014-06-30 Interpretation of measurement point detected by an optical sensor

Publications (2)

Publication Number Publication Date
DE112014002962T5 DE112014002962T5 (en) 2016-03-24
DE112014002962B4 true DE112014002962B4 (en) 2023-05-25

Family

ID=52346545

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112014002962.9T Active DE112014002962B4 (en) 2013-07-18 2014-06-30 Interpretation of a measurement point recorded by an optical sensor

Country Status (3)

Country Link
DE (1) DE112014002962B4 (en)
SE (1) SE537280C2 (en)
WO (1) WO2015009220A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3811108A4 (en) * 2018-08-17 2022-03-16 Sense Photonics, Inc. Methods and systems for increasing the range of time-of-flight systems by unambiguous range toggling

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7791715B1 (en) 2006-10-02 2010-09-07 Canesta, Inc. Method and system for lossless dealiasing in time-of-flight (TOF) systems

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1235773A (en) * 1983-12-23 1988-04-26 Shigeto Nakayama Device for detecting road surface condition
DE4016973C1 (en) * 1990-02-24 1991-06-13 Eltro Gmbh, Gesellschaft Fuer Strahlungstechnik, 6900 Heidelberg, De
US5202742A (en) * 1990-10-03 1993-04-13 Aisin Seiki Kabushiki Kaisha Laser radar for a vehicle lateral guidance system
DE4123056A1 (en) * 1991-07-12 1993-01-14 Bayerische Motoren Werke Ag DISTANCE MEASURING DEVICE FOR MOTOR VEHICLES

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7791715B1 (en) 2006-10-02 2010-09-07 Canesta, Inc. Method and system for lossless dealiasing in time-of-flight (TOF) systems

Also Published As

Publication number Publication date
DE112014002962T5 (en) 2016-03-24
SE1350900A1 (en) 2015-01-19
SE537280C2 (en) 2015-03-24
WO2015009220A1 (en) 2015-01-22

Similar Documents

Publication Publication Date Title
DE112015000715B4 (en) Apparatus for detecting axis misalignment of a radiation sensor
DE102017203344A1 (en) CAPTURE LONG OBJECTS THROUGH SENSOR FUSION
EP3714286B1 (en) Method and device for ascertaining an installation angle between a roadway on which a vehicle travels and a detection direction of a measurement or radar sensor
DE112007000468T5 (en) Radar device and mobile object
DE102015100134A1 (en) Object unification system of multiple radar imaging sensors
DE102013113619A1 (en) Probabilistic target selection and hazard assessment procedures and application to an intersection collision warning system
EP2799901A2 (en) Traffic monitoring system for speed measurement and allocation of moving vehicles in a multi-target receiving module
DE102016117710A1 (en) RADAR VIEW FUSION FOR ASSESSING THE SPEED OF A TARGET OBJECT
DE102016205430A1 (en) Method and device for determining the coefficient of friction of a drivable subsoil by means of an ego vehicle
DE102018124538A1 (en) Systems and methods for measuring a bridge clearance height
DE112014002959T5 (en) Determination of the lane position
DE102011105074A1 (en) Method for determining visual range for vehicle, involves determining surrounding of vehicle by camera, where contrast dimensions are determined for object depicted in images, where visual range is determined from contrast dimensions
DE102014010381A1 (en) Method for operating a vehicle system of a motor vehicle for protection against damage caused by unevenness of the ground and motor vehicle
DE102017120705A1 (en) DETECTION OF DEVOTIVE VEHICLES WITH IR-LIGHT
DE102015116434A1 (en) Method for estimating the airspeed
DE102021106900A1 (en) VEHICLE UNSAFETY REPLACEMENT
DE102021103774A1 (en) VEHICLE SENSOR FUSION
DE102019130330A1 (en) LIDAR SIGNAL PROCESSING DEVICE AND LIDAR DEVICE
DE102017219697A1 (en) Object detection system for vehicles and object detection method for vehicles
DE112014002962B4 (en) Interpretation of a measurement point recorded by an optical sensor
EP3759517B1 (en) Method and device for estimating the height of a reflector of a vehicle
DE112019006516T5 (en) Driver assistance device
CN112835029A (en) Unmanned-vehicle-oriented multi-sensor obstacle detection data fusion method and system
DE102017214964B4 (en) Method for determining an environment map in a motor vehicle and motor vehicle
DE102018218003A1 (en) Process, computer program and measuring system for the evaluation of movement information

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: THUM, MOETSCH, WEICKERT PATENTANWAELTE PARTG M, DE

Representative=s name: THUM & PARTNER THUM MOETSCH WEICKERT PATENTANW, DE

R018 Grant decision by examination section/examining division
R020 Patent grant now final