DE112014002962B4 - Interpretation of a measurement point recorded by an optical sensor - Google Patents
Interpretation of a measurement point recorded by an optical sensor Download PDFInfo
- Publication number
- DE112014002962B4 DE112014002962B4 DE112014002962.9T DE112014002962T DE112014002962B4 DE 112014002962 B4 DE112014002962 B4 DE 112014002962B4 DE 112014002962 T DE112014002962 T DE 112014002962T DE 112014002962 B4 DE112014002962 B4 DE 112014002962B4
- Authority
- DE
- Germany
- Prior art keywords
- distance
- optical sensor
- sensor
- measurement point
- boundary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 111
- 238000005259 measurement Methods 0.000 title claims abstract description 78
- 238000004364 calculation method Methods 0.000 claims abstract description 38
- 238000000034 method Methods 0.000 claims abstract description 31
- 238000001514 detection method Methods 0.000 claims abstract description 20
- 230000010363 phase shift Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
- G01C3/08—Use of electric radiation detectors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/32—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S17/36—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Measurement Of Optical Distance (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Verfahren (400) in einer Berechnungseinheit (200), die mit einem optischen Sensor (110) verbunden ist, um einen vom optischen Sensor (110) erfassten Messpunkt (120) zu interpretieren, gekennzeichnet durch:Ermitteln (401) einer ersten Distanz (A1) innerhalb des Sichtfelds (130) des optischen Sensors (110) zwischen dem optischen Sensor (110) und einer ersten Grenze (150-1), innerhalb welcher eine Sensorerfassung mithilfe des optischen Sensors (110) eindeutig ist, wobei das Sichtfeld (130) des optischen Sensors (110) eine Ebene aufweist, in der die erste Distanz (A1) ermittelt wird;Assoziieren (403) eines ersten Sensorwinkelbereichs (Δθ1) mit Distanzen, die kürzer als die ermittelte (401) erste Distanz (A1) zur ersten Grenze (150-1) sind, und eines zweiten Sensorwinkelbereichs (Δθ2) mit Distanzen, die länger als die ermittelte (401) erste Distanz (A1) zur ersten Grenze (150-1) sind;Erfassen (404) des Messpunkts (120) innerhalb des Sichtfelds (130) des optischen Sensors (110); undInterpretieren (405) der Distanz zum erfassten (404) Messpunkt (120) auf Basis des Sensorwinkelbereichs (Δθ1, Δθ2), innerhalb dessen eine Lichtreflexion (140-2) vom Messpunkt (120) erfasst wird (404).Method (400) in a calculation unit (200) which is connected to an optical sensor (110) in order to interpret a measuring point (120) detected by the optical sensor (110), characterized by: determining (401) a first distance (A1 ) within the field of view (130) of the optical sensor (110) between the optical sensor (110) and a first boundary (150-1) within which a sensor detection using the optical sensor (110) is unambiguous, the field of view (130) of the optical sensor (110) has a plane in which the first distance (A1) is determined;associating (403) a first sensor angular range (Δθ1) with distances shorter than the determined (401) first distance (A1) to the first boundary (150-1), and a second sensor angle range (Δθ2) with distances that are longer than the determined (401) first distance (A1) to the first boundary (150-1);detecting (404) the measuring point (120) within the field of view (130) of the optical sensor (110); andinterpreting (405) the distance to the detected (404) measurement point (120) based on the sensor angular range (Δθ1, Δθ2) within which a light reflection (140-2) from the measurement point (120) is detected (404).
Description
Technisches Gebiet der ErfindungTechnical field of the invention
Die Erfindung betrifft ein Verfahren und eine Berechnungseinheit, die mit einem optischen Sensor verbunden ist. Mehr im Detail betrifft die Erfindung einen Mechanismus zum Interpretieren eines vom optischen Sensor erfassten Messpunkts.The invention relates to a method and a calculation unit connected to an optical sensor. In more detail, the invention relates to a mechanism for interpreting a measurement point detected by the optical sensor.
Hintergrundbackground
Manche optischen Sensoren geben eine modulierte Wellenbewegung aus, wie z. B. eine Lichtwelle, und ermitteln die Distanz zu einem Objekt, indem sie eine reflektierte Lichtwelle erfassen, die mit dem vom optischen Sensor ausgegebenen Licht assoziiert ist, und die Verschiebung der Lichtwelle messen.Some optical sensors output modulated wave motion, such as B. a light wave, and determine the distance to an object by detecting a reflected light wave associated with the light output from the optical sensor and measuring the displacement of the light wave.
In diesem Kontext kann ein optischer Sensor z. B. aus einer 3D-Kamera, einer Time-of-Flight-(ToF-)Kamera, einer Stereokamera, einer Lichtfeldkamera, einer Radarmessvorrichtung, einer Lasermessvorrichtung, einer LIDAR, einer Distanzmessvorrichtung auf Basis von Ultraschallwellen oder dergleichen bestehen.In this context, an optical sensor z. B. consist of a 3D camera, a time-of-flight (ToF) camera, a stereo camera, a light field camera, a radar measuring device, a laser measuring device, a LIDAR, a distance measuring device based on ultrasonic waves or the like.
Ein Problem bei optischen Sensoren dieser Art liegt darin, dass die Ermittlung der Distanz zu einem Objekt eindeutig ist. Dies gilt wahrscheinlich insbesondere für Objekte, die sich außerhalb einer Distanzgrenze befinden, der manchmal als eindeutiger Bereich (NAR; Non-Ambiguous Range) bezeichnet wird, innerhalb dessen die Distanz nicht eindeutig ermittelt werden kann. Diese Distanzgrenze bzw. NAR liegt in einer Distanz, in der die Verschiebung der Wellenbewegung in Bezug auf die ausgegebene Wellenbewegung 360 Grad beträgt.A problem with optical sensors of this type is that the determination of the distance to an object is unambiguous. This is likely to be especially true for objects that are outside a distance boundary, sometimes referred to as a non-ambiguous range (NAR), within which distance cannot be unambiguously determined. This distance limit, or NAR, is at a distance where the displacement of the wave motion is 360 degrees with respect to the output wave motion.
Wenn die Verschiebung der Wellenbewegung 360 Grad übersteigt, kann es schwer sein, eindeutig zu ermitteln, ob sich das Objekt innerhalb der Distanzgrenze oder außerhalb der Distanzgrenze befindet. Dieses Problem wird manchmal Aliasing genannt.When the displacement of the wave motion exceeds 360 degrees, it can be difficult to determine unequivocally whether the object is within range or beyond range. This problem is sometimes called aliasing.
Beispielsweise kann ein optischer Sensor, der mit 20 MHz betrieben wird, eine Distanzgrenze von z. B. 7,5 Metern aufweisen. Ein Objekt, das sich tatsächlich 8 Meter weg befindet, wird sodann aufgrund des Aliasing-Effekts vom optischen Sensor so erfasst, als würde es in einer Distanz von 0,5 Metern oder in einer Distanz von sowohl 0,5 als auch 8 Metern liegen.For example, an optical sensor operating at 20 MHz may have a distance limit of e.g. B. have 7.5 meters. An object that is actually 8 meters away will then be detected by the optical sensor as if it were at a distance of 0.5 meters or at a distance of both 0.5 and 8 meters due to the aliasing effect.
Zwei oder mehr Modulationsfrequenzen für ausgegebene Lichtwellen, wie z. B. 20 MHz und 30 MHz, werden im Stand der Technik häufig verwendet, um dieses Problem zu lösen. Dadurch werden unterschiedliche Distanzgrenzen für die unterschiedlichen Modulationsfrequenzen erhalten, und somit wird es möglich, die Distanz zu identifizieren, in der das Objekt liegt. Dies erfordert jedoch mehrere Expositionen, was die Effizienz des optischen Sensors verschlechtert. Doppelmodulationsfrequenzen verdoppeln die Anzahl von Expositionen, Dreifachmodulationsfrequenzen verdreifachen die Anzahl von Expositionen und so weiter.Two or more modulation frequencies for output light waves, such as e.g. B. 20 MHz and 30 MHz, are often used in the prior art to solve this problem. Thereby different distance limits are obtained for the different modulation frequencies and thus it becomes possible to identify the distance at which the object lies. However, this requires multiple exposures, which degrades the efficiency of the optical sensor. Double modulation frequencies double the number of exposures, triple modulation frequencies triple the number of exposures, and so on.
Es dauert demnach auch proportional länger, die Distanz zum Objekt zu ermitteln, was ein Problem darstellt, da optische Sensoren häufig bei zeitempfindlichen Anwendungen verwendet werden, z. B. in Fahrzeugen, um z. B. Hindernisse wie Fußgänger oder Tiere, die plötzlich auf der Straße auftreten, zu erfassen; Distanzen zu voranfahrenden Fahrzeugen zu erfahren und in ähnlichen Anwendungsbereichen.It also takes proportionally longer to determine the distance to the object, which is a problem since optical sensors are often used in time-sensitive applications, e.g. B. in vehicles to z. B. to detect obstacles such as pedestrians or animals that suddenly appear on the road; Finding out distances to vehicles ahead and in similar areas of application.
Die Verringerung der Zeit, die der optische Sensor benötigt, um die Distanz zum erfassten Objekt zu ermitteln, ist folglich ein wichtiger Sicherheitsfaktor, da es auf diese Weise möglich wird, einen Fahrer früher zu warnen und eine längere Reaktionszeit einzuräumen oder ein automatisches Bremsen auszulösen oder Airbags auszulösen oder dergleichen.The reduction in the time it takes for the optical sensor to determine the distance to the detected object is therefore an important safety factor, as it makes it possible to warn a driver earlier and allow a longer reaction time or to trigger automatic braking or Deploy airbags or the like.
Es ist klar, dass es noch vieler Bemühungen bedarf, um das Ermitteln der Distanz von einem optischen Sensor zu einem Objekt eindeutig und ohne nicht notwendigen Zeitverlust zu ermöglichen.It is clear that a great deal of effort is still required to make it possible to determine the distance from an optical sensor to an object unequivocally and without unnecessary loss of time.
Kurzfassung der ErfindungSummary of the Invention
Es ist folglich eine Aufgabe dieser Erfindung, die Distanzmessung mithilfe eines optischen Sensors zu verbessern, um zumindest eines der oben genannten Probleme zu lösen und dadurch einen verbesserten optischen Sensor zu erzielen.It is therefore an object of this invention to improve distance measurement using an optical sensor to solve at least one of the above problems and thereby achieve an improved optical sensor.
Gemäß einem ersten Aspekt der Erfindung wird diese Aufgabe mithilfe eines Verfahrens in einer Berechnungseinheit gelöst, die mit einem optischen Sensor verbunden ist, um einen vom optischen Sensor erfassten Messpunkt zu interpretieren. Das Verfahren umfasst das Ermitteln einer ersten Distanz innerhalb des Sensorsichtfelds zwischen dem optischen Sensor und einer ersten Grenze, innerhalb welcher eine Sensorerfassung mithilfe des optischen Sensors eindeutig ist, wobei das Sichtfeld des Sensors eine Ebene aufweist, in der die erste Distanz ermittelt wird. Das Verfahren umfasst des Weiteren das Assoziieren des ersten Sensorwinkelbereichs mit Distanzen, die kürzer als die ermittelte erste Distanz mit der ersten Grenze sind, und eines zweiten Sensorwinkelbereichs mit Distanzen, die länger als die ermittelte erste Distanz mit der ersten Grenze sind. Das Verfahren umfasst außerdem das Erfassen des Messpunkts innerhalb des Sensorsichtfelds. Das Verfahren umfasst des Weiteren das Interpretieren der Distanz zum erfassten Messpunkt auf Basis des Sensorwinkelbereichs, innerhalb dessen eine Lichtreflexion vom Messpunkt erfasst wird.According to a first aspect of the invention, this object is achieved using a method in a calculation unit that is connected to an optical sensor in order to interpret a measurement point detected by the optical sensor. The method includes determining a first distance within the sensor field of view between the optical sensor and a first boundary within which sensor detection using the optical sensor is unambiguous, the field of view of the sensor having a plane in which the first distance is determined. The method further includes associating the first sensor angle range with distances shorter than the determined first distance to the first boundary and a second sensor angle range with distances longer than the determined first distance to the first boundary. The method also includes acquiring the measurement point within the sensor's field of view. The method further includes interpreting the distance to the detected measurement point based on the sensor angular range within which a light reflection from the measurement point is detected.
Gemäß einem zweiten Aspekt der Erfindung wird diese Aufgabe mithilfe einer Berechnungseinheit gelöst, die mit einem optischen Sensor verbunden ist. Die Berechnungseinheit ist so ausgelegt, dass sie einen vom optischen Sensor erfassten Messpunkt interpretiert. Die Berechnungseinheit umfasst einen Signalempfänger, der so ausgelegt ist, dass er ein Signal empfängt, das Informationen zu einer Erfassung des Messpunkts enthält. Die Berechnungseinheit umfasst außerdem einen Prozessorschaltkreis, der so ausgelegt ist, dass er eine erste Distanz innerhalb des Sensorsichtfelds zwischen dem optischen Sensor und einer ersten Grenze, innerhalb welcher eine Sensorerfassung mithilfe des optischen Sensors eindeutig ist, ermittelt, wobei das Sichtfeld des Sensors eine Ebene aufweist, in der die erste Distanz ermittelt wird. Der Prozessorschaltkreis ist außerdem so ausgelegt, dass er einen ersten Sensorwinkelbereich mit Distanzen, die kürzer als die ermittelte erste Distanz mit der ersten Grenze sind, assoziiert und einen zweiten Sensorwinkelbereich mit Distanzen, die länger als die ermittelte erste Distanz mit der ersten Grenze sind, assoziiert. Der Prozessorschaltkreis ist des Weiteren so ausgelegt, dass er den Messpunkt mit dem Sensorsichtfeld auf Basis des empfangenen Signals erfasst.According to a second aspect of the invention, this object is achieved using a calculation unit connected to an optical sensor. The calculation unit is designed to interpret a measurement point detected by the optical sensor. The calculation unit includes a signal receiver that is designed to receive a signal that contains information about a detection of the measurement point. The calculation unit also includes a processor circuit configured to determine a first distance within the sensor's field of view between the optical sensor and a first boundary within which sensor detection using the optical sensor is unambiguous, wherein the sensor's field of view comprises a plane , in which the first distance is determined. The processor circuit is also configured to associate a first sensor angle range with distances shorter than the determined first distance with the first boundary and a second sensor angle range with distances longer than the determined first distance with the first boundary . The processor circuit is further configured to acquire the measurement point with the sensor's field of view based on the received signal.
Der Prozessorschaltkreis ist außerdem so ausgelegt, dass er die Distanz zum erfassten Messpunkt auf Basis des Sensorwinkelbereichs, innerhalb dessen eine Lichtreflexion vom Messpunkt erfasst wurde, interpretiert.The processor circuitry is also designed to interpret the distance to the detected measurement point based on the sensor angular range within which a light reflection from the measurement point was detected.
Das Assoziieren gewisser Messwinkel von einfallenden Lichtreflexionen mit gewissen Distanzen ermöglicht das robuste und zuverlässige Ermitteln der Distanz zum Messpunkt, ohne dass es infolge der Distanzgrenze zu einem Aliasing-Effekt kommt. Somit wird es möglich, ein Objekt eindeutig zu erfassen und bereichsmäßig einzuordnen.Associating certain measurement angles of incident light reflections with certain distances enables the robust and reliable determination of the distance to the measurement point without aliasing due to the distance limit. This makes it possible to clearly detect an object and classify it according to area.
Bei gewissen Ausführungsformen kann ein Bildverarbeitungsprozess Messpunktcluster innerhalb diverser Distanzbereiche miteinander assoziieren, nachdem bestätigt wurde, dass die Messpunktcluster mit einem Wahrscheinlichkeitsgrad zum gleichen Objekt gehören und sich innerhalb des gleichen Distanzbereichs befinden.In certain embodiments, an image processing process may associate measurement point clusters within various distance ranges with one another after confirming that the measurement point clusters belong to the same object with a degree of probability and are within the same distance range.
Störungen der Messungen können somit weiter verringert werden, wodurch ein zuverlässigeres und verbessertes System zur Distanzmessung mithilfe eines optischen Sensors erzielt wird.Thus, disturbances in the measurements can be further reduced, resulting in a more reliable and improved distance measurement system using an optical sensor.
Andere Vorteile und weitere neue Merkmale gehen aus der folgenden ausführlichen Beschreibung der Erfindung hervor.Other advantages and further novel features will appear from the following detailed description of the invention.
Figurenlistecharacter list
Die Erfindung wird nun unter Bezugnahme auf die beiliegenden Figuren, die diverse Ausführungsformen der Erfindung veranschaulichen, ausführlicher beschrieben:
-
1A veranschaulicht ein Fahrzeug mit einem optischen Sensor gemäß einer Ausführungsform. -
1B veranschaulicht die Wellenbewegung einer ausgegebenen und einer reflektierten Lichtwelle gemäß einer Ausführungsform. -
2A zeigt ein Beispiel für eine Kartierung zwischen Distanz und Winkel für eine Lichtwelle, die von einem Objekt reflektiert wird, gemäß einer Ausführungsform. -
2B zeigt ein Beispiel für eine Kartierung zwischen Distanz und Winkel für eine Lichtwelle, die von einem Objekt reflektiert wird, gemäß einer Ausführungsform. -
3A zeigt ein Beispiel für eine Kartierung zwischen Distanz und Winkel für eine Lichtwelle, die von einem Objekt reflektiert wird, gemäß einer Ausführungsform. -
3B zeigt ein Beispiel für eine Kartierung zwischen Distanz und Winkel für eine Lichtwelle, die von einem Objekt reflektiert wird, gemäß einer Ausführungsform. -
4 zeigt einen Ablaufplan, der eine Ausführungsform der Erfindung veranschaulicht. -
5 ist eine Veranschaulichung einer Berechnungseinheit, die mit einem optischen Sensor verbunden ist, gemäß einer Ausführungsform der Erfindung.
-
1A 12 illustrates a vehicle having an optical sensor according to one embodiment. -
1B 12 illustrates the wave motion of an emitted and a reflected light wave, according to one embodiment. -
2A 12 shows an example of a distance-angle mapping for a light wave reflected from an object, according to one embodiment. -
2 B 12 shows an example of a distance-angle mapping for a light wave reflected from an object, according to one embodiment. -
3A 12 shows an example of a distance-angle mapping for a light wave reflected from an object, according to one embodiment. -
3B 12 shows an example of a distance-angle mapping for a light wave reflected from an object, according to one embodiment. -
4 Figure 12 shows a flow chart illustrating an embodiment of the invention. -
5 13 is an illustration of a computing unit connected to an optical sensor according to an embodiment of the invention.
Ausführliche Beschreibung der ErfindungDetailed Description of the Invention
Die Erfindung ist als Verfahren und als Berechnungseinheit definiert, die mit einem optischen Sensor verbunden ist, um einen vom optischen Sensor erfassten Messpunkt zu interpretieren, die gemäß beliebigen der nachstehend beschriebenen Ausführungsformen umgesetzt werden können. Diese Erfindung kann jedoch auf viele unterschiedliche Formen umgesetzt werden und ist nicht als durch die hier beschriebenen Ausführungsformen beschränkt anzusehen, die vielmehr diverse Aspekte der Erfindung darbieten und verdeutlichen sollen.The invention is defined as a method and a calculation unit associated with an optical sensor to interpret a measurement point detected by the optical sensor, which can be implemented according to any of the embodiments described below. This invention, however, may be embodied in many different forms and should not be construed as limited to the embodiments described herein, which are intended to demonstrate and clarify various aspects of the invention.
Weitere Aspekte und Merkmale der Erfindung können aus der folgenden ausführlichen Beschreibung in Zusammenschau mit den beiliegenden Figuren hervorgehen. Die Figuren sind jedoch ausschließlich als Beispiele für diverse Ausführungsformen der Erfindung anzusehen und nicht als die Erfindung einschränkend auszulegen, die lediglich durch die beiliegenden Ansprüche eingeschränkt ist. Des Weiteren sind die Figuren nicht notwendigerweise maßstabsgetreu und sollen, falls nicht anderweitig angegeben, Aspekte der Erfindung konzeptionell veranschaulichen.Further aspects and features of the invention can emerge from the following detailed description in conjunction with the accompanying figures. However, the figures are to be considered solely as examples of various embodiments of the invention and are not to be construed as limiting the invention, which is limited only by the appended claims. Furthermore, the figures are not necessarily to scale and are intended to conceptually illustrate aspects of the invention unless otherwise noted.
Eine LIDAR ist ein optisches Messinstrument, das Eigenschaften von reflektiertem Licht misst, um die Distanz (und/oder andere Eigenschaften) eines entfernt gelegenen Objekts zu ermitteln. Die Technologie erinnert stark an ein Radar (Radio Detection and Ranging), anstatt Licht werden jedoch Funkwellen verwendet. Die Distanz zu einem Objekt wird für gewöhnlich durch Messen der Zeitverzögerung zwischen einem ausgegebenen Laserimpuls und einer registrierten Reflexion gemessen.A LIDAR is an optical measurement instrument that measures properties of reflected light to determine the distance (and/or other properties) of a distant object. The technology is very similar to radar (radio detection and ranging), but radio waves are used instead of light. The distance to an object is usually measured by measuring the time delay between an emitted laser pulse and a registered reflection.
Eine Time-of-Flight-Kamera (ToF-Kamera) ist ein Kamerasystem, das eine Reihe von Bildern aufnimmt und eine Distanz zu einem Objekt auf Basis der bekannten Lichtgeschwindigkeit misst, indem sie die Zeit misst, die ein Lichtsignal benötigt, um zwischen der Kamera und dem Subjekt/Objekt zu passieren.A time-of-flight (ToF) camera is a camera system that takes a series of images and measures a distance to an object based on the known speed of light by measuring the time it takes for a light signal to travel between the to happen to the camera and the subject/object.
Der optische Sensor 110 ist so konfiguriert, dass er einen Messpunkt 120 innerhalb eines Sichtfelds 130 erfasst, indem er eine Lichtwelle 140-1 ausgibt und eine Reflexion der vom Objekt 120 reflektierten Lichtwelle 140-2 erfasst. Die Distanz zum Messpunkt 120 kann danach durch Messen eines Phasenunterschieds zwischen der ausgegebenen Lichtwelle 140-1 und deren Reflexion 140-2 ermittelt werden, wie in Verbindung mit
Der Messpunkt 120 kann aus einem beliebigen Objekt bestehen, wie z. B. einen Fahrzeug, einem Straßenschild, einem Fußgänger, einem Tier, einer Wand, einem Gebäude, einem Baum oder dergleichen. In Hinblick auf die Erfindung ist nicht wichtig, ob der Messpunkt 120 sich bewegt oder stillsteht. Die Erfindung hängt auch nicht davon ab, ob der optische Sensor 110 an einem Fahrzeug 100 angebracht ist oder nicht, und auch nicht davon, ob das Fahrzeug 100 stillsteht oder sich bewegt.The
Ein Fahrzeug 100 bezieht sich in diesem Kontext z. B. auf einen Guttransporter, einen Langstreckensattelschlepper, ein Transportfahrzeug, ein Privatfahrzeug, ein Notfahrzeug, ein Auto, einen Geländewagen, ein Kettenfahrzeug, einen Bus, ein Boot, eine Fähre, ein Amphibienfahrzeug, ein Flugzeug, einen Helikopter oder ein anderes motorisiertes bemanntes oder nicht bemanntes Mittel zum Transportieren, das für eine geographische Bewegung im Meer, in der Luft oder am Land ausgelegt ist.A
In Bezug auf optische Sensoren 110, wie z. B. ToF-Kameras, die auf eine Weise angebracht sind, dass sie an jedem Punkt innerhalb des Sichtfelds 130 einen linear steigenden Bereich erzielen, ist es möglich, eine eindeutige Lokalisierung des Messpunkts 120 und eine Distanzmessung zu diesem zu erreichen, sogar wenn der Messpunkt 120 außerhalb einer Distanzgrenze liegt. Durch Kartieren des Winkels, mit dem eine ausgegebene Lichtwelle 140-1 vom Messpunkt 120 mit einer Distanz reflektiert wird 140-2, ist es somit möglich, zu ermitteln, ob der Messpunkt 120 innerhalb der Distanzgrenze oder außerhalb der Grenze oder bei gewissen Ausführungsformen an einem Vielfachen der Distanz zur Distanzgrenze liegt.With respect to
Software im optischen Sensor 110 kann somit den oben beschriebenen Aliasing-Effekt kompensieren und eine korrekte Distanzmessung zum Messpunkt 120 bereitstellen, ohne dass Lichtwellen mit unterschiedlichen Modulationen und somit unterschiedlichen Distanzgrenzen ausgegeben werden müssen.Software in the
Bei gewissen Ausführungsformen ist der Aliasing-Effekt nicht phasenbasiert, bei anderen Ausführungsformen kann er hingegen zeitbasiert sein. Beispielsweise kann es für einen optischen Sensor 110 in Form einer LIDAR problematisch sein, in der Lage zu sein, eine Lichtreflexion innerhalb eines angedachten Zeitfensters mit einer hohen Abtastrate wieder zu empfangen. Die Lichtreflexionen können sodann in einem darauf folgenden Zeitfenster ankommen, worauf es zu einer Form des Aliasing kommt.In certain embodiments, the aliasing effect is not phase based, while in other embodiments it may be time based. For example, it can be problematic for an
Ein besonders wünschenswertes Beispiel für eine Anwendung eines optischen Sensors 110 kann ein Fahrzeug 100 mit einem nach unten zeigenden optischen Sensor 110 beinhalten, die einen Erfassungsbereich größer als eine Proximitätsgrenze aufweisen. Der Messwinkel für einfallende Lichtreflexionen 140-2, der der Distanzgrenze entspricht, kann gemäß Ausführungsformen manuell oder auf Basis von Sensormessungen automatisch geschätzt werden.A particularly desirable example of an application of an
Dadurch wird eine robuste und zuverlässige Ermittlung der Distanz zum Messpunkt 120 ermöglicht, ohne dabei durch Aliasing-Effekte eingeschränkt zu sein, die sich aus der Distanzgrenze ergeben. Es wird somit möglich, den Messpunkt 120, der außerhalb der Distanzgrenze liegt, zu erfassen und bereichsmäßig einzuordnen, der andernfalls als Störungen der Messung wahrgenommen werden oder diese bewirken würde.This enables a robust and reliable determination of the distance to the
Die Figur veranschaulicht die ausgegebene Lichtwelle 140-1 mit einer durchgehenden Linie, die vom Messpunkt 120 reflektierte Lichtwelle 140-2 hingegen ist mit einer strichlierten Linie veranschaulicht.The figure illustrates the output lightwave 140-1 with a solid line, while the lightwave 140-2 reflected from the
Die Distanz A1, innerhalb welcher die Distanz zu einem Messpunkt 120 eindeutig ermittelt werden kann, entspricht 360 Grad, wobei von einer sinusoidalen Wellenbewegung für die ausgegebene Lichtwelle 140-1 ausgegangen wird.The distance A1, within which the distance to a
Wenn die entsprechende Reflexion 140-2 wieder am Messpunkt 120 angekommen ist, kann die Phasenverschiebung Δφ zwischen der ausgegebenen Lichtwelle 140-1 und der reflektierten Lichtwelle 140-2 ermittelt werden. Die Phasenverschiebung Δφ kann sodann wiederum in Bezug auf eine Distanz kartiert werden, z. B. in einem nicht einschränkenden Beispiel für eine Kartierung, das in Tabelle 1 gezeigt ist. Die Distanz zum Messpunkt 120 kann damit ermittelt werden. Tabelle 1
Eine Kartierung wird zwischen einem ersten Winkelbereich Δθ1 und einem ersten Distanzbereich 0 m zur ersten Distanzgrenze 150-1 durchgeführt, die in einer ersten Distanz A1 liegt. Bei gewissen Ausführungsformen wird eine Zuordnung auch zwischen einem zweiten Winkelbereich Δθ2 und einem zweiten Distanzbereich zwischen der ersten Distanzgrenze 150-1 in der ersten Distanz A1 und einer zweiten Distanzgrenze 150-2 durchgeführt, die in einer zweiten Distanz A2 liegt. Bei gewissen anderen Ausführungsformen wird eine noch weitere Zuordnung zwischen einem dritten Winkelbereich Δθ3 und einem dritten Distanzbereich durchgeführt, der zwischen der zweiten Distanzgrenze 150-2 in einer zweiten Distanz A2 und einer dritten Distanzgrenze 150-3 liegt, die in einer dritten Distanz A3 liegt.Mapping is performed between a first angular range Δθ1 and a first distance range 0 m to the first distance boundary 150-1, which is at a first distance A1. In certain embodiments, a mapping is also performed between a second angular range Δθ2 and a second distance range between the first distance limit 150-1 at the first distance A1 and a second distance limit 150-2 that is at a second distance A2. In certain other embodiments, a still further mapping is performed between a third angular range Δθ3 and a third distance range lying between the second distance boundary 150-2 at a second distance A2 and a third distance boundary 150-3 lying at a third distance A3.
Bei gewissen Ausführungsformen kann die Zuordnung derart fortgesetzt werden, dass eine erste n-te Grenze 150-n und eine n-te Grenze An zwischen dem optischen Sensor 110 und der n-ten Grenze 150-n ermittelt wird, wobei n eine zufällige positive ganze Zahl ist. Eine Zuordnung kann danach zwischen einem n-ten Sensorwinkelbereich Δθn mit einer Distanz länger als die Distanz A(n - 1) zur (n - 1)-ten Grenze 150-(n - 1), aber kürzer als die n-te Grenze 150-n durchgeführt werden.In certain embodiments, the mapping may be continued such that a first nth boundary 150-n and an nth boundary An is determined between the
Gemäß diversen Ausführungsformen kann eine solche Zuordnung mithilfe von manueller Kalibrierung oder mithilfe einer automatischen Kalibrierung auf Basis von Sensormessungen durch den optischen Sensor 110 durchgeführt werden. Bei gewissen Ausführungsformen kann die Zuordnung durch Speichern von kalibrierten Werten in einer Tabelle, wie z. B. Tabelle 2, durchgeführt werden. Tabelle 2
Eine Lichtwelle 140-1 mit einer bekannten Frequenz, z. B. 20 MHz, wird ausgegeben und die vom Messpunkt 120 reflektierte Reflexion 140-2 wird erfasst. Die Phasenverschiebung Δφ zwischen der ausgegebenen Lichtwelle 140-1 und deren Reflexion 140-2 wird ermittelt. Des Weiteren kann die ermittelte Phasenverschiebung Δφ in Bezug auf eine Distanz kartiert werden, z. B. wie in Verbindung mit
Des Weiteren kann der Sensorwinkelbereich Δθn, innerhalb dessen die Reflexion 140-2 vom Messpunkt 120 erfasst wurde, ermittelt werden.Furthermore, the sensor angle range Δθn, within which the reflection 140-2 was detected by the
Eine Kartierung des ermittelten Sensorwinkelbereichs Δθn kann sodann zu einem Distanzbereich erfolgen, wie oben in Verbindung mit
Die Distanz zum Messpunkt 120 kann dadurch eindeutig ermittelt werden, und das Problem eines Aliasing-Effekts wird gelöst. Gleichzeitig wird die Notwendigkeit, Lichtwellen mit unterschiedlichen Modulationsfrequenzen auszugeben, beseitigt, wodurch die Zeit, die notwendig ist, um die Distanz zum Messpunkt 120 zu ermitteln, verringert wird.The distance to the
Ein Messpunkt 120 und wahrscheinlich insbesondere ein Messpunkt 120 auf einem Objekt mit vertikaler Erstreckung kann unter Verwendung der oben beschriebenen Technik innerhalb von zwei separaten Sensorwinkelbereichen Δθ erfasst werden. In
Wenn zur Lösung dieses Problems keine Maßnahmen ergriffen werden, interpretiert die Berechnungseinheit im optischen Sensor 110 dies als Anzeichen dafür, dass gewisse Messpunkte 120, die zum Objekt gehören, innerhalb des ersten Distanzbereichs 0-A1 liegen, während ein weiterer Teil der Messpunkte 120, die zum Objekt gehören, innerhalb des zweiten Distanzbereichs A1-A2 liegt.If no measures are taken to solve this problem, the calculation unit in the
Gemäß gewissen Ausführungsformen kann die nachvollziehbare Fehlerquelle dadurch behoben werden, dass ein Messpunktcluster 125 innerhalb eines Sensorwinkelbereichs Δθ1 erfasst wird und ein innerhalb eines zweiten Sensorwinkelbereichs Δθ2 erfasster Messpunkt mit dem ersten Distanzbereich A1 assoziiert wird, der mit dem ersten Sensorwinkelbereich Δθ1 assoziiert ist, wenn eine Analyse der Phasenverschiebung Δφ zeigt, dass die Messpunkte 120, 125 wahrscheinlich zum gleichen Objekt gehören.According to certain embodiments, the traceable source of error can be eliminated in that a
Es kann danach davon ausgegangen werden, dass es wahrscheinlicher ist, dass ein Objekt am Boden in dem am nächsten gelegenen Distanzbereich steht, innerhalb dessen ein Messpunkt 120 erfasst wurde, der zu einem Messpunktcluster 125 gehört, und dass es eine vertikale Hochkanterstreckung hat, die sich über einem entsprechenden Sensorwinkelbereich Δθ erstreckt, als die gegenteilige Situation, so dass davon ausgegangen werden kann, dass der Messpunkt 120 zum Distanzbereich gehören muss, der dem optischen Sensor 110 am nächsten gelegen ist.It can then be assumed that it is more likely that an object is on the ground in the closest distance range within which a
Der optische Sensor 110 kann gemäß diversen Ausführungsformen z. B. aus einer Kamera, einer 3D-Kamera, einer Time-of-Flight-Kamera, einer Stereokamera, einer Lichtfeldkamera, einer Radarmessvorrichtung, einer Lasermessvorrichtung, einer LIDAR, einer Distanzmessvorrichtung auf Basis von Ultraschallwellen oder dergleichen bestehen.The
Um in der Lage sein zu können, den vom optischen Sensor 110 erfassten Messpunkt 120 korrekt zu erfassen, kann das Verfahren 400 eine Reihe von Schritten 401-406 umfassen. Es sei jedoch angemerkt, dass gewisse der beschriebenen Schritte 401-406 gemäß diversen Ausführungsformen in einer chronologischen Reihenfolge durchgeführt werden können, die sich von der angezeigten numerischen Reihenfolge unterscheidet, und dass gewisse dieser parallel zueinander durchgeführt werden können. Des Weiteren werden gewisse Schritte nur bei gewissen Ausführungsformen durchgeführt, wie z. B. Schritt 402 und/oder Schritt 406. Das Verfahren 400 umfasst die folgenden Schritte:In order to be able to correctly detect the
Schritt 401
Eine erste Distanz A1 wird innerhalb des Sichtfelds 130 des Sensors 110 zwischen dem optischen Sensor 110 und einer ersten Grenze 150-1 ermittelt, innerhalb welcher eine Sensorerfassung eines Messpunkts 120 durch den optischen Sensor 110 eindeutig ist. Die erste Grenze 150-1 wird manchmal eindeutiger Bereich (NAR) genannt.A first distance A1 is determined within the field of
Die Distanz A1 zur ersten Grenze 150-1 hängt von der Frequenz einer Lichtwelle ab, die vom optischen Sensor 110 ausgegeben wird. Beispielsweise erzeugt eine mit einer ersten Frequenz von 20 MHz ausgegebene Lichtwelle 140-1 eine erste Grenze 150-1, die sich in einer Distanz von ungefähr 7,5 Metern befindet.The distance A1 to the first boundary 150 - 1 depends on the frequency of a light wave that is output from the
Gemäß gewissen Ausführungsformen erfolgt das Ermitteln der Distanz A1 zur ersten Grenze 150-1, innerhalb welcher eine Sensorerfassung mit dem optischen Sensor 110 eindeutig ist, wenn die Phasenverschiebung Δφ zwischen der ausgegebenen Lichtwelle 140-1 und der empfangenen Reflexion der Lichtwelle 140-2 360 Grad nicht überschreitet.According to certain embodiments, the distance A1 to the first boundary 150-1, within which a sensor detection with the
Schritt 402
Dieser Schritt wird bei einigen, aber nicht notwendigerweise bei allen Ausführungsformen des Verfahrens 400 durchgeführt.This step is performed in some, but not necessarily all, embodiments of the
Eine zweite Grenze 150-2 und eine zweite Distanz A2 zwischen dem optischen Sensor 110 und der zweiten Grenze 150-2 können ermittelt werden.A second boundary 150-2 and a second distance A2 between the
Des Weiteren kann gemäß gewissen Ausführungsformen eine weitere Ermittlung einer n-ten Grenze 150-n und einer n-ten Distanz An zwischen dem optischen Sensor 110 und der n-ten Grenze 150-n durchgeführt werden, wobei n eine zufällige positive ganze Zahl ist.Furthermore, according to certain embodiments, a further determination of an nth boundary 150-n and an nth distance An between the
Schritt 403
Ein erster Sensorwinkelbereich Δθ1 wird mit Distanzen assoziiert, die kürzer als die ermittelte 401 erste Distanz A1 zur ersten Grenze 150-1 sind, und ein zweiter Sensorwinkelbereich Δθ2 wird mit Distanzen assoziiert, die länger als die ermittelte 401 erste Distanz A1 zur ersten Grenze 150-1 sind.A first sensor angle range Δθ1 is associated with distances that are shorter than the determined 401 first distance A1 to the first boundary 150-1, and a second sensor angle range Δθ2 is associated with distances that are longer than the determined 401 first distance A1 to the first boundary 150- 1 are.
Bei gewissen Ausführungsformen, bei denen eine zweite Grenze 150-2 und eine zweite Distanz A2 zwischen dem optischen Sensor 110 und der zweiten Grenze ermittelt wurden 402, kann auch eine Assoziation des zweiten Sensorwinkelbereichs Δθ2 mit Distanzen erfolgen, die länger als die ermittelte 401 erste Distanz A1 zur ersten Grenze 150-1 sind, die jedoch kürzer als die zweite Distanz A2 zur zweiten Grenze 150-2 sind, und eines dritten Sensorwinkelbereichs Δθ3 mit einer Distanz erfolgen, die länger als die ermittelte 402 zweite Distanz ist.In certain embodiments, in which a second boundary 150-2 and a second distance A2 between the
Bei gewissen Ausführungsformen, bei denen eine n-te Grenze 150-n und eine n-te Distanz An zwischen dem optischen Sensor 110 und der n-ten Grenze 150-n ermittelt wurden 402, kann eine Assoziation des n-ten Sensorwinkelbereichs Δθ0 ebenfalls mit Distanzen, die länger als die ermittelte 401 Distanz A(n - 1) zur (n - 1)-ten Distanz Grenze 150-(n - 1) sind, die jedoch kürzer als die ermittelte 402 n-te Grenze 150-n sind, durchgeführt werden, wobei n eine zufällige positive ganze Zahl ist.In certain embodiments where an nth boundary 150-n and an nth distance An between the
Gemäß diversen Ausführungsformen kann eine solche Assoziation eines Sensorwinkelbereichs Δθ mit einer Distanz A1, A2 ... An zu Grenzen 150 auf Basis von Messungen durch den optischen Sensor 110 oder mithilfe einer manuellen Kalibrierung erfolgen.According to various embodiments, such an association of a sensor angular range Δθ with a distance A1, A2 . . . An to boundaries 150 can be based on measurements by the
Schritt 404
Ein Messpunkt 120 wird innerhalb des Sichtfelds 130 des Sensors 110 erfasst.A
Der Messpunkt 120 kann einen Teil eines Objekts darstellen, wie z. B. ein Fahrzeug, ein Straßenschild, einen Fußgänger, ein Tier, eine Wand, ein Gebäude, einen Baum oder dergleichen.
Das Erfassen des Messpunkts 120 innerhalb des Sichtfelds 130 des Sensors 110 kann derart erfolgen, dass der Sensor 110 eine Lichtreflexion 140-2 einer zuvor ausgegebenen Lichtwelle 140-1 empfängt und die Phasenverschiebung Δφ zwischen der ausgegebenen Lichtwelle 140-1 und der empfangenen Reflexion 140-2 davon misst.The
Schritt 405
Die Distanz zum erfassten 404 Messpunkt 120 wird auf Basis des Sensorwinkelbereichs Δθ1, Δθ2 interpretiert, innerhalb dessen eine Lichtreflexion 140-2 vom Messpunkt 120 erfasst wird.The distance to the detected 404
Schritt 406
Dieser Schritt wird bei einigen, aber nicht notwendigerweise bei allen Ausführungsformen des Verfahrens 400 durchgeführt.This step is performed in some, but not necessarily all, embodiments of the
Ein Messpunkt 120, von dem eine Lichtreflexion 140-2 innerhalb eines Sensorwinkelbereichs Δθ2 erfasst wird 404, kann mit einer ersten Distanz A1 assoziiert werden, die wiederum mit einem Sensorwinkelbereich Δθ1 assoziiert ist, auf Basis der Erfassung 404 eines Messpunktclusters 125 innerhalb des Sensorwinkelbereichs Δθ1. Es ist somit möglich, Teile eines Objekts 120, insbesondere eines Objekts 120 mit vertikaler Erstreckung, zu vermeiden, von dem ermittelt wird, das es in unterschiedlichen Distanzen vom optischen Sensor 110 liegt, je nach Sensorwinkelbereich Δθ, [innerhalb dessen] eine Lichtreflexion 140-2 vom Messpunkt 120 erfasst wird 404.A
Das System 500 zum Interpretieren eines Messpunkts 120, der von einem optischen Sensor 110 erfasst wird, umfasst zumindest einen optischen Sensor 110, der so ausgelegt ist, dass er eine Lichtwelle 140-1 ausgibt und eine Reflexion 140-2 der Lichtwelle 140-1 von einem Messpunkt empfängt. Das System 500 umfasst des Weiteren eine Berechnungseinheit 200.The
Der optische Sensor 110 kann gemäß diversen Ausführungsformen z. B. aus einer Kamera, einer 3D-Kamera, einer Time-of-Flight-Kamera, einer Stereokamera, einer Lichtfeldkamera, einer Radarmessvorrichtung, einer Lasermessvorrichtung, einer LIDAR und/oder einer Distanzmessvorrichtung auf Basis von Ultraschallwellen oder dergleichen bestehen.The
Die Berechnungseinheit 200 ist so ausgelegt, dass sie zumindest Teile des Verfahrens 300 zum Interpretieren eines vom optischen Sensor 110 erfassten Messpunkts 120 durchführt.The
Die Berechnungseinheit 200 kann bei diversen Ausführungsformen im optischen Sensor 110 enthalten sein oder kann mit dem optischen Sensor 110 verbindbar sein.In various embodiments, the
Um in der Lage zu sein, den vom optischen Sensor 110 erfassten Messpunkt 120 korrekt zu interpretieren, enthält die Berechnungseinheit 200 eine Reihe von Komponenten, die im nachfolgenden Text ausführlicher beschrieben sind. Gewisse der beschriebenen Teilkomponenten sind bei einigen, aber nicht notwendigerweise bei allen Ausführungsformen enthalten. Außerdem kann weitere Elektronik in der Berechnungseinheit 200 vorhanden sein, die für ein Verstehen der Funktion der Berechnungseinheit 200 und des Verfahrens 400 gemäß der Erfindung nicht zur Gänze erforderlich ist.In order to be able to correctly interpret the
Die Berechnungseinheit 200 umfasst einen Signalempfänger 510, der so ausgelegt ist, dass er ein Signal empfängt, das Informationen zu einer Erfassung des Messpunkts 120 enthält. Dieses Empfangen eines Signals kann gemäß diversen Ausführungsformen über eine drahtgebundene oder drahtlose Schnittstelle erfolgen.The
Die drahtlose Schnittstelle kann gemäß diversen Ausführungsformen z. B. auf beliebigen der folgenden Technologien basieren: Global System for Mobile Communications (GSM), Enhanced Data Rates for GSM Evolution (EDGE), Universal Mobile Telecommunications System (UMTS), Code Division Access (CDMA), (CDMA 2000), Time Division Synchronous CDMA (TD-SCDMA), Long Term Evolution (LTE); Wireless Fidelity (Wi-Fi), wie durch die Standards 802.11 a, ac, b, g und/oder n der Electrical and Electronics Engineers (IEEE) definiert, Internetprotokoll (IP), Bluetooth und/oder Nahfeldkommunikation (NFC) oder einer ähnlichen Kommunikationstechnologie.The wireless interface can, according to various embodiments, e.g. based on any of the following technologies: Global System for Mobile Communications (GSM), Enhanced Data Rates for GSM Evolution (EDGE), Universal Mobile Telecommunications System (UMTS), Code Division Access (CDMA), (CDMA 2000), Time Division Synchronous CDMA (TD-SCDMA), Long Term Evolution (LTE); Wireless Fidelity (Wi-Fi) as defined by Electrical and Electronics Engineers (IEEE) 802.11 a, ac, b, g and/or n standards, Internet Protocol (IP), Bluetooth and/or Near Field Communication (NFC) or similar communication technology.
Gemäß gewissen anderen Ausführungsformen sind die Berechnungseinheit 200 und der Sensor 110 für eine Kommunikation und einen Informationsaustausch über eine drahtgebundene Schnittstelle ausgelegt. Eine solche drahtgebundene Schnittstelle kann ein Kommunikationsbussystem umfassen, das aus einem oder einer Mehrzahl von Kommunikationsbussen besteht, um eine Reihe von elektronischen Steuereinheiten (ECUs) oder Steuereinheiten/Steuerungen und diverse Komponenten und Sensoren, die sich auf dem Fahrzeug 100 befinden, miteinander zu verknüpfen. Der Fahrzeug-Kommunikationsbus kann z. B. aus einem oder einer Mehrzahl eines Kabels; eines Datenbusses, wie z. B. eines CAN-Busses (Controller-Area-Network-Busses), eines MOST-Busses (Media Oriented Systems Transport) oder einer beliebigen anderen Buskonfiguration; oder einer drahtlosen Verbindung, z. B. gemäß beliebigen der oben aufgelisteten Technologien zur drahtlosen Kommunikation, bestehen.According to certain other embodiments, the
Die Berechnungseinheit 200 umfasst außerdem einen Prozessorschaltkreis 520, der so ausgelegt ist, dass er eine erste Distanz A1 innerhalb des Sichtfelds 130 des Sensors 110 zwischen dem optischen Sensor 110 und einer ersten Grenze 150-1, innerhalb welcher eine Sensorerfassung mithilfe des optischen Sensors 110 eindeutig ist, ermittelt. Der Prozessorschaltkreis 520 ist außerdem so ausgelegt, dass er einen ersten Sensorwinkelbereich Δθ1 mit Distanzen, die kürzer als die erste ermittelte Distanz A1 zur ersten Grenze 150-1 sind, assoziiert. Der Prozessorschaltkreis 520 ist des Weiteren außerdem so ausgelegt, dass er einen zweiten Sensorwinkelbereich Δθ2 mit Distanzen, die länger als die erste ermittelte Distanz A1 sind, mit der ersten Grenze 150-1 assoziiert. Der Prozessorschaltkreis 520 ist des Weiteren außerdem so ausgelegt, dass er den Messpunkt 120 innerhalb des Sichtfelds 130 des Sensors 110 auf Basis des empfangenen Signals erfasst, und so ausgelegt, dass er die Distanz zum erfassten Messpunkt 120 auf Basis des Sensorwinkelbereichs Δθ interpretiert, innerhalb dessen eine Lichtreflexion 140-2 vom Messpunkt 120 erfasst wurde.The
Der Prozessorschaltkreis 520 kann des Weiteren so ausgelegt sein, dass er einen Sensorwinkelbereich Δθ mit Distanzen A1, A2 ... An auf Basis von Messungen durch den Sensor 110 mit Grenzen 150 assoziiert.The
Bei gewissen Ausführungsformen kann der Prozessorschaltkreis 520 des Weiteren so ausgelegt sein, dass er einen Messpunkt 120, von dem eine Reflexion 140-2 innerhalb eines zweiten Sensorwinkels Δθ2 erfasst wurde, mit einer ersten Distanz A1 assoziiert, die mit einem zweiten Sensorwinkelbereich Δθ1 assoziiert ist, auf Basis der Erfassung eines Messpunktclusters 125 innerhalb des Sensorwinkelbereichs Δθ1.In certain embodiments,
Der Prozessorschaltkreis 520 kann z. B. aus einem oder einer Mehrzahl einer zentralen Verarbeitungseinheit (CPU), eines Mikroprozessors oder einer anderen Logik bestehen, die so konzipiert ist, dass sie interpretiert und Anweisungen ausführt und/oder Daten liest und schreibt. Der Prozessorschaltkreis 520 kann Daten für Eingänge, Ausgänge oder eine Datenverarbeitung von Daten verwalten, darunter auch das Puffern von Daten, Steuerfunktionen und dergleichen.The
Bei gewissen Ausführungsformen kann die Berechnungseinheit 200 des Weiteren einen Signalsender 530 umfassen, der so ausgelegt ist, dass er ein Steuersignal sendet, z. B. um ein Warnsignal oder dergleichen auszulösen, wenn ein Messpunkt 120 innerhalb einer bestimmten Distanz vom optischen Sensor 110 erfasst wird, gemäß gewissen Ausführungsformen. Bei gewissen Ausführungsformen kann der Signalsender 530 so ausgelegt sein, dass er ein Steuersignal sendet, um eine Beschleunigung des Fahrzeugs 100 zu verhindern und/oder ein Bremsen des Fahrzeugs 100 einzuleiten.In certain embodiments, the
Gemäß gewissen Ausführungsformen kann die Berechnungseinheit 110 des Weiteren eine Speichereinheit 525 umfassen, die bei gewissen Ausführungsformen aus einem Speichermedium für Daten bestehen kann. Die Speichereinheit 525 kann bei diversen Ausführungsformen z. B. aus einer Speicherkarte, einem Flash-Speicher, einem USB-Speicher, einem Festplattenlaufwerk oder einer anderen ähnlichen Datenspeichereinheit bestehen, z. B. beliebigen der Gruppe, bestehend aus ROM (Nur-Lese-Speicher), PROM (Programmierbarer Nur-Lese-Speicher), EPROM (Löschbarer PROM), Flash-Speicher- FEPROM (Elektrisch löschbarer PROM) usw.According to certain embodiments, the
Des Weiteren enthält die Erfindung gemäß gewissen Ausführungsformen ein Computerprogramm zum Interpretieren eines von einem optischen Sensor 110 erfassten Messpunkts 120.Furthermore, according to certain embodiments, the invention includes a computer program for interpreting a
Das Computerprogramm ist so ausgelegt, dass es das Verfahren 400 gemäß zumindest einem der oben beschriebenen Schritte 401-406 durchführt, wenn das Programm in einem Prozessorschaltkreis 520 in der Berechnungseinheit 200 ausgeführt wird.The computer program is designed to perform the
Das Verfahren 400 gemäß zumindest einem der Schritte 401-406 zum Interpretieren eines vom optischen Sensor 110 erfassten Messpunkts 120 kann somit mithilfe eines oder einer Mehrzahl von Prozessorschaltkreisen 520 in der Berechnungseinheit 200 gemeinsam mit dem Computerprogrammcode zum Durchführen eines, mehrerer, gewisser oder aller der Schritte 401-406, wie oben beschrieben, umgesetzt werden. Ein Computerprogramm, das Anweisungen zum Durchführen der Schritte 401-406 enthält, wenn das Computerprogramm in den Prozessorschaltkreis 520 geladen ist, kann somit sein [sic].The
Bei gewissen Ausführungsformen ist das oben beschriebene Computerprogramm in der Berechnung 200 so ausgelegt, dass es in der Speichereinheit 525 installiert wird, z. B. über eine drahtlose Schnittstelle.In certain embodiments, the computer program in the
Der Signalempfänger und/oder der Signalsender 530, die oben beschrieben und erörtert sind, können bei gewissen Ausführungsformen aus einem separaten Sender und Empfänger bestehen. Der Signalempfänger 510 und der Signalsender 530 in der Berechnungseinheit 200 können bei gewissen Ausführungsformen jedoch aus einem Sendeempfänger bestehen, der so ausgelegt ist, dass er Funksignale sendet und empfängt, und wobei Teile des Designs, wie z. B. die Antenne, für Sender und Empfänger üblich sind. Die Kommunikation kann für einen drahtlosen Informationsaustausch über Funkwellen, WLAN, Bluetooth oder ein Infrarot-Sendeempfängermodul ausgelegt sein. Bei gewissen Ausführungsformen jedoch kann bzw. können der Signalempfänger 510 und/oder der Signalsender 530 alternativ speziell für einen drahtgebundenen Informationsaustausch oder gemäß gewissen Ausführungsformen alternativ für sowohl einen drahtlosen als auch einen drahtgebundenen Informationsaustausch ausgelegt sein.The signal receiver and/or signal transmitter 530 described and discussed above may consist of a separate transmitter and receiver in certain embodiments. However, in certain embodiments, the
Manche Ausführungsformen der Erfindung umfassen außerdem ein Fahrzeug 100, das ein System 500 enthält, das im Fahrzeug 100 installiert und so ausgelegt ist, dass es ein Verfahren 400 gemäß zumindest einem der Verfahrensschritte 401-406 durchführt, um einen von einem optischen Sensor 110 erfassten Messpunkt 120 zu interpretieren.Some embodiments of the invention also include a
Claims (15)
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE1350900-5 | 2013-07-18 | ||
SE1350900A SE537280C2 (en) | 2013-07-18 | 2013-07-18 | Interpretation of measuring point detected by an optical sensor |
PCT/SE2014/050816 WO2015009220A1 (en) | 2013-07-18 | 2014-06-30 | Interpretation of measurement point detected by an optical sensor |
Publications (2)
Publication Number | Publication Date |
---|---|
DE112014002962T5 DE112014002962T5 (en) | 2016-03-24 |
DE112014002962B4 true DE112014002962B4 (en) | 2023-05-25 |
Family
ID=52346545
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112014002962.9T Active DE112014002962B4 (en) | 2013-07-18 | 2014-06-30 | Interpretation of a measurement point recorded by an optical sensor |
Country Status (3)
Country | Link |
---|---|
DE (1) | DE112014002962B4 (en) |
SE (1) | SE537280C2 (en) |
WO (1) | WO2015009220A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3811108A4 (en) * | 2018-08-17 | 2022-03-16 | Sense Photonics, Inc. | Methods and systems for increasing the range of time-of-flight systems by unambiguous range toggling |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7791715B1 (en) | 2006-10-02 | 2010-09-07 | Canesta, Inc. | Method and system for lossless dealiasing in time-of-flight (TOF) systems |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA1235773A (en) * | 1983-12-23 | 1988-04-26 | Shigeto Nakayama | Device for detecting road surface condition |
DE4016973C1 (en) * | 1990-02-24 | 1991-06-13 | Eltro Gmbh, Gesellschaft Fuer Strahlungstechnik, 6900 Heidelberg, De | |
US5202742A (en) * | 1990-10-03 | 1993-04-13 | Aisin Seiki Kabushiki Kaisha | Laser radar for a vehicle lateral guidance system |
DE4123056A1 (en) * | 1991-07-12 | 1993-01-14 | Bayerische Motoren Werke Ag | DISTANCE MEASURING DEVICE FOR MOTOR VEHICLES |
-
2013
- 2013-07-18 SE SE1350900A patent/SE537280C2/en unknown
-
2014
- 2014-06-30 DE DE112014002962.9T patent/DE112014002962B4/en active Active
- 2014-06-30 WO PCT/SE2014/050816 patent/WO2015009220A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7791715B1 (en) | 2006-10-02 | 2010-09-07 | Canesta, Inc. | Method and system for lossless dealiasing in time-of-flight (TOF) systems |
Also Published As
Publication number | Publication date |
---|---|
DE112014002962T5 (en) | 2016-03-24 |
SE1350900A1 (en) | 2015-01-19 |
SE537280C2 (en) | 2015-03-24 |
WO2015009220A1 (en) | 2015-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112015000715B4 (en) | Apparatus for detecting axis misalignment of a radiation sensor | |
DE102017203344A1 (en) | CAPTURE LONG OBJECTS THROUGH SENSOR FUSION | |
EP3714286B1 (en) | Method and device for ascertaining an installation angle between a roadway on which a vehicle travels and a detection direction of a measurement or radar sensor | |
DE112007000468T5 (en) | Radar device and mobile object | |
DE102015100134A1 (en) | Object unification system of multiple radar imaging sensors | |
DE102013113619A1 (en) | Probabilistic target selection and hazard assessment procedures and application to an intersection collision warning system | |
EP2799901A2 (en) | Traffic monitoring system for speed measurement and allocation of moving vehicles in a multi-target receiving module | |
DE102016117710A1 (en) | RADAR VIEW FUSION FOR ASSESSING THE SPEED OF A TARGET OBJECT | |
DE102016205430A1 (en) | Method and device for determining the coefficient of friction of a drivable subsoil by means of an ego vehicle | |
DE102018124538A1 (en) | Systems and methods for measuring a bridge clearance height | |
DE112014002959T5 (en) | Determination of the lane position | |
DE102011105074A1 (en) | Method for determining visual range for vehicle, involves determining surrounding of vehicle by camera, where contrast dimensions are determined for object depicted in images, where visual range is determined from contrast dimensions | |
DE102014010381A1 (en) | Method for operating a vehicle system of a motor vehicle for protection against damage caused by unevenness of the ground and motor vehicle | |
DE102017120705A1 (en) | DETECTION OF DEVOTIVE VEHICLES WITH IR-LIGHT | |
DE102015116434A1 (en) | Method for estimating the airspeed | |
DE102021106900A1 (en) | VEHICLE UNSAFETY REPLACEMENT | |
DE102021103774A1 (en) | VEHICLE SENSOR FUSION | |
DE102019130330A1 (en) | LIDAR SIGNAL PROCESSING DEVICE AND LIDAR DEVICE | |
DE102017219697A1 (en) | Object detection system for vehicles and object detection method for vehicles | |
DE112014002962B4 (en) | Interpretation of a measurement point recorded by an optical sensor | |
EP3759517B1 (en) | Method and device for estimating the height of a reflector of a vehicle | |
DE112019006516T5 (en) | Driver assistance device | |
CN112835029A (en) | Unmanned-vehicle-oriented multi-sensor obstacle detection data fusion method and system | |
DE102017214964B4 (en) | Method for determining an environment map in a motor vehicle and motor vehicle | |
DE102018218003A1 (en) | Process, computer program and measuring system for the evaluation of movement information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R082 | Change of representative |
Representative=s name: THUM, MOETSCH, WEICKERT PATENTANWAELTE PARTG M, DE Representative=s name: THUM & PARTNER THUM MOETSCH WEICKERT PATENTANW, DE |
|
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |