DE202022104107U1 - Device for detecting objects - Google Patents
Device for detecting objects Download PDFInfo
- Publication number
- DE202022104107U1 DE202022104107U1 DE202022104107.5U DE202022104107U DE202022104107U1 DE 202022104107 U1 DE202022104107 U1 DE 202022104107U1 DE 202022104107 U DE202022104107 U DE 202022104107U DE 202022104107 U1 DE202022104107 U1 DE 202022104107U1
- Authority
- DE
- Germany
- Prior art keywords
- measuring points
- evaluation unit
- control
- object segments
- radial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005259 measurement Methods 0.000 claims abstract description 58
- 230000033001 locomotion Effects 0.000 claims abstract description 44
- 238000011156 evaluation Methods 0.000 claims abstract description 38
- 238000012544 monitoring process Methods 0.000 claims abstract description 38
- 238000000034 method Methods 0.000 description 19
- 230000011218 segmentation Effects 0.000 description 15
- 238000001514 detection method Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 7
- 230000003068 static effect Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000005693 optoelectronics Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/32—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S17/34—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/50—Systems of measurement based on relative movement of target
- G01S17/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
Abstract
Vorrichtung (10, 90) zur Erfassung wenigstens eines eine Vielzahl von Objektsegmenten (22.1, 22.2, 22.3, 24.1, 24.2, 24.3, 96.1, ..., 96.5) umfassenden Objekts (22, 24, 96) in einem Überwachungsbereich (16, 100a, 100b) mit
- wenigstens einem FMCW-LIDAR-Sensor (12, 92a, 92b) zum Aussenden von Sendelichtstrahlen (14, ..., 14.n, 102.1, ..., 102.n) in den Überwachungsbereich (16, 100a, 100b), zum Abtasten einer Vielzahl von Messpunkten (20.1, ..., 20n, 104.1, ..., 104.n) und zum Erzeugen von Messdaten (18) aus von den Messpunkten (20.1, ..., 20n, 104.1, ..., 104.n) remittiertem oder reflektiertem Sendelicht, wobei die Messdaten (18) Radialgeschwindigkeiten (vr n) der Messpunkte (20.1, ..., 20n, 104.1, ..., 104.n) umfassen,
- einer Steuer- und Auswerteeinheit (32) zur Auswertung der Messdaten (18), wobei die Steuer- und Auswerteeinheit (32) dazu ausgebildet ist, die Messpunkte (20.1, ..., 20n, 104.1, ..., 104.n) zu segmentieren und zumindest teilweise den Objektsegmenten (22.1, 22.2, 22.3, 24.1, 24.2, 24.3, 96.1, ..., 96.5) zuzuordnen, dadurch gekennzeichnet, dass die Steuer- und Auswerteeinheit (32) weiterhin dazu ausgebildet ist, unter Verwendung der Radialgeschwindigkeiten (vr n) der den Objektsegmenten (22.1, 22.2, 22.3, 24.1, 24.2, 24.3, 96.1, ..., 96.5) zugeordneten Messpunkten ein Bewegungsmuster wenigstens eines der Objektsegmente (22.1, 22.2, 22.3, 24.1, 24.2, 24.3, 96.1, ..., 96.5) zu bestimmen.
Device (10, 90) for detecting at least one object (22, 24, 96) comprising a plurality of object segments (22.1, 22.2, 22.3, 24.1, 24.2, 24.3, 96.1, ..., 96.5) in a monitoring area (16, 100a, 100b) with
- at least one FMCW LIDAR sensor (12, 92a, 92b) for emitting transmitted light beams (14, ..., 14.n, 102.1, ..., 102.n) into the monitoring area (16, 100a, 100b) , for scanning a large number of measuring points (20.1, ..., 20n, 104.1, ..., 104.n) and for generating measurement data (18) from the measuring points (20.1, ..., 20n, 104.1, . .., 104.n) remitted or reflected transmitted light, the measurement data (18) comprising radial velocities (v r n ) of the measuring points (20.1, ..., 20n, 104.1, ..., 104.n),
- a control and evaluation unit (32) for evaluating the measurement data (18), the control and evaluation unit (32) being designed to determine the measuring points (20.1, ..., 20n, 104.1, ..., 104.n ) to segment and at least partially assign them to the object segments (22.1, 22.2, 22.3, 24.1, 24.2, 24.3, 96.1, ..., 96.5), characterized in that the control and evaluation unit (32) is further designed to use the radial velocities (v r n ) of the measuring points assigned to the object segments (22.1, 22.2, 22.3, 24.1, 24.2, 24.3, 96.1, ..., 96.5), a movement pattern of at least one of the object segments (22.1, 22.2, 22.3, 24.1, 24.2, 24.3, 96.1, ..., 96.5).
Description
Die Erfindung betrifft eine Vorrichtung zur Erfassung von Objekten nach dem Oberbegriff von Anspruch 1.The invention relates to a device for detecting objects according to the preamble of claim 1.
Zur Erfassung von Objekten werden häufig optoelektronische Sensoren wie Laserscanner oder 3D-Kameras eingesetzt, beispielweise für sicherheitstechnische Überwachungen. In der Sicherheitstechnik eingesetzte Sensoren müssen besonders zuverlässig arbeiten und deshalb hohe Sicherheitsanforderungen erfüllen, beispielsweise die Norm EN13849 für Maschinensicherheit und die Gerätenorm IEC61496 oder EN61496 für berührungslos wirkende Schutzeinrichtungen (BWS). Zur Erfüllung dieser Sicherheitsnormen sind eine Reihe von Maßnahmen zu treffen, wie sichere elektronische Auswertung durch redundante, diversitäre Elektronik, Funktionsüberwachung oder spezielle Überwachung der Verschmutzung optischer Bauteile.Optoelectronic sensors such as laser scanners or 3D cameras are often used to detect objects, for example for safety monitoring. Sensors used in safety technology must work particularly reliably and therefore meet high safety requirements, for example the EN13849 standard for machine safety and the device standard IEC61496 or EN61496 for non-contact protective devices (ESP). To meet these safety standards, a number of measures must be taken, such as secure electronic evaluation through redundant, diverse electronics, function monitoring or special monitoring of contamination of optical components.
In der
Aus der
Die
Die
Ein weiteres Anwendungsgebiet der Objekterfassung mittels optoelektronischer Sensoren ist die Verkehrsüberwachung, beispielsweise zur Überprüfung von Fahrzeugregularien, Berechnung von Mautabgaben, Verkehrsleitung oder statistischer Verkehrsüberwachung. Es ist bekannt, die Fahrzeuge im fließenden Straßenverkehr an sogenannten Messbrücken zu erfassen, die beispielsweise optische Sensoren wie Laserscanner oder Kameras aufweisen, um die Fahrzeugkontur aufzunehmen. In einer entsprechenden Bildauswertung können anschließend beispielsweise Anzahl und Position der Fahrzeugachsen bestimmt werden. Die
Die im Stand der Technik üblicherweise zur Objekterfassung verwendeten Bilderfassungssysteme, insbesondere Laserscanner und Kamerasysteme, weisen zudem Nachteile auf, auf die im Folgenden näher eingegangen werden soll.The image capture systems commonly used in the prior art for object capture, in particular laser scanners and camera systems, also have disadvantages, which will be discussed in more detail below.
Laserscanner oder LiDAR (Light Detection And Ranging) - Sensoren basieren meist auf einer direkten Lichtlaufzeitmessung. Hierbei wird ein Lichtpuls vom Sensor ausgesandt, an einem Objekt reflektiert und wieder vom Sensor detektiert. Die Laufzeit des Lichtpulses wird vom Sensor bestimmt und über die Lichtgeschwindigkeit im Propagationsmedium (in der Regel Luft) die Entfernung zwischen Sensor und Objekt geschätzt. Da die Phase der elektromagnetischen Welle hierbei nicht berücksichtigt wird, spricht man von einem inkohärenten Messprinzip. Bei einer inkohärenten Messung besteht die Notwendigkeit, Pulse aus vielen Photonen aufzubauen, um den reflektierten Puls mit ausreichendem Signal-Rausch-Verhältnis zu empfangen. Die Anzahl der Photonen innerhalb eines Pulses ist im industriellen Umfeld in der Regel durch den Augenschutz nach oben limitiert. In der Folge ergeben sich Abwägungen zwischen maximaler Reichweite, minimaler Remission des Objektes, Integrationszeit und den Anforderungen an das Signal-Rausch-Verhältnis des Sensorsystems. Inkohärente Strahlung bei gleicher Wellenlänge (Umgebungslicht) wirkt sich zudem direkt auf den dynamischen Bereich des Lichtempfängers aus. Beispiele für inkohärente Strahlung bei gleicher Wellenlänge sind die Sonne, ähnliche Sensorsysteme, oder das identische Sensorsystem über eine Mehrwegeausbreitung, also unerwünschte Reflexionen.Laser scanners or LiDAR (Light Detection And Ranging) sensors are usually based on direct light transit time measurement. A light pulse is emitted by the sensor, reflected on an object and detected again by the sensor. The transit time of the light pulse is determined by the sensor and the distance between the sensor and the object is estimated using the speed of light in the propagation medium (usually air). Since the phase of the electromagnetic wave is not taken into account, this is referred to as an incoherent measuring principle. In the case of an incoherent measurement, there is a need to build up pulses from many photons in order to receive the reflected pulse with a sufficient signal-to-noise ratio. In an industrial environment, the number of photons within a pulse is usually limited by eye protection. As a result, there are trade-offs between maximum range, minimum remission of the object, integration time and the requirements for the signal-to-noise ratio of the sensor system. Incoherent radiation at the same wavelength (ambient light) also has a direct effect on the dynamic range of the light receiver. Examples of incoherent radiation at the same wavelength are the sun, similar sensor systems, or the identical sensor system via multipath propagation, i.e. unwanted reflections.
Aus dem Stand der Technik bekannte Kamerasysteme basieren auf Messprinzipien wie beispielsweise der Stereoskopie oder der indirekten Lichtlaufzeitmessung. Bei der indirekten Lichtlaufzeitmessung wird die Phasendifferenz eines AMCW (Amplitude Modulated Continous Wave)-Sendesignals und dessen zeitlich verzögerter Kopie nach Reflektion mit einem Objekt bestimmt. Die Phasendifferenz entspricht der Lichtlaufzeit und kann über die Lichtgeschwindigkeit im Propagationsmedium in einen Distanzwert umgerechnet werden. Sowohl die Stereoskopie als auch die indirekte Lichtlaufzeitmessung sind ebenfalls inkohärente Messverfahren mit den oben genannten Nachteilen.Camera systems known from the prior art are based on measurement principles such as stereoscopy or indirect light transit time measurement. With indirect time-of-flight measurement, the phase difference of an AMCW (Amplitude Modulated Continuous Wave) transmission signal and its time-delayed copy are determined after reflection with an object. The phase difference corresponds to the transit time of light and can be converted into a distance value using the speed of light in the propagation medium. Both stereoscopy and indirect time-of-flight measurement are also incoherent measurement methods with the disadvantages mentioned above.
Millimeterwellenlängen Radarsensoren basieren auf einem frequenz-modulierten-Dauerstrich-Messprinzip (FMCW) und können unter Ausnutzung des Dopplereffekts auch Radialgeschwindigkeiten eines erfassten Objekts bestimmen. Der größte Nachteil von millimeterwellenlängen Radarsensoren im Vergleich zu optischen Technologien ist die deutlich größere Wellenlänge und die damit geringere räumliche Auflösung. Darüber hinaus beschränken regulatorische Bestimmungen die radiale Auflösung durch Beschränkung der Bandbreite und in einem MIMO (Multiple Input Multiple Output) - Radarsystem die Anzahl an verfügbaren virtuellen Antennen (Produkt aus der Anzahl der Sende- und Empfangsantennen) die Winkelauflösung.Millimeter wavelength radar sensors are based on a frequency-modulated continuous wave measurement principle (FMCW) and can also determine the radial velocities of a detected object using the Doppler effect. The biggest disadvantage of millimeter wavelength radar sensors compared to optical technologies is the significantly longer wavelength and therefore lower spatial resolution. In addition, regulatory regulations limit the radial resolution by limiting the bandwidth and, in a MIMO (Multiple Input Multiple Output) radar system, the number of available virtual antennas (product of the number of transmitting and receiving antennas) the angular resolution.
Es ist daher Aufgabe der Erfindung, eine Vorrichtung zur Erfassung von Objekten zu verbessern.It is therefore the object of the invention to improve a device for detecting objects.
Diese Aufgabe wird durch eine Vorrichtung nach Anspruch 1 gelöst.This object is achieved by a device according to claim 1.
Die erfindungsgemäße Vorrichtung zur Erfassung von Objekten in einem Überwachungsbereich weist wenigstens einen optoelektronischen Sensor auf, der als frequenz-modulierter-Dauerstrich (Frequency Modulated Continuous Wave, FMCW) - LiDAR-Sensor ausgebildet ist. Grundlagen der FMCW-LiDAR Technologie sind beispielsweise in der wissenschaftlichen Veröffentlichung „Linear FMCW Laser Radar for Precision Range and Vector Velocity Measurements“ (Pierrottet, D., Amzajerdian, F., Petway, L., Barnes, B., Lockard, G., & Rubio, M. (2008). Linear FMCW Laser Radar for Precision Range and Vector Velocity Measurements. MRS Proceedings, 1076, 1076-K04-06. doi:10.1557/PROC-1076-K04-06) oder der Doktorarbeit „Realization of Integrated Coherent LiDAR“ (T. Kim, University of California, Berkeley, 2019. https://escholarship.org/uc/item/1d67v62p) beschrieben.The device according to the invention for detecting objects in a surveillance area has at least one optoelectronic sensor, which is designed as a frequency modulated continuous wave (FMCW) LiDAR sensor. The basics of FMCW-LiDAR technology can be found, for example, in the scientific publication “Linear FMCW Laser Radar for Precision Range and Vector Velocity Measurements” (Pierrottet, D., Amzajerdian, F., Petway, L., Barnes, B., Lockard, G. , & Rubio, M. (2008). Linear FMCW Laser Radar for Precision Range and Vector Velocity Measurements. MRS Proceedings, 1076, 1076-K04-06. doi:10.1557/PROC-1076-K04-06) or the doctoral thesis “Realization of Integrated Coherent LiDAR” (T. Kim, University of California, Berkeley, 2019. https://escholarship.org/uc/item/1d67v62p).
Im Gegensatz zu einem auf Lichtlaufzeitmessung von Laserpulsen basierenden LiDAR-Sensor sendet ein FMCW-LiDAR-Sensor keine gepulsten, sondern kontinuierliche Sendelichtstrahlen in den Überwachungsbereich aus, die während einer Messung, also einer zeitdiskreten Abtastung eines Messpunktes im Überwachungsbereich, eine vorgegebene Frequenzmodulation, das heißt eine zeitliche Änderung der Wellenlänge des Sendelichts, aufweisen. Die Messfrequenz liegt dabei typischerweise im Bereich von 10 bis 30 Hz. Die Frequenzmodulation kann beispielsweise als periodische Auf- und Abwärtsmodulation ausgebildet sein. Von Messpunkten im Überwachungsbereich reflektiertes Sendelicht weist im Vergleich zum ausgestrahlten Sendelicht einen Zeitversatz entsprechend der Lichtlaufzeit auf, die von der Entfernung des Messpunktes vom Sensor abhängt und aufgrund der Frequenzmodulation mit einer Frequenzverschiebung einhergeht. Im FMCW-LiDAR-Sensor werden ausgestrahltes und reflektiertes Sendelicht kohärent überlagert, wobei aus dem Überlagerungssignal die Entfernung des Messpunktes vom Sensor bestimmt werden kann. Das Messprinzip der kohärenten Überlagerung hat im Vergleich zu gepulsten oder amplitudenmodulierten inkohärenten LiDAR-Messprinzipien unter anderem den Vorteil einer erhöhten Immunität bezüglich Fremdlicht von beispielsweise anderen optischen Sensoren/Sensorsystemen oder der Sonne. Gegenüber Radarsensoren mit Wellenlängen im Bereich von Millimetern verbessert sich die Ortsauflösung, wodurch geometrische Eigenschaften eines Objekts messbar werden.In contrast to a LiDAR sensor based on the time-of-flight measurement of laser pulses, an FMCW LiDAR sensor does not emit pulsed, but continuous light beams into the monitoring area, which during a measurement, i.e. a discrete-time scanning of a measuring point in the monitoring area, produce a predetermined frequency modulation, i.e a temporal change in the wavelength of the transmitted light. The measurement frequency is typically in the range from 10 to 30 Hz. The frequency modulation can, for example, be designed as periodic up and down modulation. Transmitted light reflected from measuring points in the monitoring area has a time offset compared to the emitted transmitted light corresponding to the light transit time, which depends on the distance of the measuring point from the sensor and is accompanied by a frequency shift due to the frequency modulation. In the FMCW LiDAR sensor, emitted and reflected light is coherently superimposed, whereby the distance of the measuring point from the sensor can be determined from the superimposed signal. Compared to pulsed or amplitude-modulated incoherent LiDAR measuring principles, the measuring principle of coherent overlay has, among other things, the advantage of increased immunity to extraneous light from, for example, other optical sensors/sensor systems or the sun. Compared to radar sensors with wavelengths in the millimeter range, the spatial resolution is improved, making the geometric properties of an object measurable.
Bewegt sich ein Messpunkt mit einer Radialgeschwindigkeit auf den Sensor zu oder vom Sensor weg, weist das reflektierte Sendelicht zusätzlich eine Dopplerverschiebung auf. Diese Veränderung der Sendelichtfrequenz kann ein FMCW-LiDAR-Sensor bestimmen und daraus die Entfernung und die Radialgeschwindigkeit eines Messpunkts in einer einzigen Messung, also einer einmaligen Abtastung eines Messpunktes, bestimmen, während bei einem auf Lichtlaufzeitmessung von Laserpulsen basierenden LiDAR-Sensor für eine Bestimmung der Radialgeschwindigkeit wenigstens zwei Messungen, also zwei zeitlich beabstandete Abtastungen des gleichen Messpunktes, nötig sind.If a measuring point moves towards or away from the sensor at a radial speed, the reflected transmitted light also has a Doppler shift. An FMCW LiDAR sensor can determine this change in the transmitted light frequency and use it to determine the distance and the radial speed of a measuring point in a single measurement, i.e. a one-time scanning of a measuring point, while a LiDAR sensor based on the time-of-flight measurement of laser pulses can determine the Radial velocity at least two measurements, i.e. two time-spaced scans of the same measuring point, are necessary.
Bei zeit- und raumdiskreter Abtastung eines dreidimensionalen Überwachungsbereichs kann ein FMCW-LiDAR-Sensor folgende Messdaten erfassen:
Hierbei bezeichnen rj,k,l den Radialabstand, vr j,k,l die Radialgeschwindigkeit und Ij,k,l die Intensität jedes raumdiskreten Messpunktes j, k mit zweidimensionaler, durch Azimutwinkel φ und Polarwinkel θ angegebener Position (φj, θk) für jede zeitdiskrete Abtastung I. Zur einfachen Lesbarkeit wird im Folgenden der Index n für eine einmalige zeitdiskrete Abtastung eines raumdiskreten, zweidimensionalen Messpunkts (φj, θk) im dreidimensionalen Überwachungsbereich verwendet.Here r j,k,l denote the radial distance, v r j,k,l the radial velocity and I j,k,l the intensity of each spatially discrete measuring point j, k with a two-dimensional position specified by the azimuth angle φ and polar angle θ (φ j , θ k ) for each discrete-time sampling I. For ease of reading, the index n is used below for a one-time discrete-time sampling of a spatially discrete, two-dimensional measuring point (φ j, θ k ) in the three-dimensional monitoring area.
Zur Auswertung der vom FMCW-LiDAR-Sensor erfassten Messdaten weist die erfindungsgemäße Vorrichtung eine Steuer- und Auswerteeinheit auf, die dazu ausgebildet ist, die Messpunkte zu segmentieren und wenigstens einem Objekt und wenigstens einem dem Objekt zugehörigen Objektsegment zuzuordnen. Als Objektsegmente sind dabei beispielsweise einzelne Teile eines mehrere Teile umfassenden Objektes zu verstehen, beispielsweise Rumpf und Gliedmaßen eines menschlichen Körpers, Komponenten eines Roboterarms oder Räder eines Fahrzeugs.To evaluate the measurement data recorded by the FMCW LiDAR sensor, the device according to the invention has a control and evaluation unit which is designed to segment the measurement points and assign them to at least one object and at least one object segment associated with the object. Object segments are, for example, individual parts of an object comprising several parts, for example the torso and limbs of a human body, components of a robot arm or wheels of a vehicle.
Die Steuer- und Auswerteeinheit ist weiterhin dazu ausgebildet, unter Verwendung von ortsaufgelösten Radialgeschwindigkeiten von wenigstens einem ersten Objektsegment zugeordneten Messpunkten ein Bewegungsmuster des ersten Objektsegments zu bestimmen. Als Bewegungsmuster ist eine charakteristische Eigenbewegung des Objektsegments, beispielsweise eine Rotation oder eine Relativbewegung des Objektsegments zum Objekt selbst oder zu einem weiteren Objektsegment, zu verstehen, welche sich durch ein Radialgeschwindigkeitsprofil der dem Objektsegment zugeordneten Messpunkte ergibt. Eine entsprechende charakteristische Eigenbewegung beziehungsweise charakteristisches Radialgeschwindigkeitsprofil kann beispielsweise als vorbestimmtes Bewegungsmuster in der Steuer- und Auswerteeinheit gespeichert, in einem Einlernvorgang erfasst oder während des Betriebs der Vorrichtung mittels Methoden des maschinellen Lernens oder künstlicher Intelligenz bestimmt werden.The control and evaluation unit is further designed to determine a movement pattern of the first object segment using spatially resolved radial velocities of measuring points assigned to at least a first object segment. A movement pattern is to be understood as a characteristic movement of the object segment, for example a rotation or a relative movement of the object segment to the object itself or to another object segment, which results from a radial velocity profile of the measuring points assigned to the object segment. A corresponding characteristic self-motion or characteristic radial velocity profile can, for example, be stored as a predetermined movement pattern in the control and evaluation unit, recorded in a teaching process or determined during operation of the device using methods of machine learning or artificial intelligence.
Die Verwendung der ortsaufgelösten Radialgeschwindigkeiten zur Bestimmung eines Bewegungsmusters der einem ersten Objektsegment zugeordneten Messpunkte hat den Vorteil, dass sich das Bewegungsmuster des Objektsegments schnell und zuverlässig bestimmen lässt.The use of the spatially resolved radial velocities to determine a movement pattern of the measuring points assigned to a first object segment has the advantage that the movement pattern of the object segment can be determined quickly and reliably.
Die Bestimmung eines Bewegungsmusters eines Objektsegments, insbesondere die Bestimmung einer Relativbewegung zwischen verschieden Objektsegmenten oder von Objektsegmenten zum Objekt selbst kann beispielsweise bei einem Roboter dazu verwendet werden, zukünftige Roboterposen zu bestimmen.The determination of a movement pattern of an object segment, in particular the determination of a relative movement between different object segments or from object segments to the object itself, can be used, for example, in a robot to determine future robot poses.
Im Rahmen der Verkehrsüberwachung kann beispielsweise anhand des Bewegungsmusters von Rädern eines Fahrzeugs erkannt werden, ob sich die Räder des Fahrzeugs drehen oder nicht. Somit kann beispielsweise eine Achserkennung verbessert werden, da sich die Räder einer angehobenen Achse nicht beziehungsweise nicht mit derselben Geschwindigkeit drehen wie Räder, die Fahrbahnkontakt haben.As part of traffic monitoring, for example, the movement pattern of a vehicle's wheels can be used to determine whether the vehicle's wheels are turning or not. For example, axle detection can be improved because the wheels of a raised axle do not rotate or do not rotate at the same speed as wheels that are in contact with the road.
Das Segmentieren und Zuordnen der Messpunkte zu wenigstens einem Objekt und/oder wenigstens einem dem Objekt zugehörigen Objektsegment kann bevorzugt unter Verwendung der ortsaufgelösten Radialgeschwindigkeit der Messpunkte erfolgen. Durch die Verwendung der ortsaufgelösten Radialgeschwindigkeit als zusätzlichem Parameter ist eine verbesserte Segmentierung der Messdaten möglich.The segmentation and assignment of the measuring points to at least one object and/or at least one object segment associated with the object can preferably be carried out using the spatially resolved radial velocity of the measuring points. By using the spatially resolved radial velocity as an additional parameter, improved segmentation of the measurement data is possible.
Die Steuer- und Auswerteeinheit kann weiterhin dazu ausgebildet sein, Radialgeschwindigkeiten des wenigstens einen Objekts und/oder des wenigstens einem dem Objekt zugehörigen Objektsegments zu bestimmen und Merkmale des Objekts und/oder des Objektsegments zu extrahieren, die auf den Radialgeschwindigkeiten des Objekts oder des Objektsegments basieren. Bei den extrahierten Merkmalen kann es sich beispielsweise um statistische Maße wie Mittelwert oder Standardabweichung, um höhere Momente, oder Histogramme der Radialgeschwindigkeiten des Objekt und/oder Objektsegments handeln, die charakteristisch für eine Objekt- und/oder Objektsegmentbewegung sein können.The control and evaluation unit can further be designed to determine radial velocities of the at least one object and/or the at least one object segment associated with the object and to extract features of the object and/or the object segment that are based on the radial velocities of the object or the object segment . The extracted features can be, for example, statistical measures such as mean or standard deviation, higher moments, or histograms of the radial velocities of the object and/or object segment, which can be characteristic of an object and/or object segment movement.
Vorteilhafterweise kann die Steuer- und Auswerteeinheit dazu ausgebildet sein, die auf den Radialgeschwindigkeiten des Objekts und/oder des Objektsegments basierenden Merkmale zu einer Klassifizierung des Objekts und/oder des Objektsegments zu verwenden. Durch diese zusätzlichen Merkmale ist eine verbesserte Klassifizierung des Objekts und/oder des Objektsegments möglich.Advantageously, the control and evaluation unit can be designed to use the features based on the radial velocities of the object and/or the object segment to classify the object and/or the object segment. These additional features enable an improved classification of the object and/or the object segment.
In einer Ausführungsform kann die Steuer- und Auswerteeinheit dazu ausgebildet sein, die Messdaten unter Verwendung der Radialgeschwindigkeiten der Messpunkte zu filtern. Somit kann bereits vor einer Segmentierung der Messpunkte der Rechenaufwand durch Datenreduktion vermindert werden. Eine Filterung kann beispielsweise dadurch erfolgen, dass Messpunkte mit einer Radialgeschwindigkeit kleiner, größer oder gleich einem vorgegebenen Schwellenwert verworfen und keiner weiteren Auswertung zugeführt werden. Beispielsweise können im Falle einer Antikollisionsfunktion Objekte und/oder Objektsegmente, die sich mit dem Sensor bewegen (vr = 0) oder sich vom Sensor entfernen (vr > 0), verworfen werden.In one embodiment, the control and evaluation unit can be designed to filter the measurement data using the radial velocities of the measurement points. Thus can The computing effort can be reduced through data reduction even before the measuring points are segmented. Filtering can be carried out, for example, by discarding measuring points with a radial velocity smaller, larger or equal to a predetermined threshold value and not subjected to any further evaluation. For example, in the case of an anti-collision function, objects and/or object segments that move with the sensor (v r = 0) or move away from the sensor (v r > 0) can be discarded.
Der FMCW-LiDAR-Sensor kann stationär angeordnet sein und einen vorgegebenen Überwachungsbereich abtasten. Vorzugsweise kann wenigstens ein weiterer FMCW-LiDAR-Sensor vorgesehen sein, der einen weiteren Überwachungsbereich abtastet, wobei sich die Überwachungsbereiche überlappen können. Dadurch können Abschattungen oder tote Winkel, in denen keine Objekterfassung möglich ist, vermieden werden. Werden zwei oder mehrere FMCW-LiDAR Sensoren so zueinander angeordnet, dass orthogonal zueinander stehende Messtrahlen erzeugt werden können, kann durch Verrechnung dieser Messstrahlenpaare ein Geschwindigkeitsvektor eines durch diese Messstrahlen abgetasteten Objekts in der durch die orthogonal zueinander stehenden Messtrahlen aufgespannten Ebene bestimmt werden.The FMCW LiDAR sensor can be arranged stationary and scan a predetermined monitoring area. Preferably, at least one further FMCW LiDAR sensor can be provided, which scans a further monitoring area, whereby the monitoring areas can overlap. This makes it possible to avoid shadows or blind spots in which object detection is not possible. If two or more FMCW LiDAR sensors are arranged relative to one another in such a way that measurement beams that are orthogonal to one another can be generated, a velocity vector of an object scanned by these measurement beams can be determined by calculating these pairs of measurement beams in the plane spanned by the measurement beams that are orthogonal to one another.
Der FMCW-LiDAR-Sensor kann an einer Maschine angeordnet sein, insbesondere an einem führerlosen Fahrzeug (automated guided vehicle, AGV) oder an einem Roboter. Der Roboter kann sich als Ganzes in Bewegung befinden (mobile robot) oder Bewegungen mittels verschiedener Achsen und Gelenke durchführen. Der Sensor kann dann Bewegungen der Maschine mit vollführen und einen veränderlichen Überwachungsbereich abtasten.The FMCW LiDAR sensor can be arranged on a machine, in particular on an automated guided vehicle (AGV) or on a robot. The robot can be in motion as a whole (mobile robot) or can carry out movements using different axes and joints. The sensor can then follow the machine's movements and scan a changing monitoring area.
Der Sensor kann als Sicherheitssensor im Sinne der einleitend genannten oder vergleichbarer Normen ausgelegt sein. Die Steuer- und Auswertungseinheit kann in den Sensor integriert oder daran angeschlossen sein, etwa in Form einer Sicherheitssteuerung oder einer übergeordneten Steuerung, die auch mit der Maschinensteuerung kommuniziert. Zumindest Teile der Funktionalität können auch in einem Remote-System oder einer Cloud implementiert sein.The sensor can be designed as a safety sensor in the sense of the standards mentioned in the introduction or comparable standards. The control and evaluation unit can be integrated into the sensor or connected to it, for example in the form of a safety controller or a higher-level controller that also communicates with the machine controller. At least parts of the functionality can also be implemented in a remote system or a cloud.
Der Sensor kann vorzugsweise an oder in der Nähe von einem gefahrbringenden Maschinenteil angebracht, wie etwa einer Werkzeugspitze. Wenn es sich beispielsweise um einen Roboter mit vielen Achsen handelt, ist für den Sensor deren Zusammenspiel nicht relevant, da der Sensor einfach die resultierende Bewegung am Ort der Gefahr nachvollzieht.The sensor can preferably be attached to or near a dangerous machine part, such as a tool tip. For example, if it is a robot with many axes, their interaction is not relevant to the sensor, as the sensor simply tracks the resulting movement at the location of the danger.
In einer Weiterbildung der Erfindung können mehrere optoelektronische Sensoren an der Maschine angebracht sein, um die Bewegung von beweglichen Teilen der Maschine zu bestimmen. Damit lassen sich auch komplexe Maschinen überwachen, bei denen eine punktuelle Bestimmung der Bewegung nicht ausreicht. Ein Beispiel ist ein Roboter mit mehreren Roboterarmen und eventuell Gelenken. Mindestens ein stationärer, also nicht mit der Maschine mitbewegter optoelektronischer Sensor, kann die Maschine zusätzlich beobachten.In a further development of the invention, several optoelectronic sensors can be attached to the machine in order to determine the movement of moving parts of the machine. This means that even complex machines can be monitored where a specific determination of movement is not sufficient. An example is a robot with multiple robotic arms and possibly joints. At least one stationary optoelectronic sensor, i.e. one that does not move with the machine, can also monitor the machine.
In einer weiteren Ausführungsform der Erfindung kann die Vorrichtung zur Überwachung einer Fahrbahn eingerichtet sein. Die Vorrichtung kann dabei einen oder mehrere FMCW-LiDAR-Sensoren aufweisen, die so über und/oder neben einer zu überwachenden Fahrspur einer Fahrbahn angeordnet sind, dass eine oder beide Seiten eines Fahrzeugs erfasst werden können, wenn das Fahrzeug den oder die FMCW-LiDAR-Sensoren passiert. Die Steuer- und Auswerteinrichtung kann insbesondere dazu eingerichtet sein, eine Geschwindigkeit des Fahrzeuges und/oder ein Bewegungsmuster, insbesondere eine Rotation von Rädern des Fahrzeugs zu bestimmen.In a further embodiment of the invention, the device can be set up to monitor a roadway. The device can have one or more FMCW LiDAR sensors, which are arranged above and/or next to a lane of a roadway to be monitored so that one or both sides of a vehicle can be detected when the vehicle uses the FMCW LiDAR -Sensors happened. The control and evaluation device can in particular be set up to determine a speed of the vehicle and/or a movement pattern, in particular a rotation of the vehicle's wheels.
Die Erfindung wird nachstehend auch hinsichtlich weiterer Merkmale und Vorteile beispielhaft anhand von Ausführungsformen und unter Bezug auf die beigefügte Zeichnung näher erläutert. Die Abbildungen der Zeichnung zeigen in:
-
1 ein Beispiel für eine Radialgeschwindigkeitsmessung mit einem FMCW-LiDAR-Sensor; -
2 eine schematische Darstellung einer erfindungsgemäßen Vorrichtung zur Überwachung eines Roboters; -
3 eine schematische Darstellung einer erfindungsgemäßen Vorrichtung zur Verkehrsüberwachung; -
4 ein Ablaufdiagram für eine beispielhafte erfindungsgemäße Verarbeitung von Messdaten eines FMCW-LiDAR-Sensors; -
5 ein beispielhaftes Ablaufdiagramm zur Überwachung einer Bewegung eines Roboters;
-
1 an example of a radial velocity measurement with an FMCW LiDAR sensor; -
2 a schematic representation of a device according to the invention for monitoring a robot; -
3 a schematic representation of a traffic monitoring device according to the invention; -
4 a flowchart for an exemplary processing according to the invention of measurement data from an FMCW LiDAR sensor; -
5 an exemplary flowchart for monitoring movement of a robot;
In
Im Falle eines statischen FMCW-LiDAR-Sensors ist jeder Messpunkt mit einer Radialgeschwindigkeit von Null in der Regel einem statischen Objekt zugeordnet, sofern sich dieses nicht tangential zum Messstrahl des Sensors bewegt. Aufgrund der endlichen Objektausdehnung und der hohen räumlichen Auflösung des FMCW-LiDAR-Sensors wird praktisch jedes bewegte Objekt wenigstens einen Messpunkt 20 mit einer von Null verschiedenen Radialgeschwindigkeit vr n zum FMCW-LiDAR-Sensor 12 aufweisen. Daher lassen sich bereits mit einer Messung des FMCW-LiDAR-Sensors 12 statische und bewegte, beziehungsweise in mobilen Applikationen sich entfernende oder nähernde Objekte unterscheiden. So können beispielsweise bei einer Antikollisionsüberwachung sich entfernende Messpunkte respektive sich entfernende Objekte verworfen werden. Durch eine entsprechende Datenreduktion werden Rechenaufwände bei der weiteren Auswertung der Messdaten reduziert.In the case of a static FMCW LiDAR sensor, each measuring point with a radial velocity of zero is usually assigned to a static object, as long as it does not move tangentially to the sensor's measuring beam. Due to the finite object extent and the high spatial resolution of the FMCW LiDAR sensor, practically every moving object will have at least one
Die von der Steuer- und Auswerteeinheit 32 empfangenen Messdaten Mn 18 des FMCW-LiDAR-Sensors 12 umfassen für jede zeitdiskrete Abtastung neben den Radialabständen rn und den Intensitäten In, also der remittierten oder reflektierten Sendelichtmenge, insbesondere die Radialgeschwindigkeiten vr n der Messpunkte 20.1, ..., 20.n, wobei mit Radialgeschwindigkeit vr n die Geschwindigkeitskomponente eines Messpunkts 20.1, ..., 20.n bezeichnet wird, mit der sich der Messpunkt 20.1, ..., 20.n auf den FMCW-LiDAR-Sensor 12 zu oder vom FMCW-LiDAR-Sensor 12 weg bewegt. The
Die Messdaten Mn 18 werden von einer Steuer- und Auswerteeinheit 32 ausgewertet, wobei die Steuer- und Auswerteeinheit 32 dazu eingerichtet ist, unter Verwendung der Radialgeschwindigkeiten vr n der Messpunkte 20.1, ..., 20.n Bewegungsmuster der Objektsegmente 22.1, 22.2, 22.3, 24.1, 24.2, 24.3 zu erfassen, beispielsweise eine Schwenkbewegung 26 des Roboterarms 24.3. Basierend auf der Erfassung kann die Steuer- und Auswerteeinheit 32 ein sicherheitsgerichtetes Signal zum Auslösen einer sicherheitsgerichteten Aktion erzeugen. Bei der sicherheitsgerichteten Aktion kann es sich beispielsweise um die Aktivierung einer Warnleuchte 34 oder das Stoppen des Roboters 24 handeln. Im Ausführungsbeispiel ist die Steuer- und Auswerteeinheit 32 direkt mit der Warnleuchte 34 und dem Roboter 24 verbunden, löst also die sicherheitsgerichtete Aktion selbst aus. Alternativ kann die Steuer- und Auswerteeinheit 32 ein sicherheitsgerichtetes Signal über eine Schnittstelle 36 an eine übergeordnete Sicherheitssteuerung (nicht gezeigt) weitergeben, oder die Steuer- und Auswerteeinheit 32 kann selbst Teil einer Sicherheitssteuerung sein.The
Die FMCW-LiDAR-Sensoren 92a, 92b senden Sendelichtstrahlen 102.1, ..., 102.n in die dreidimensionalen Überwachungsbereiche 100a, 100b der Sensoren 92a, 92b aus und erzeugen Messdaten aus von Messpunkten 104.1, ..., 104.n in den Überwachungsbereichen 100a, 100b zurück zu den Sensoren 92a, 92b reflektiertem oder remittiertem Sendelicht. Die Messdaten werden von einer Steuer- und Auswerteeinheit (nicht gezeigt) ausgewertet.The
Messpunkte 104.1, 104.2 auf statischen Objektsegmenten des Fahrzeugs 96, beispielsweise der Fahrzeugseite 96.1, weisen in den Messdaten Radialgeschwindigkeiten auf, die sich von der Geschwindigkeit des Fahrzeugs in Bewegungsrichtung wie in
Eine Betrachtung der in b) dargestellten Seitenansicht des Fahrzeugs 96 verdeutlicht dies. Ein Messpunkt 104.4 am höchsten Punkt des Rades 96.4 mit Fahrbahnkontakt weist zusätzlich zur Bewegungsgeschwindigkeit v0 des Fahrzeugs eine Rotationskomponente vr auf, wodurch sich eine Gesamtgeschwindigkeit von v0 + vr ergibt. Am Messpunkt 104.5, an dem das Rad 96.4 die Fahrbahn 98 berührt, heben sich aufgrund der Rotationsrichtung die Rotationsgeschwindigkeit vr und die Bewegungsgeschwindigkeit v0 des Fahrzeugs auf. Mithin wird die Radialgeschwindigkeit dieses Messpunktes 104.5 am rotierenden Rad 96.4 vom Sensor mit 0 bemessen. Damit ergibt sich für ein rotierendes Rad ein charakteristisches Bewegungsmuster beziehungsweise Radialgeschwindigkeitsprofil, welches aus den gemessenen Radialgeschwindigkeiten bestimmt werden kann.A look at the side view of the
Ein Rad 96.5 an einer angehobenen Achse wird in der Regel nicht rotieren und weist daher an allen Messpunkten 104.3, 104.n dieselbe Geschwindigkeit v0 auf, die der Bewegungsgeschwindigkeit v0 des Fahrzeugs 96 entspricht.A wheel 96.5 on a raised axle will generally not rotate and therefore has the same speed v 0 at all measuring points 104.3, 104.n, which corresponds to the movement speed v 0 of the
Somit lassen sich am Fahrzeug rotierende Räder beziehungsweise Achsen zuverlässig detektieren, womit eine verbesserte Achsenzählung ermöglicht wird.This means that rotating wheels or axles on the vehicle can be reliably detected, which enables improved axle counting.
Die Segmentierung 46 kann nach bekannten Verfahren der digitalen Bildverarbeitung beziehungswiese des maschinellen Sehens erfolgen, wie beispielsweise
- - Pixelorientierte Verfahren im Grauwertbild mittels Schwellenwert-Verfahren,
- - Kantenorientierte Verfahren wie dem Sobel- oder Laplace-Operator und einer Gradientensuche,
- - Regionenorientierte Verfahren wie „Region-Growing“, „Region-Splitting“, „Pyramid Linking“ oder „Split and Merge“,
- - Modellbasierte Verfahren wie bspw. die Hough-Transformation, oder
- - Texturorientierte Verfahren.
- - Pixel-oriented methods in the gray value image using threshold value methods,
- - Edge-oriented methods such as the Sobel or Laplace operator and a gradient search,
- - Region-oriented methods such as “region growing”, “region splitting”, “pyramid linking” or “split and merge”,
- - Model-based methods such as the Hough transformation, or
- - Texture-oriented methods.
Weiterhin sind unter dem Begriff „Range segmentation“ spezielle Verfahren zur Segmentierung von dreidimensionalen Datensätzen bekannt. Die „Range segmentation“ ist beispielsweise in den folgenden wissenschaftlichen Veröffentlichungen beschrieben:
- - „Fast Range Image-Based Segmentation of Sparse 3D Laser Scans for Online Operation“ (Bogoslavskyi et al., 2016 IEEE/RSJ International Conference on Intelligent Robots and Systems, DOI: 10.1109/IROS.2016.7759050)
- - „Laser-based segment classification using a mixture of bag-of-words“. (Behley et al., 2013 IEEE/RSJ International Conference on Intelligent Robots and Systems, DOI: 10.1109/IROS.2013.6696957)
- - „On the segmentation of 3d lidar point clouds“ (Douillard et al., 2011 IEEE International Conference on Robotics and Automation, DOI: 10.1109/ICRA.2011.5979818)
- - “Fast Range Image-Based Segmentation of Sparse 3D Laser Scans for Online Operation” (Bogoslavskyi et al., 2016 IEEE/RSJ International Conference on Intelligent Robots and Systems, DOI: 10.1109/IROS.2016.7759050)
- - “Laser-based segment classification using a mixture of bag-of-words”. (Behley et al., 2013 IEEE/RSJ International Conference on Intelligent Robots and Systems, DOI: 10.1109/IROS.2013.6696957)
- - “On the segmentation of 3d lidar point clouds” (Douillard et al., 2011 IEEE International Conference on Robotics and Automation, DOI: 10.1109/ICRA.2011.5979818)
Durch die Verwendung der Radialgeschwindigkeit vr n zusätzlich zum Radialabstand rn und der Intensität 1" der Messpunkte 20.1, ..., 20.n, 104.1, ..., 104.n kann die Segmentierung 46 der Messpunkte 20.1, ..., 20.n, 104.1, ..., 104.n mit den oben aufgeführten Verfahren effizienter und genauer erfolgen. Beispielsweise können Messpunkte 20.1, ..., 20.n, 104.1, ..., 104.n mit Radialgeschwindigkeiten vr n kleiner, größer oder gleich einem vorgegebenen Schwellenwert verworfen und keiner weiteren Auswertung zugeführt werden. Im Falle einer Antikollisionsfunktion können beispielsweise Messpunkte eines Objekts und/oder Objektsegments, die sich mit dem Sensor bewegen (vr = 0) oder sich vom Sensor entfernen (vr > 0), verworfen werden. By using the radial velocity v r n in addition to the radial distance r n and the intensity 1" of the measuring points 20.1, ..., 20.n, 104.1, ..., 104.n, the
Wird ein Objekt und/oder Objektsegment durch mehrere raumdiskrete Messpunkte abgetastet und sind die dazugehörigen Radialgeschwindigkeiten unterscheidbar, können statische und dynamische Objekte und/oder Objektsegmente unterschieden werden und so stationäre Objekte und/oder Objektsegmente wie Böden 30, Fahrbahn 98 oder Wände bereits vor beziehungsweise während der Segmentierung 46 der Messpunkte 20.1, ..., 20.n, 104.1, ..., 104.n verworfen und der Rechenaufwand durch Datenreduktion vermindert werden.If an object and/or object segment is scanned through several spatially discrete measuring points and the associated radial velocities can be distinguished, static and dynamic objects and/or object segments can be distinguished and stationary objects and/or object segments such as
Im nächsten Schritt erfolgt eine Merkmalsextraktion 48 der während der Segmentierung 46 definierten Objekte 22, 24, 30, 96 und/oder Objektsegmente 22.1, 22.2, 22.3, 24.1, 24.2, 24.3., 96.1, ..., 96.5. Typische Merkmale, die bei der Verarbeitung der Messdaten aus den Objekten 22, 24, 30, 96 und/oder Objektsegmenten 22.1, 22.2, 22.3, 24.1, 24.2, 24.3, 96.1, ..., 96.5 extrahiert werden können, sind beispielsweise Breite, Anzahl der Messpunkte oder Länge des Umfangs der Objekte und/oder Objektsegmente, oder weitere Merkmale, wie sie beispielsweise in der wissenschaftlichen Veröffentlichung „A Layered Approach to People Detection in 3D Range Data“ (Spinello et al., Proceedings of the Twenty-Fourth AAAI Conference on Artificial Intelligence, AAAI 2010) beschrieben sind. Erfindungsgemäß können diese Merkmale um Merkmale, die auf den Radialgeschwindigkeiten der Objekte 22, 24, 30, 96 und/oder Objektsegmente 22.1, 22.2, 22.3, 24.1, 24.2, 24.3, 96.1, ..., 96.5 basieren, erweitert werden. Dazu werden zunächst Radialgeschwindigkeiten der Objekte und/oder Objektsegmente bestimmt, beispielsweise durch Anwendung trigonometrischer Funktionen auf die Radialgeschwindigkeiten der das jeweilige Objekt und/oder Objektsegment repräsentierenden Messpunkte. Als zusätzliche Objekt- und/oder Objektsegmentmerkmale können dann beispielsweise statistische Maße der Radialgeschwindigkeiten der Objekte und/oder Objektsegmente wie Mittelwert, Standardabweichung, höhere Momente oder Histogramme, welche charakteristisch für eine Roboter- und/oder Personenbewegungen sind, verwendet werden.In the next step, a
Nach der Merkmalsextraktion 48 erfolgt eine Klassifizierung 50 der Objekte 22, 24, 96 und/oder Objektsegmente 22.1, 22.2, 22.3, 24.1, 24.2, 24.3, 96.1, ..., 96.5 mit bekannten Klassifizierungsverfahren wie beispielsweise Bayes-Klassifikatoren, Support Vector Machines oder künstlichen neuronalen Netzen. Im Rahmen der Klassifizierung wird der Merkmalsraum nach Gruppen von Merkmalen durchsucht, die ein Objekt definieren. Hierbei können die oben aufgeführten statistischen Maße der Radialgeschwindigkeit einzelner Objekte 22, 24, 30, 96 und/oder Objektsegmente 22.1, 22.2, 22.3, 24.1, 24.2, 24.3 96.1, ..., 96.5 in Kombination mit a priori Informationen verwendet werden, um Merkmalsräume zu definieren, die beispielsweise Personen 22 oder Fahrzeuge 96 aufgrund ihrer Radialgeschwindigkeit klassifizieren und somit unterscheiden können.After the
In einem weiteren Schritt 52 erfolgt nun die Bestimmung eines Bewegungsmusters wenigstens eines der Objektsegmente 22.1, 22.2, 22.3, 24.1, 24.2, 24.3 96.1, ..., 96.5 unter Verwendung der Radialgeschwindigkeiten der dem wenigstens einem Objektsegment zugeordneten Messpunkte 20.1, ..., 20.n, 104.1, ..., 104.n.In a
Das Ergebnis der Bestimmung des Bewegungsmusters 52 kann nach der Ausgabe 54 von der Steuer -und Auswerteeinheit 32 weiterverarbeitet werden, beispielsweise zur Erzeugung eines sicherheitsgerichteten Signals, zur Zustandserkennung eines Objektssegments (Rad rotiert oder nicht) oder über die Schnittstelle 36 an eine übergeordnete Steuerung (nicht gezeigt) weitergegeben werden.The result of the determination of the
Auf Basis der gemessenen Radialgeschwindigkeiten der den zuvor klassifizierten Segmenten 24.1, 24.2, 24.3 zugeordneten Messpunkte erfolgt eine Erkennung eines Bewegungsmusters 58. Im Gegensatz zur typischen Bestimmung eines „Rigid Scene Flow“ auf Basis von 3D Positionsdaten wie beispielsweise in
- • Dewan, Ayush, et al. „Rigid scene flow for 3d lidar scans.“ 2016 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). IEEE, 2016. oder
- • Liu, Xingyu, Charles R. Qi, and Leonidas J. Guibas. „Flownet3d: Learning scene flow in 3d point clouds.“ Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2019.
- • Dewan, Ayush, et al. “Rigid scene flow for 3d lidar scans.” 2016 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). IEEE, 2016. or
- • Liu, Xingyu, Charles R. Qi, and Leonidas J. Guibas. “Flownet3d: Learning scene flow in 3d point clouds.” Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2019.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 102007007576 A1 [0003]DE 102007007576 A1 [0003]
- DE 19843602 A1 [0004]DE 19843602 A1 [0004]
- US 9804576 B2 [0005]US 9804576 B2 [0005]
- DE 102006048163 B4 [0006]DE 102006048163 B4 [0006]
- EP 3183721 B1 [0007]EP 3183721 B1 [0007]
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202022104107.5U DE202022104107U1 (en) | 2022-07-20 | 2022-07-20 | Device for detecting objects |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202022104107.5U DE202022104107U1 (en) | 2022-07-20 | 2022-07-20 | Device for detecting objects |
Publications (1)
Publication Number | Publication Date |
---|---|
DE202022104107U1 true DE202022104107U1 (en) | 2023-10-23 |
Family
ID=88697348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202022104107.5U Active DE202022104107U1 (en) | 2022-07-20 | 2022-07-20 | Device for detecting objects |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE202022104107U1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19843602A1 (en) | 1997-11-13 | 1999-05-20 | Werner Wolfrum | Processing unit movement detection for manufacturing process |
DE102007007576A1 (en) | 2007-02-15 | 2008-08-21 | Kuka Roboter Gmbh | Method and device for securing a working space |
DE102006048163B4 (en) | 2006-07-31 | 2013-06-06 | Pilz Gmbh & Co. Kg | Camera-based monitoring of moving machines and / or moving machine elements for collision prevention |
US9804576B2 (en) | 2013-02-27 | 2017-10-31 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with position and derivative decision reference |
EP3183721B1 (en) | 2014-08-22 | 2022-01-19 | Jenoptik Robot GmbH | Method and axle-counting device for contact-free axle counting of a vehicle and axle-counting system for road traffic |
-
2022
- 2022-07-20 DE DE202022104107.5U patent/DE202022104107U1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19843602A1 (en) | 1997-11-13 | 1999-05-20 | Werner Wolfrum | Processing unit movement detection for manufacturing process |
DE102006048163B4 (en) | 2006-07-31 | 2013-06-06 | Pilz Gmbh & Co. Kg | Camera-based monitoring of moving machines and / or moving machine elements for collision prevention |
DE102007007576A1 (en) | 2007-02-15 | 2008-08-21 | Kuka Roboter Gmbh | Method and device for securing a working space |
US9804576B2 (en) | 2013-02-27 | 2017-10-31 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with position and derivative decision reference |
EP3183721B1 (en) | 2014-08-22 | 2022-01-19 | Jenoptik Robot GmbH | Method and axle-counting device for contact-free axle counting of a vehicle and axle-counting system for road traffic |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1788467B1 (en) | Safety device | |
EP4030188B1 (en) | Device and method for securing a surveillance area | |
EP0691534B1 (en) | Method of visibility determination in particular for vehicle movement | |
DE102017217961A1 (en) | DEVICE FOR CONTROLLING A VEHICLE AT A CROSSROAD | |
EP1067399A2 (en) | Method of visibility determination | |
DE102017102506B4 (en) | METHOD FOR DETECTING OTHER VEHICLES RELATIVE TO A CARRIER VEHICLE USING WHEEL DETECTION | |
DE102009034848A1 (en) | Optoelectronic sensor | |
WO2019141415A1 (en) | Method and device for detecting critical transverse movements | |
DE102011105074A1 (en) | Method for determining visual range for vehicle, involves determining surrounding of vehicle by camera, where contrast dimensions are determined for object depicted in images, where visual range is determined from contrast dimensions | |
DE10026711B4 (en) | Position monitoring device and method | |
EP4139709A1 (en) | Method and device for identifying blooming in a lidar measurement | |
EP0290633B1 (en) | Method for detecting changes in the driving range of an unmanned vehicle | |
EP2394247B1 (en) | Method and apparatus for operating a video-based driver assistance system in a vehicle | |
DE102020105192B4 (en) | Method for detecting moving objects in a vehicle environment and motor vehicle | |
DE102020124331A1 (en) | VEHICLE TRACK MAPPING | |
EP3663881B1 (en) | Method for controlling an autonomous vehicle on the basis of estimated movement vectors | |
DE202022104107U1 (en) | Device for detecting objects | |
DE102009038406B4 (en) | Method and device for measuring the environment of a motor vehicle | |
EP4310547A1 (en) | Device and method for detecting objects | |
EP3885787B1 (en) | Detection of distance measurement data | |
EP4310541A1 (en) | Device and method for detecting objects in a surveillance area | |
DE202022104108U1 (en) | Device for detecting objects in a surveillance area | |
DE3930109C1 (en) | ||
EP3663800B1 (en) | Method for detecting objects using a 3d camera | |
WO2018060100A1 (en) | Optical sensor for distance and/or speed measurement, system for mobility monitoring of autonomous vehicles, and method for mobility monitoring of autonomous vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R207 | Utility model specification |