EP2193331A1 - Verfahren und sensoranordnung zur vermessung optischer merkmale - Google Patents

Verfahren und sensoranordnung zur vermessung optischer merkmale

Info

Publication number
EP2193331A1
EP2193331A1 EP08804728A EP08804728A EP2193331A1 EP 2193331 A1 EP2193331 A1 EP 2193331A1 EP 08804728 A EP08804728 A EP 08804728A EP 08804728 A EP08804728 A EP 08804728A EP 2193331 A1 EP2193331 A1 EP 2193331A1
Authority
EP
European Patent Office
Prior art keywords
coordinate system
measurement data
crane
ground
direction vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP08804728A
Other languages
English (en)
French (fr)
Inventor
Wendelin Feiten
Cäsar KLIMOWICZ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of EP2193331A1 publication Critical patent/EP2193331A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66CCRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
    • B66C13/00Other constructional features or details
    • B66C13/18Control systems or devices
    • B66C13/46Position indicators for suspended loads or for crane elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Definitions

  • a sensor assembly for example mounted on a crane, is used to measure (or estimate) the position and attitude of moving objects, such as the crane itself or a cargo, e.g. a container.
  • Other uses include the measurement of the position and position of a vehicle or a movable component of the crane itself into consideration.
  • An execution of a loading crane is a gantry crane. This spans a loading and working area like a portal. As a rule, its side walls run with wheels on two parallel rails. On the crane bridge, the horizontal part of the gantry crane, a trolley moves with a hoist.
  • a rail slewing crane can be mounted on the crane bridge.
  • a loading crane a gantry crane, a gantry crane, a gantry crane and a gantry crane are also suitable.
  • Moving parts of a crane are z.
  • the trolley or the spreader - a hoist with which containers can be grabbed.
  • the sensor arrangement may for example be composed of one or more of the following elements: a
  • 3D laser scanner a tiltable 2D laser scanner or a video camera.
  • the elements of the sensor arrangement are usually mounted in such a way in the structure of the crane that - in the case of a gantry crane - several tracks for trucks or railroad railroad tracks are covered.
  • the camera coordinate system of one or more cameras provided that they are installed in the frame of the sensor arrangement,
  • Calibration is achieved in the prior art, for example, by placing a calibrating body specially prepared and prepared for this purpose on the ground in the area of the crane and measuring it manually with respect to the crane or the crane coordinate system by a surveying engineer.
  • lanes can be measured manually in relation to the crane or to the calibration body.
  • the sensor arrangement subsequently detects the calibration element, from which coordinate transformations between the sensor coordinate system and the other coordinate systems can be obtained.
  • the disadvantage here is that the ongoing operation of the crane for calibration longer time must be interrupted.
  • the sensor arrangement for measuring optical features comprises a laser scanner, which is set up to determine remission values. Furthermore, the sensor arrangement comprises a computing unit, which is set up to extract the optical features from the remission values.
  • Today's laser scanners provide, in addition to distance values, also measurements of the reflected-back energy, depending on the operating mode, to a certain extent a gray value.
  • the gray value is called the remission value.
  • the method and the sensor arrangement make it possible, in addition to the distance values, which are determined by the sensor arrangement, to also use the remission values, which are determined by the laser scanner contained in the sensor arrangement. This makes it possible to dispense with the installation of a video camera.
  • a further advantage is that the extracted optical features are present directly in the sensor coordinate system of the sensor arrangement.
  • the method and the sensor arrangement use the remission values of the laser scanner to produce a complete gray value image of a section of an environment.
  • a grayscale image is in principle comparable to the image of a video camera.
  • optical features are recognizable in the gray scale image. Therefore, the extraction of the optical features from the remission values can be done with classical methods of image processing.
  • the optical features are track markers, they are determined directly in the sensor coordinate system of the sensor arrangement. This eliminates manual surveys of the lanes as well as a determination of a coordinate transformation between a ground coordinate system and the sensor coordinate system. Rather, the coordinate transformations between the coordinate systems used are automatically determined without manual measurement. This is more accurate and reduces the effort of installing and connecting the sensor assembly.
  • the sensor arrangement is set up in an embodiment for mounting on an object. Furthermore, it has an arithmetic unit, which is set up for the identification of soil measurement data for parts of a soil under the object as well as object measurement data for parts of the object in distance measurement data of the laser scanner.
  • the arithmetic unit is further configured to determine a ground coordinate system from the ground measurement data using the object measurement data, to calculate a coordinate transformation between a sensor coordinate system of the sensor array and the ground coordinate system, and to calibrate the sensor array based on the coordinate transformation.
  • the object is a crane, in particular a loading crane, gantry crane, bridge crane, semi-portal crane, gantry crane or portal crane, or any movable or static object on which the sensor arrangement can be mounted.
  • a gantry crane offers the advantage that its pronounced symmetry properties can be used.
  • the parts of the object are side walls of a gantry crane. This offers the advantage that the orientation of these side walls can be used to determine the object coordinate system.
  • FIG. 2 shows distance measurement data of the sensor arrangement
  • FIG. 3 shows a crane coordinate system, a sensor coordinate system and a ground coordinate system
  • Figure 4 is a flowchart for calibration.
  • Figure 1 shows a crane 10.
  • a sensor assembly 11 On the crane 10, a sensor assembly 11 is mounted, which consists of two elements in the case shown in Figure 1.
  • a cargo 12 such as a container on a truck, which is detected by the sensor assembly 11.
  • a floor 15 under the crane 10 is inclined, so that water can flow away.
  • lane markers 13 are attached, which mark tracks for vehicles.
  • FIG. 2 shows measurement data of the sensor arrangement 11, in this case distance measurement data of a laser scanner.
  • ground measurement data 21 of parts of the floor 15 under the crane 10 and crane measurement data 22 of parts of the crane 10 can be identified. This allows a geometric measurement of the crane and its working space.
  • the crane measurement data 22 are here rectangles in 3D out-segmented side walls of the crane 10.
  • the ground measurement data 21 are accordingly out-segmented ground points. Of these, only a subset may need to be used to achieve sufficient accuracy; This saves computing time and storage requirements.
  • FIG. 3 again shows the crane 10, its wheels 14, the sensor arrangement 11 and the floor 15 and the lane markings 13.
  • a ground coordinate system 16, a crane coordinate system 17 and a sensor coordinate system 18 of the sensor arrangement 11 are additionally shown.
  • a third step 3 the crane measurement data 22 are used to determine a ground coordinate system 16 from the ground measurement data 21.
  • a coordinate transformation between a sensor coordinate system 18 of the sensor arrangement and the ground coordinate system 16 is calculated, by means of which the sensor arrangement 11 is calibrated.
  • the method for calibrating the sensor arrangement 11 uses symmetries, such as flat symmetries or translation symmetries in three-dimensional space.
  • symmetries such as flat symmetries or translation symmetries in three-dimensional space.
  • the crane 10 on - especially in the design as a gantry crane.
  • the symmetries are extracted from the crane measurement data 22 and possibly the ground measurement data 21. This is based on the knowledge that a surface of 3D measurement points represented by the crane measurement data 22 has a normal vector which can be used as the y direction vector of the crane coordinate system 17. Furthermore, it is possible to make use of the fact that a surface of 3D measurement points represented by the ground measurement data 21 has a normal vector which can be selected as the z direction vector of the ground coordinate system 16.
  • the x-direction vector of the ground coordinate system 16 can be selected to be identical to the x-direction vector of the crane coordinate system 17.
  • This x-direction vector is both parallel to the ground 15 and parallel to a surface represented by the crane measurement data 22. This becomes clear with the example of the gantry crane. As it travels on rails, they run parallel to the ground as well as parallel to the inner walls of the gantry crane. The x-direction vector of both the ground coordinate system 16 and the crane coordinate system 17 can thus be selected parallel to the rails.
  • the x-direction vector is perpendicular both to the normal vector of the area of SD measurement points represented by the ground measurement data 21 and to the normal vector of the area of 3D measurement points represented by the crane measurement data 22.
  • these coordinate systems can be successively developed.
  • the algorithm calculates the crane coordinate system 17, which is used for the derivation of the ground coordinate system 16.
  • 3D measurement points are identified as crane measurement data that belong to the sidewall (the so-called "sill bar"), on the one hand 3D measurement points belonging to the seaward side wall and, on the other hand, 3D measurement points that belong to the landside side wall.
  • the sidewall the so-called "sill bar”
  • 3D measurement points belonging to the seaward side wall the 3D measurement points belonging to the seaward side wall
  • 3D measurement points that belong to the landside side wall 3D measurement points that belong to the landside side wall.
  • any other characterization of the two sides of the gantry crane can be chosen.
  • the x direction vector of both the ground coordinate system 16 and the crane coordinate system 17 is obtained from the cross product of the y direction vector of the crane coordinate system 17 and the z direction vector of the ground coordinate system 16.
  • the z direction vector of the crane coordinate system is calculated from the cross product of the x direction vector and the y direction vector of the crane coordinate system 17. Accordingly, the y-direction vector of the ground coordinate system 16 results from the cross product of the z-direction vector and the x-direction vector of the ground coordinate system 16.
  • their expansion in the x-direction is also determined as minimum and maximum.
  • the crane coordinate system 17 is shifted in its x-direction so that its origin lies in the middle between the determined minimum and maximum.
  • the crane coordinate system 17 is completely determined.
  • the center of gravity of the 3D measurement points in the ground measurement data 21 is first determined. Subsequently, the z-axis of the crane coordinate system 17 is cut with the plane formed by the 3D measurement points in the ground measurement data 21. The intersection chosen as the origin of the ground coordinate system 16. Now lanes under the crane 10 can be manually measured between tracks on which the wheels 14 of the crane 10 run. The position of the center between the tracks relative to the sensor arrangement 11 results from the previously determined coordinate systems.
  • the coordinate values of the 3D measurement points are mapped onto a suitable grid which, for example, is selected axis-parallel to the x-direction vector and y-direction vector of the ground coordinate system 16.
  • a suitable grid which, for example, is selected axis-parallel to the x-direction vector and y-direction vector of the ground coordinate system 16.
  • suitable filters are, for example, mean, median or similar filters.
  • the lanes are automatically determined from the simultaneously determined Determined 3D distance readings and remission values of the laser scanner.
  • the process becomes very robust and accurate. A disturbance of the ongoing operation of the loading crane system when connecting the sensor assembly 11 is largely avoided.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Es werden die Remissionswerte eines Laserscanners genutzt, um lediglich optisch erfassbare Merkmale wie bspw. Spurmarkierungen (13) für Fahrspuren auf dem Boden unter einer Ladekrananlage (10) zu erfassen. Dies ermöglicht es, mit geringem Aufwand und wenig Störung des laufenden Betriebs eine Sensoranordnung (11) auf einem Ladekran zu installieren, da deren Kalibrierung vereinfacht wird und der Aufwand für eine manuelle Vermessung der Fahrspuren relativ zum Sensor-Koordinatensystem entfallt.

Description

Beschreibung
Verfahren und Sensoranordnung zur Vermessung optischer Merkmale
Eine Sensoranordnung, welche beispielsweise auf einem Kran montiert ist, dient zur Messung (bzw. Schätzung) der Position und Lage beweglicher Objekte, wie etwa des Krans selbst oder einer Fracht, z.B. eines Containers. Als weitere Verwendungen kommen etwa die Messung der Position und Lage eines Fahrzeugs oder eines beweglichen Bauteils des Krans selbst in Betracht.
Bei dem Kran kann es sich beispielsweise um einen Ladekran handeln. Ladekrane werden auf Guterumschlagplatzen, Lager- platzen, in Montagehallen und Werften sowie beim Gleisbau eingesetzt. Bei einem Ladekran für Kraftfahrzeuge ist der Boden gegenüber dem Ladekran geneigt, damit Wasser abfließen kann. Weiterhin sind auf dem Boden unter dem Ladekran Spuren für Lastwagen markiert.
Eine Ausfuhrung eines Ladekrans ist ein Portalkran. Dieser überspannt einen Lade- und Arbeitsbereich wie ein Portal. In der Regel laufen seine Seitenwande mit Radern auf zwei parallelen Schienen. Auf der Kranbrucke, dem horizontalen Teil des Portalkrans, bewegt sich eine Laufkatze mit einem Hubwerk.
Alternativ kann auch ein Schienendrehkran auf der Kranbrucke montiert sein.
Weiterhin kommen als Ladekran auch ein Bruckenkran, ein HaIb- portalkran, ein Bockkran sowie ein Portaldrehkran in Betracht .
Bewegliche Teile eines Krans sind z. B. die Laufkatze oder der Spreader - ein Hebezeug, mit dem Container ergriffen wer- den können.
Im Kontext eines Ladekrans dienen die Messungen der Sensoranordnung als Grundlage, um LKW-Fahrern zu signalisieren, wo sie anzuhalten haben. Weiterhin kann aufgrund solcher Messungen der Kran selbst gesteuert werden.
Die Sensoranordnung kann beispielsweise aus einem oder mehre- ren der folgenden Elemente zusammengesetzt sein: einem
3D-Laserscanner, einem schwenkbaren 2D-Laserscanner oder einer Videokamera. Die Elemente der Sensoranordnung werden üblicherweise derart im Tragwerk des Krans angebracht, dass - im Falle eines Portalkrans - mehrere Spuren für LKW oder Gleise für Eisenbahnwaggons überstrichen werden.
Damit die Sensoranordnung in der beschriebenen Weise verwendet werden kann, ist es erforderlich, sie zu kalibrieren. Das bedeutet, dass die folgenden Koordinatensysteme zueinander in Beziehung gesetzt werden müssen:
Das Sensor-Koordinatensystem eines oder mehrerer Laserscanner, die in der Sensoranordnung verbaut sind,
- das Kamera-Koordinatensystem einer oder mehrerer Kameras, sofern diese im Rahmen der Sensoranordnung verbaut sind,
- das Kran-Koordinatensystem des Krans, bezuglich dem z.B. Laufkatze und Spreader lokalisiert werden,
- das Boden-Koordinatensystem, bezuglich dessen ggf. Spuren für Lastwagen oder Gleise für Eisenbahnwaggons gegeben sind, welche beladen und entladen werden.
Die Kalibrierung wird im Stand der Technik beispielsweise dadurch gelost, dass ein speziell zu diesem Zweck angefertigter und bereitgehaltener Kalibrierkorper auf den Boden im Bereich des Krans gestellt und in Bezug auf den Kran bzw. das Kran- Koordinatensystem durch einen Vermessungsingenieur manuell vermessen wird. Zusatzlich können Fahrspuren manuell in Bezug auf den Kran oder auf den Kalibrierkorper vermessen werden. Die Sensoranordnung erfasst anschließend den Kalibrierkorper, woraus sich Koordinatentransformationen zwischen dem Sensor- Koordinatensystem und den übrigen Koordinatensystemen erschließen lassen. Nachteilig wirkt sich hierbei aus, dass der laufende Betrieb des Krans für die Kalibrierung längere Zeit unterbrochen werden muss.
Im Kontext der Automatisierung der Ladekrananlage ist eine spezifische Kalibrierung der Sensoranordnung für die jeweiligen Arbeitsablaufe wünschenswert. Häufig finden sich in der Umgebung der Ladekrananlage Strukturierungsmerkmale, welche lediglich optisch erfasst werden können. Ein Beispiel hierfür sind auf den Boden aufgemalte Spurmarkierungen, welche die Lage der Fahrspuren anzeigen. Die Einbindung eines optischen Sensors (etwa einer Videokamera) in die Sensoranordnung bringt jedoch den Nachteil mit sich, dass dann das Kamera- Koordinatensystem des optischen Sensors mit dem Sensor- Koordinatensystem des Laserscanners abgeglichen werden muss.
Dies wird in den beschriebenen Anwendungen in großen Krananlagen durch deren große Abmessungen und nicht standardisierten visuellen Merkmale erschwert. So können beispielsweise die Spurmarkierungen unterschiedlich ausfallen. Deshalb ist es im Stand der Technik erforderlich, weitere, in ihren optischen und geometrischen Merkmalen genau definierte Kalibrier- korper in die Anlage einzubringen, um anhand dieser die Kalibrierung vorzunehmen. Auch eine manuelle Vermessung der Spurmarkierungen bedeutet hier zusatzlichen Aufwand.
Es stellt sich somit die Aufgabe, ein Verfahren und eine Sensoranordnung zur Vermessung optischer Merkmale anzugeben, welche den Aufbau der Sensoranordnung oder die Vermessung der optischen Merkmale vereinfachen.
Diese Aufgabe wird durch das Verfahren und die Sensoranordnung zur Vermessung optischer Merkmale gemäß den unabhängigen Patentansprüchen gelost. Bevorzugte Weiterbildungen ergeben sich aus den abhangigen Ansprüchen.
Bei dem Verfahren zur Vermessung optischer Merkmale mit einer Sensoranordnung umfasst diese einen Laserscanner. Der Laser- Scanner ermittelt Remissionswerte. Anschließend werden die optischen Merkmale aus den Remissionswerten extrahiert.
Die Sensoranordnung zur Vermessung optischer Merkmale umfasst einen Laserscanner, welcher zur Ermittlung von Remissionswerten eingerichtet ist. Weiterhin umfasst die Sensoranordnung eine Recheneinheit, welche zur Extraktion der optischen Merkmale aus den Remissionswerten eingerichtet ist.
Heutige Laserscanner liefern je nach Betriebsmodus neben Entfernungswerten auch Messungen der zurückgestrahlten Energie, gewissermaßen einen Grauwert. Der Grauwert wird als Remissionswert bezeichnet. Das Verfahren und die Sensoranordnung ermöglichen es, neben den Entfernungswerten, welche durch die Sensoranordnung ermittelt werden, auch die Remissionswerte, welcher der in der Sensoranordnung enthaltene Laserscanner ermittelt, zu nutzen. Hierdurch kann auf den Einbau einer Videokamera verzichtet werden. Ein weiterer Vorteil liegt darin, dass die extrahierten optischen Merkmale unmittelbar im Sensor-Koordinatensystem der Sensoranordnung vorliegen.
Das Verfahren und die Sensoranordnung nutzen die Remissionswerte des Laserscanners, um ein komplettes Grauwertbild eines Ausschnitts einer Umgebung zu erzeugen. Ein solches Grauwert- bild ist prinzipiell mit dem Bild einer Videokamera vergleichbar. Weiterhin sind optische Merkmale in dem Grauwertbild erkennbar. Daher kann die Extraktion der optischen Merkmale aus den Remissionswerten mit klassischen Methoden der Bildverarbeitung erfolgen.
Handelt es sich bei den optischen Merkmalen um Spurmarkierungen, so werden diese unmittelbar im Sensor-Koordinatensystem der Sensoranordnung ermittelt. Hierdurch entfallen manuelle Vermessungen der Fahrspuren sowie eine Ermittlung einer Koor- dinatentransformation zwischen einem Boden-Koordinatensystem und dem Sensor-Koordinatensystem. Vielmehr werden die Koordinatentransformationen zwischen den verwendeten Koordinatensystemen ohne handische Vermessung automatisch ermittelt. Dies ist genauer und verringert den Aufwand bei der Installation und Aufschaltung der Sensoranordnung.
Durch die Extraktion der optischen Merkmale aus den Remissi- onswerten ergibt sich der Vorteil, dass auf gesonderte Kalib- rierkorper zur Vermessung der optischen Merkmale verzichtet werden kann. So entfallt der Aufwand für das Erstellen, Zwischenlagern, Platzieren und Wegräumen der Kalibrierkorper . Hierdurch werden Kosten eingespart. Die AufSchaltung der Sen- soranordnung erfordert somit weniger Aufwand und verursacht eine geringere Störung des laufenden Betriebs.
In einer Weiterbildung des Verfahrens ist die Sensoranordnung an einem Objekt montiert. In Entfernungs-Messdaten des Laser- Scanners werden Boden-Messdaten für Teile eines Bodens unter dem Objekt sowie Objekt-Messdaten für Teile des Objekts identifiziert. Die Objekt-Messdaten werden genutzt, um aus den Boden-Messdaten ein Boden-Koordinatensystem zu ermitteln. Eine Koordinatentransformation zwischen einem Sensor- Koordinatensystem der Sensoranordnung und dem Boden- Koordinatensystem wird berechnet, anhand derer die Sensoranordnung kalibriert wird.
Analog hierzu ist die Sensoranordnung in einer Weiterbildung zur Montage an einem Objekt eingerichtet. Weiterhin weist sie eine Recheneinheit auf, welche zur Identifikation von Boden- Messdaten für Teile eines Bodens unter dem Objekt sowie Objekt-Messdaten für Teile des Objekts in Entfernungs-Messdaten des Laserscanners eingerichtet ist. Die Recheneinheit ist weiterhin eingerichtet zur Ermittlung eines Boden- Koordinatensystems aus den Boden-Messdaten unter Nutzung der Objekt-Messdaten, zur Berechnung einer Koordinatentransformation zwischen einem Sensor-Koordinatensystem der Sensoranordnung und dem Boden-Koordinatensystem, sowie zur Kalibrierung der Sensoranordnung auf Grundlage der Koordinatentransformation . Die Weiterbildungen bieten den Vorteil, dass die komplette Kalibrierung der Sensoranordnung gegenüber ihrer Umgebung ohne einen gesonderten Kalibrierkorper erfolgen kann.
Gemäß einer Weiterbildung ist das Objekt ein Kran, insbesondere ein Ladekran, Portalkran, Bruckenkran, Halbportalkran, Bockkran oder Portaldrehkran, oder ein beliebiges bewegliches oder statisches Objekt, auf welchem die Sensoranordnung montierbar ist. Ein Portalkran bietet den Vorteil, dass seine ausgeprägten Symmetrieeigenschaften genutzt werden können.
Gemäß einer Weiterbildung umfasst die Sensoranordnung einen oder mehrere schwenkbare 2D-Laserscanner . Die Verwendung eines schwenkbaren 2D-Laserscanners bietet durch seinen großen Sichtbereich den Vorteil, dass neben Fahrzeugen im Arbeitsbereich des Krans auch große Teile der tragenden Struktur des Krans selbst erfasst werden können.
Gemäß einer Weiterbildung sind die Teile des Objekts Seiten- wände eines Portalkrans. Dies bietet den Vorteil, dass die Orientierung dieser Seitenwande zur Ermittlung des Objekt- Koordinatensystems genutzt werden kann.
Im Folgenden werden Ausfuhrungsbeispiele der Erfindung anhand von Figuren naher erläutert. Es zeigen:
Figur 1 Kran mit einer Sensoranordnung sowie einem Frachtgut unter dem Kran,
Figur 2 Entfernungs-Messdaten der Sensoranordnung, Figur 3 ein Kran-Koordinatensystem, ein Sensor- Koordinatensystem sowie ein Boden- Koordinatensystem,
Figur 4 ein Ablaufdiagramm zur Kalibrierung.
Figur 1 zeigt einen Kran 10. An dem Kran 10 ist eine Sensoranordnung 11 angebracht, welche im in Figur 1 gezeigten Fall aus zwei Elementen besteht. Weiterhin gezeigt ist ein Frachtgut 12, beispielsweise ein Container auf einem LKW, welches durch die Sensoranordnung 11 erfasst wird. Ebenfalls in Figur 1 zu sehen sind Rader 14, mit denen der Kran 10 auf Schienen bewegt werden kann. Ein Boden 15 unter dem Kran 10 ist geneigt, so dass Wasser abfließen kann. Auf dem Boden 15 sind Spurmarkierungen 13 angebracht, welche Spuren für Fahrzeuge markieren .
Figur 2 zeigt Messdaten der Sensoranordnung 11, in diesem Fall Entfernungs-Messdaten eines Laserscanners. In den Mess- daten lassen sich Boden-Messdaten 21 von Teilen des Bodens 15 unter dem Kran 10 sowie Kran-Messdaten 22 von Teilen des Krans 10 identifizieren. Dies ermöglicht eine geometrische Vermessung des Krans und seines Arbeitsraumes.
Die Messdaten können beispielsweise durch Schwenk eines
2D-Laserscanners über die Teile des Krans 10 und die Teile des Bodens 15 gewonnen werden.
Die Kran-Messdaten 22 sind hierbei als Rechtecke in 3D her- aussegmentierte Seitenwande des Krans 10. Bei den Boden-Messdaten 21 handelt es sich entsprechend um heraussegmentierte Bodenpunkte. Von diesen muss ggf. nur eine Teilmenge verwendet werden, um eine ausreichende Genauigkeit zu erreichen; dies spart Rechenzeit und Speicherbedarf.
Figur 3 zeigt erneut den Kran 10, seine Rader 14, die Sensoranordnung 11 sowie den Boden 15 und die Spurmarkierungen 13. Zusatzlich eingezeichnet sind ein Boden-Koordinatensystem 16, ein Kran-Koordinatensystem 17 sowie ein Sensor-Koordinaten- System 18 der Sensoranordnung 11.
Figur 4 zeigt ein Ablaufdiagramm zur Kalibrierung der Sensoranordnung 11. In einem ersten Schritt 1 erfasst die Sensoranordnung 11 Messdaten ihrer Umgebung wie in Figur 2 gezeigt. Hierbei handelt es sich um Entfernungs-Messdaten . In einem zweiten Schritt 2 werden in den Messdaten die in Figur 2 gezeigten Boden-Messdaten 21 sowie die Kran-Messdaten 22 identifiziert. Dies kann rechnergestutzt unter Verwendung von Planzeichnungen erfolgen, welche bezuglich der Einbaulage der Sensoranordnung 11 bzw. ihrer Elemente sowie weiterer Elemente des Krans 10 genau genug sind. Die Messdaten sind hierbei als 3D-Messpunkte gegeben, welche zunächst alle im Sensor- Koordinatensystem 18 der Sensoranordnung 11 vorliegen.
In einem dritten Schritt 3 werden die Kran-Messdaten 22 genutzt, um aus den Boden-Messdaten 21 ein Boden-Koordinatensystem 16 zu ermitteln. In einem vierten Schritt 4 wird eine Koordinatentransformation zwischen einem Sensor-Koordinatensystem 18 der Sensoranordnung und dem Boden-Koordinatensystem 16 berechnet, anhand derer die Sensoranordnung 11 kalibriert wird.
Das Verfahren zur Kalibrierung der Sensoranordnung 11 nutzt Symmetrien, etwa Flachensymmetrien oder Translationssymmetrien im dreidimensionalen Raum. Solche Symmetrien weist der Kran 10 auf - insbesondere in der Ausgestaltung als Portalkran. Die Symmetrien werden hierbei aus den Kran-Messdaten 22 und ggf. den Boden-Messdaten 21 extrahiert. Hierbei liegt die Erkenntnis zugrunde, dass eine durch die Kran-Messdaten 22 repräsentierte Flache von 3D-Messpunkten einen Normalenvektor aufweist, der als y-Richtungsvektor des Kran-Koordinatensystems 17 verwendet werden kann. Weiterhin lasst sich die Tatsache nutzen, dass eine durch die Boden-Messdaten 21 repräsentierte Flache von 3D-Messpunkten einen Normalenvektor aufweist, der als z-Richtungsvektor des Boden-Koordinatensystems 16 gewählt werden kann. Überraschenderweise kann der x-Richtungsvektor des Boden-Koordinatensystems 16 identisch zum x-Richtungsvektor des Kran-Koordinatensystems 17 gewählt werden. Dieser x-Richtungsvektor ist sowohl parallel zum Boden 15 als auch parallel zu einer durch die Kran-Messdaten 22 repräsentierten Flache. Dies wird am Beispiel des Portalkrans deutlich. Da dieser auf Schienen fahrt, verlaufen diese so- wohl parallel zum Boden als auch parallel zu den Innenwanden des Portalkrans. Der x-Richtungsvektor sowohl des Boden- Koordinatensystems 16 als auch des Kran-Koordinatensystems 17 kann somit parallel zu den Schienen gewählt werden. Somit ist der x-Richtungsvektor sowohl zu dem Normalenvektor der durch die Boden-Messdaten 21 repräsentierten Flache von SD-Messpunkten als auch zu dem Normalenvektor der durch die Kran- Messdaten 22 repräsentierten Flache von 3D-Messpunkten senk- recht. Ausgehend hiervon lassen sich diese Koordinatensysteme sukzessive erschließen.
Im Folgenden wird ein hierzu geeigneter Algorithmus exemplarisch angegeben. Es sind beliebige andere Algorithmen mog- lieh. Der Algorithmus berechnet hilfsweise das Kran-Koordinatensystem 17, welches für die Herleitung des Boden-Koordinatensystems 16 verwendet wird.
Im Szenario eines Portalkrans in einem Hafen werden als Kran- Messdaten 22 3D-Messpunkte identifiziert, die zur Seitenwand (der so genannten "sill bar") gehören, und zwar einerseits 3D-Messpunkte, die zur seeseitigen Seitenwand gehören, sowie andererseits 3D-Messpunkte, die zur landseitigen Seitenwand gehören. Bei Portalkranen auf dem Festland kann eine beliebi- ge andere Charakterisierung der beiden Seiten des Portalkrans gewählt werden.
Eine Hauptachsentransformation (beschrieben in: Jonathon Shlens : "A Tutorial on Principal Component Analysis", erhalt- lieh im Internet am 02.07.2007 unter http://www.snl.salk.edu/~shlens/pub/notes/pca.pdf) auf den 3D-Messpunkten der seeseitigen Seitenwand des Krans 10 sowie auf den 3D-Messpunkten der landseitigen Seitenwand des Krans 10 ermöglicht jeweils die Bildung eines Normalenvektors im Schwerpunkt der jeweiligen 3D-Messpunkte . Aus diesen beiden Normalenvektoren wird nun durch Mittelung der y-Richtungs- vektor des Kran-Koordinatensystems 17 gebildet. Hierbei wird als Konvention gewählt, dass der y-Richtungsvektor zur Seeseite weist.
Ebenfalls durch Hauptachsentransformation wird auf den 3D-Messpunkten in den Boden-Messdaten 21 ein Normalenvektor gebildet und als z-Richtungsvektor des Boden- Koordinatensystems 16 gewählt.
Anschließend ergibt sich der x-Richtungsvektor sowohl des Bo- den-Koordinatensystems 16 als auch des Kran-Koordinatensystems 17 aus dem Kreuzprodukt des y-Richtungsvektors des Kran-Koordinatensystems 17 und des z-Richtungsvektors des Boden-Koordinatensystems 16.
Im nächsten Schritt wird der z-Richtungsvektor des Kran- Koordinatensystems aus dem Kreuzprodukt des x-Richtungs- vektors und des y-Richtungsvektors des Kran-Koordinatensystems 17 berechnet. Entsprechend ergibt sich der y-Richtungsvektor des Boden-Koordinatensystems 16 aus dem Kreuzprodukt des z-Richtungsvektors und des x-Richtungs- vektors des Boden-Koordinatensystems 16.
Als Ursprung des Kran-Koordinatensystems 17 wird zunächst die Mitte zwischen den Fußpunkten der aus den Kran-Messdaten 22 gebildeten Normalenvektoren gewählt.
Anschließend werden die 3D-Messpunkte in den Kran-Messdaten 22, welche zur seeseitigen Seitenwand und zur landseitigen Seitenwand gehören, in das Kran-Koordinatensystem 17 trans- formiert. Im Zuge dessen wird auch ihre Ausdehnung in x-Richtung als Minimum und Maximum bestimmt. Daraufhin wird das Kran-Koordinatensystem 17 in seiner x-Richtung so verschoben, dass sein Ursprung auf der Mitte zwischen dem ermittelten Minimum und Maximum liegt. Damit ist das Kran- Koordinatensystem 17 vollständig bestimmt.
Als Ursprung des Boden-Koordinatensystems 16 wird zunächst der Schwerpunkt der 3D-Messpunkte in den Boden-Messdaten 21 bestimmt. Anschließend wird die z-Achse des Kran-Koordinaten- Systems 17 mit der Ebene, welche durch die 3D-Messpunkte in den Boden-Messdaten 21 gebildet wird, geschnitten. Der Schnittpunkt als Ursprung des Boden-Koordinatensystems 16 gewählt . Nun können Fahrspuren unter dem Kran 10 manuell zwischen Gleisen, auf welchen die Rader 14 des Krans 10 laufen, vermessen werden. Die Lage der Mitte zwischen den Gleisen rela- tiv zur Sensoranordnung 11 ergibt sich aus den zuvor ermittelten Koordinatensystemen.
Anhand der ermittelten Koordinatensysteme wird jeweils eine Koordinatentransformation zu dem Sensor-Koordinatensystem 18 der Sensoranordnung 11 errechnet. Mit dieser wird die Sensoranordnung 11 kalibriert.
Extraktion optischer Merkmale aus Remissionswerten des Laserscanners :
Zur Extraktion optischer Merkmale aus Remissionswerten des Laserscanners werden lediglich Remissionswerte für 3D-Messpunkte weiterverarbeitet, welche zuvor als Boden- Messdaten 21 identifiziert wurden. Diese 3D-Messpunkte werden in die durch sie bestimmte Ebene des Bodens 15 projiziert.
Eine Auswertung ihrer Remissionswerte ergibt nun ein zweidimensionales Grauwertbild des Bodens 15. In diesem Grauwertbild werden durch klassische Bildverarbeitungsmethoden optische Merkmale wie etwa die Spurmarkierungen 13 ermittelt.
In einer Variante werden die zunächst als Gleitkommazahlen vorliegenden Koordinatenwerte der 3D-Messpunkte auf ein passendes Raster abgebildet, welches bspw. achsenparallel zu dem x-Richtungsvektor und y-Richtungsvektor des Boden- Koordinatensystems 16 gewählt wird. Hierdurch erhalt man ein rechteckiges diskretisiertes Pixelbild, wobei der Wert an jedem Pixel durch geeignete Filterung der diesem Pixel zugeordneten Remissionswerte gebildet wird. Hierfür geeignete Filter sind bspw. Mittelwert, Median oder ahnliche Filter.
Somit entfallt die Notwendigkeit einer manuellen Vermessung von Fahrspuren für Lastkraftwagen unter einem Ladekran. Die Fahrspuren werden automatisch aus den simultan ermittelten 3D-Entfernungsmesswerten und Remissionswerten des Laserscanners ermittelt. Das Verfahren wird hierdurch sehr robust und genau. Eine Störung des laufenden Betriebs der Ladekrananlage bei der Aufschaltung der Sensoranordnung 11 wird weitgehend vermieden.
Alternativ können die optischen Merkmale erst nach ihrer Extraktion aus den Remissionswerten auf die zuvor ermittelte Ebene des Bodens 15 projiziert werden, um diese dreidimensio- nal im Sensor-Koordinatensystem 18 der Sensoranordnung 11 zu verorten .
Gleiches gilt für beliebige andere Einsatzgebiete der Sensoranordnung 11. Die beschriebenen Ausfuhrungsbeispiele lassen sich anderen Szenarien analog implementieren.

Claims

Patentansprüche
1. Verfahren zur Vermessung optischer Merkmale mit einer Sensoranordnung (11), - bei dem die Sensoranordnung (11) einen Laserscanner um- fasst, welcher Remissionswerte ermittelt, bei dem die optischen Merkmale aus den Remissionswerten extrahiert werden.
2. Verfahren nach Anspruch 1, bei dem die optischen Merkmale Spurmarkierungen (13) sind.
3. Verfahren nach Anspruch 2, bei dem anhand der Spurmarkierungen (13) Fahrspuren ermittelt werden.
4. Verfahren nach Anspruch 1,
- bei dem die Sensoranordnung (11) an einem Objekt montiert ist,
- bei dem in Entfernungs-Messdaten des Laserscanners Boden- Messdaten (21) für Teile eines Bodens (15) unter dem Objekt sowie Objekt-Messdaten für Teile des Objekts identifiziert werden,
- bei dem die Objekt-Messdaten genutzt werden, um aus den Boden-Messdaten (21) ein Boden-Koordinatensystem (16) zu ermitteln,
- bei dem eine Koordinatentransformation zwischen einem Sensor-Koordinatensystem (18) der Sensoranordnung (11) und dem Boden-Koordinatensystem (16) berechnet wird, mit welcher die Sensoranordnung (11) kalibriert wird.
5. Verfahren nach Anspruch 4,
- bei dem anhand der Objekt-Messdaten ein y-Richtungsvektor eines Objekt-Koordinatensystems ermittelt wird,
- bei dem anhand der Boden-Messdaten (21) ein z-Richtungs- vektor des Boden-Koordinatensystems (16) ermittelt wird,
- bei dem ein x-Richtungsvektor sowohl des Boden- Koordinatensystems (16) als auch des Objekt-Koordinatensystems anhand eines Kreuzproduktes des y-Richtungsvektors des Objekt-Koordinatensystems und des z-Richtungsvektors des Boden-Koordinatensystems (16) berechnet wird,
- bei dem ein z-Richtungsvektor des Objekt-Koordinatensystems aus einem Kreuzprodukt des x-Richtungsvektors und des y-Richtungsvektors des Objekt-Koordinatensystems berechnet wird,
- bei dem ein y-Richtungsvektor des Boden-Koordinatensystems
(16) aus einem Kreuzprodukt des z-Richtungsvektors und des x-Richtungsvektors des Boden-Koordinatensystems (16) be- rechnet wird.
6. Verfahren nach Anspruch 5, bei dem der y-Richtungsvektor des Objekt-Koordinatensystems mittels Hauptachsentransformation oder Hauptkomponentenanalyse durch einen Normalenvektor im Schwerpunkt von 3D-Messpunkten in den Objekt-Messdaten gebildet wird.
7. Verfahren nach Anspruch 5 oder 6, bei dem der z-Richtungsvektor des Boden-Koordinatensystems (16) mittels Hauptachsen- transformation oder Hauptkomponentenanalyse durch einen Normalenvektor im Schwerpunkt von 3D-Messpunkten in den Boden- Messdaten (21) gebildet wird.
8. Verfahren nach Anspruch 5, - bei dem 3D-Messpunkte in den Boden-Messdaten (21), welche den Remissionswerten zugeordnet sind, auf ein Raster abgebildet werden, welches achsenparallel zu dem x-Richtungsvektor und y-Richtungsvektor des Boden- Koordinatensystems (16) ist, - bei dem für jedes Rasterelement die Remissionswerte der entsprechenden 3D-Messpunkte gefiltert werden, bei dem die optischen Merkmale mit Methoden der Bildverarbeitung aus den gefilterten Remissionswerten extrahiert werden.
9. Sensoranordnung (11) zur Vermessung optischer Merkmale, mit einem Laserscanner, eingerichtet zur Ermittlung von Remissionswerten, mit einer Recheneinheit, eingerichtet zur Extraktion der optischen Merkmale aus den Remissionswerten.
10. Sensoranordnung (11) nach Anspruch 9, - eingerichtet zur Montage an einem Objekt, mit einer Recheneinheit, eingerichtet zur Identifikation von Boden-Messdaten (21) für Teile eines Bodens (15) unter dem Objekt sowie Objekt-Messdaten für Teile des Objekts in Entfernungs- Messdaten des Laserscanners,
- eingerichtet zur Ermittlung eines Boden-Koordinatensystems (16) aus den Boden-Messdaten (21) unter Nutzung der Objekt-Messdaten, eingerichtet zur Berechnung einer Koordinatentransforma- tion zwischen einem Sensor-Koordinatensystem (18) der Sensoranordnung (11) und dem Boden-Koordinatensystem (16), eingerichtet zur Kalibrierung der Sensoranordnung (11) auf Grundlage der Koordinatentransformation.
11. Sensoranordnung (11) nach Anspruch 10, bei dem das Objekt ein Kran (10), insbesondere ein Ladekran, Portalkran, Bru- ckenkran, Halbportalkran, Bockkran oder Portaldrehkran ist.
12. Sensoranordnung (11) nach einem der Ansprüche 9 bis 11, bei dem der Laserscanner ein schwenkbarer 2D-Laserscanner ist.
EP08804728A 2007-09-27 2008-09-25 Verfahren und sensoranordnung zur vermessung optischer merkmale Withdrawn EP2193331A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102007046288A DE102007046288B4 (de) 2007-09-27 2007-09-27 Verfahren und Sensoranordnung zur Vermessung optischer Merkmale
PCT/EP2008/062830 WO2009043788A1 (de) 2007-09-27 2008-09-25 Verfahren und sensoranordnung zur vermessung optischer merkmale

Publications (1)

Publication Number Publication Date
EP2193331A1 true EP2193331A1 (de) 2010-06-09

Family

ID=40210581

Family Applications (1)

Application Number Title Priority Date Filing Date
EP08804728A Withdrawn EP2193331A1 (de) 2007-09-27 2008-09-25 Verfahren und sensoranordnung zur vermessung optischer merkmale

Country Status (3)

Country Link
EP (1) EP2193331A1 (de)
DE (1) DE102007046288B4 (de)
WO (1) WO2009043788A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011131161A1 (de) 2010-03-17 2011-10-27 Peter Kronseder Vorrichtung zur auswertung der schutzklassenprüfung ballistischer schutzwesten bzw. ballistischer schutzhelme
US9261881B1 (en) * 2013-08-01 2016-02-16 Google Inc. Filtering noisy/high-intensity regions in laser-based lane marker detection
CN110530261A (zh) * 2019-08-28 2019-12-03 天津理工大学 一种基于二维激光扫描的工业零件质量检测装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5484990A (en) * 1993-12-15 1996-01-16 Ncr Corporation Information Solutions Company Multiple depth of field laser optical scanner
DE19604075C2 (de) * 1996-02-05 1998-02-19 F & O Electronic Systems Vorrichtung zur Inspektion der Oberfläche von Holz zwecks Feststellung von Oberflächenmerkmalen und Verfahren hierzu
DE19855478B4 (de) * 1998-12-01 2006-01-12 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zur optischen Erfassung einer Kontrastlinie
DE10251910B4 (de) * 2002-11-07 2013-03-14 Siemens Aktiengesellschaft Containerkran
DE102004003850A1 (de) * 2004-01-26 2005-08-18 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung von Markierungen auf einer Fahrbahn

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2009043788A1 *

Also Published As

Publication number Publication date
DE102007046288B4 (de) 2010-04-15
DE102007046288A1 (de) 2009-04-09
WO2009043788A1 (de) 2009-04-09

Similar Documents

Publication Publication Date Title
DE102007046287B4 (de) Verfahren zur Kalibrierung einer Sensoranordnung
EP3000762B1 (de) Verfahren zur automatischen, optischen Bestimmung einer Zielposition für ein Containergeschirr
EP2724972B1 (de) Verfahren zur Bestimmung der Position, in der ein ISO-Container auf ein Trägerfahrzeug aufzusetzen ist, sowie 3D-Laserscan-Messanlage dafür
EP2910512B1 (de) Verfahren zum Kalibrieren von Laserscannern an einem Containerumschlagkran
DE102008019373A1 (de) Messvorrichtung und Verfahren zum Kalibrieren einer Messvorrichtung eines Krans
EP0656868B1 (de) Vorrichtung und verfahren zur steuerung eines containerkranes
EP2327652B1 (de) Verfahren zur Ermittlung von Position und Orientierung eines dreidimensionalen Objekts, Steuerungsprogramm und Postionierungserfassungssystem
WO2012110343A1 (de) Verfahren zur autarken lokalisierung eines fahrerlosen, motorisierten fahrzeugs
WO2000063681A2 (de) Bildbearbeitung zur vorbereitung einer texturnalyse
EP1996885A1 (de) Verfahren zur ermittlung der position und orientierung einer mess- oder reparatureinrichtung und eine nach dem verfahren arbeitende vorrichtung
DE10323641A1 (de) Bewegliche Sensoreinrichtung am Lastmittel eines Gabelstaplers
DE102005063051A1 (de) Verfahren zur optischen Fahrwerksvermessung
DE102006007805A1 (de) Verfahren zur Bestimmung des Anhängerwinkels zwischen einem Zugfahrzeug und einem dazugehörigen Anhänger
EP3707569B1 (de) Kalibrierung eines stationären kamerasystems zur positionserfassung eines mobilen roboters
DE102007060856A1 (de) Verfahren und Sensoranordnung zur Ermittlung von Fahrspuren
DE102007046288B4 (de) Verfahren und Sensoranordnung zur Vermessung optischer Merkmale
DE19630187A1 (de) Verfahren zum automatischen Positionieren und Positioniersystem für Krananlagen
AT509118B1 (de) Verfahren und vorrichtung zum erfassen der position eines fahrzeuges in einem definierten bereich
DE102004041938A1 (de) Stapelgerät, insbesondere Reachstacker, und Verfahren zum Greifen und Stapeln von Containern
EP2584418A1 (de) Verfahren und Vorrichtung zur Ortung eines Aufnahmepunktes eines Objekts in einer Anlage
EP2157041A1 (de) Verfahren und System zur Ermittlung einer Position eines Objekts in einer Containerkrananlage und Steuerungsprogramm für eine Meßvorrichtung
DE102004050690A1 (de) Verfahren, Computer-Programm mit Programm-Code-Mitteln, Computer-Programm-Produkt und Gerät zur Modellierung der Umwelt eines autonomen mobilen Systems
WO2018202259A1 (de) Aufbau und verfahren zur höhenkalibrierung einer monokularen fahrzeugkamera
DE102008058828B4 (de) Verfahren und Vorrichtung zur Lokalisation eines mobilen Objekts
DE102021208827A1 (de) Verfahren zur Identifizierung von Kanten von Bordsteinen

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20100216

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MT NL NO PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL BA MK RS

DAX Request for extension of the european patent (deleted)
RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: SIEMENS AKTIENGESELLSCHAFT

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

INTG Intention to grant announced

Effective date: 20130709

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20131120