WO2016120044A1 - Vermessen einer abmessung auf einer oberfläche - Google Patents

Vermessen einer abmessung auf einer oberfläche Download PDF

Info

Publication number
WO2016120044A1
WO2016120044A1 PCT/EP2016/050328 EP2016050328W WO2016120044A1 WO 2016120044 A1 WO2016120044 A1 WO 2016120044A1 EP 2016050328 W EP2016050328 W EP 2016050328W WO 2016120044 A1 WO2016120044 A1 WO 2016120044A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
measuring
points
camera
dimension
Prior art date
Application number
PCT/EP2016/050328
Other languages
English (en)
French (fr)
Inventor
Claudia Langner
Daniel Liebau
Original Assignee
Bayerische Motoren Werke Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke Aktiengesellschaft filed Critical Bayerische Motoren Werke Aktiengesellschaft
Priority to CN201680003802.5A priority Critical patent/CN107003409B/zh
Publication of WO2016120044A1 publication Critical patent/WO2016120044A1/de
Priority to US15/659,956 priority patent/US10611307B2/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/002Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles specially adapted for covering the peripheral part of the vehicle, e.g. for viewing tyres, bumpers or the like
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8995Combining images from different aspect angles, e.g. spatial compounding
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/108Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 'non-standard' camera systems, e.g. camera sensor used for additional purposes i.a. rain sensor, camera sensor split in multiple image areas
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93273Sensor installation details on the top of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/932Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations
    • G01S2015/933Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations for measuring the dimensions of the parking space when driving past
    • G01S2015/935Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations for measuring the dimensions of the parking space when driving past for measuring the contour, e.g. a trajectory of measurement points, representing the boundary of the parking space
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/937Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details

Definitions

  • the invention relates to a device, a vehicle and a method for
  • Measuring a dimension between at least two points on surfaces There are different methods and devices for two-dimensional measurement of surfaces, such. B. vehicle surfaces, and to
  • DE 10 2012 005 966 A1 discloses a device for producing a planar representation of a three-dimensional body by using parallel light for the projection of a shadow image of the three-dimensional body.
  • light receiving devices are arranged such that the vehicle or a respective portion of the vehicle interrupts the light beams between these devices, so that on the basis of the interrupted light beams, the height of the
  • Vehicle section can be determined.
  • the CH 701 106 A2 discloses a method and an apparatus for measuring the spatial extent of an object, wherein by means of two measuring arrangements, one of which as a horizontally extending light barrier arrangement
  • US 6,195,019 B1 describes an apparatus for classifying vehicles and a toll collection system, wherein the vehicle classification apparatus is arranged above a roadway on which vehicles pass through one of a vehicle
  • the detection zone is stretched on the one hand along the direction of travel and on the other hand transversely to the direction of travel.
  • JP 31 10725 B2 discloses a two-dimensional measurement with several
  • EP 0 828 990 B1 describes a device for determining the dimensions of an object, in particular an object, on a moving conveyor for parcel sorting and handling inserts.
  • the objects to be detected move on a conveyor belt and are scanned from above by a laser scanner.
  • EP 0 858 055 A2 describes an apparatus and a method for measuring mail pieces, wherein the mail pieces are detected by a camera, preferably from above, and the dimensions of the mail item are determined from the recorded images.
  • WO 03/025498 A1 discloses a system and a method for measuring the dimensions of moving packages, wherein light rays are directed to the object and their reflections are detected by a parabolic mirror using a light detector and from the detected reflections, the dimensions of the object in a dimension.
  • the camera module has a plurality of line sensors, which are arranged at different distances from the lens, so that image lines with different distances from the lens are imaged onto the respective line sensors.
  • the present invention has for its object to provide a device and a method for a vehicle, with which dimensions of one or more objects or between objects in the vicinity of the vehicle can be measured accurately.
  • the present invention relates to an apparatus for measuring a dimension between at least two points on at least one surface for a vehicle, comprising
  • At least one imaging device for sensing the vehicle environment
  • a display device for displaying the image of the vehicle environment
  • At least one environmental sensor for detecting the distance and the direction of the measuring points with respect to the vehicle
  • An evaluation device for determining the dimension based on the detected distances and directions of the measuring points and for outputting the determined dimension.
  • such dimensions can be determined simply and precisely using the sensors already present on the vehicle.
  • An accurate measurement of two points on at least one surface in the vicinity of a vehicle allows z.
  • the recorded dimensions of the goods can be stored and used in the further handling of the goods.
  • passages or bearings can be measured with the method according to the invention, from which it can be determined whether the goods pass through or can be stored there.
  • luggage items to be stowed in the vehicle can be measured in advance.
  • the method is developed such that it checks whether the
  • Baggage in the hold volume can be added, and automatically proposals for the arrangement of the individual pieces of luggage in the cargo space determined and displayed on the display device. This allows on the one hand a dense and on the other hand a regulatory loading of the vehicle
  • the device according to the invention can be one or more
  • Image forming devices from the following group:
  • Such imaging devices are often already present on vehicles.
  • one or more of the image-forming devices are rotatable or pivotable and / or zoomable.
  • Imaging equipment could not be defined.
  • the device according to the invention can have one or more environmental sensors from the following group:
  • one or more environmental sensors are designed to be rotatable or pivotable.
  • the at least one imaging device also represents the environmental sensor or both are integrated in a sensor (housing).
  • the vehicle can be inexpensively equipped with sensors that are used efficiently on existing sensors on the vehicle, and in particular by the integration of an offset between the image forming device and the environmental sensor is avoided.
  • an offset can possibly lead to a point on a surface being able to be determined as the measuring point by means of the image-generating device, but this measuring point due to an obstacle located in a direct line between the sensor
  • a plurality of image generating devices and / or a plurality of environmental sensors are arranged such that they point in different directions with their viewing direction.
  • one or more imaging devices and / or one or more environment sensors are arranged such that they scan the ground area below the vehicle from the vehicle, in particular from the underside or from the underbody of the vehicle.
  • these sensors may be formed with a light source as a lighting device.
  • markings applied to the floor are to be included in a survey.
  • a light source makes it possible to set or acquire measuring points that are due to the darker ones
  • Lighting conditions below the body of the vehicle without lighting could not be fixed or detected.
  • one or more travel motion sensors are provided for detecting the movement of the vehicle.
  • the evaluation device is designed such that on
  • a measuring point can be sampled.
  • the movement of the vehicle is taken into account when determining the dimension.
  • the motion sensors are sensors that control the movement or
  • Wheel rotation sensor steering angle sensor, acceleration sensor,
  • Speedometer in conjunction with a transmission sensor, inclination sensor, spring travel sensor or chassis sensor.
  • a method for measuring a dimension between at least two points on at least one surface for a vehicle comprising the steps
  • the curvature of the surface between the measuring points is detected by detecting the
  • the thus determined curvature of the surface is taken into account when determining the dimension.
  • the three-dimensional shape of surfaces can be included.
  • a plurality of measuring points is scanned. From the data obtained by the scan, a plan or 3D model of the vehicle environment is created. As a result, such a plan or 3D model can be created simply and efficiently with the sensors present on the vehicle.
  • the plan may include a floor plan and / or an elevation.
  • predetermined objects are automatically filtered out of the acquired data.
  • objects that are interesting for a measurement can be determined and offered for measurement, on the other hand the objects which are unsuitable for a measurement can be recognized, so that they are not offered for the measurement.
  • moving objects are unsuitable for measurement, since the measurement points can not be set or scanned without greater deviation.
  • one or more of the following types of predetermined objects are automatically detected by means of image analysis:
  • the movement of the vehicle is detected when the vehicle is moved between the detection of the distance and the direction of two measuring points. This detected movement is taken into account when determining the dimension.
  • Imaging device and / or an environmental sensor is hindered to a measuring point, for example, by an object in its respective line of sight. Often, then by moving the vehicle between the detection of
  • the measurement be performed despite the obstructing object.
  • the vehicle moves between the detection of the distance and the direction of the
  • An autonomous movement of the vehicle allows the automatic measurement of larger outdoor or indoor spaces. In particular, this makes it possible to create plans more efficiently.
  • the method according to the invention is checked after setting a measuring point, whether the measuring point can be detected with one of the environment sensors. If an imaging device and an environmental sensor have an offset to one another on a vehicle because both non-identical sensors or are not integrated in one and the same sensor (housing), then it may happen that a measurement point on a surface in the through the
  • Imaging device created image of the vehicle environment can set, but the environment sensor due to a disabling object or due to its orientation, the distance and the direction to the measuring point can not detect. Such a check makes it possible for the survey
  • a trajectory may be calculated, which is either displayed to the vehicle driver for manual departure, or autonomous from the vehicle
  • Dimensions can be 3D coordinates, distances, angles, diameters, radii, etc.
  • the vehicle according to the invention may have a four-wheel drive and / or at least a ground clearance of at least 15 cm and preferably of at least 20 cm.
  • a measurement of measuring points is also possible in the field or away from paved driveways.
  • FIG. 1 shows schematically the structure of a device for measuring a
  • Figure 2 schematically shows a vehicle with the device for measuring a
  • FIG. 3 schematically shows the vehicle from FIG. 2 in a rear view
  • FIG. 4 shows a method for measuring a dimension between at least two points on surfaces in a flowchart
  • FIG. 5 schematically shows an autonomous measurement of an inner region of a
  • FIG. 6 schematically shows a movement of the vehicle between the setting or the detection of two different measuring points
  • FIG. 7 shows a schematic of a measurement of two different measuring points of a vehicle
  • a vehicle 1 is formed with such a measuring device 2 (FIGS. 1, 2, 3).
  • the vehicle 1 is a motor vehicle.
  • the measuring device 2 has an evaluation device 3, which as
  • Computer is formed with a CPU memory device and suitable interfaces and controls the surveying device 2 centrally. On the
  • Evaluation device 3 is a surveying software module for processing two-dimensional and three-dimensional data stored and executable.
  • Such data may be from various sensors arranged on the vehicle 1, in particular of image-generating devices and / or environment sensors, are transmitted to the evaluation device 3.
  • the vehicle 1 is provided with a camera 4/1, which is arranged centrally at the upper edge of a windshield of the vehicle 1 (FIG. 2).
  • the camera 4/1 is connected to the evaluation device 3 and transmits image data via this connection to the evaluation device 3 and takes over control commands from the
  • the camera 4/1 is arranged on the vehicle 1 such that its viewing direction is directed obliquely downwards and in the direction of travel 5 to the front and preferably includes servo motors (not shown), with which they can be horizontally and vertically aligned and zoomed.
  • the servo motors not shown
  • Actuators are preferably connected to the evaluation device 3 and are controlled by this.
  • the camera 4/1 represents one
  • the vehicle 1 is provided with a lidar 7/1, which is arranged centrally above the camera 4/1 at the upper edge of the windshield (FIG. 2).
  • the lidar 7/1 is connected to the evaluation device 3 and transmits via this connection 3D data to the evaluation device 3 and takes over control commands from the
  • the lidar 7/1 is arranged on the vehicle 1 such that its viewing direction is directed obliquely upward and in the direction of travel 5 forward and preferably includes servo motors (not shown), with which it can be aligned horizontally and vertically.
  • the servomotors are
  • the lidar 7/1 represents an environment sensor in the sense of the present invention, which provides three-dimensional data, in particular the
  • the evaluation device 3 is connected to a display device 8, such. B. an LCD screen, which is located in the interior of the vehicle 1. On the display device 8 is an image of the recorded by means of the camera 4/1 Vehicle environment shown.
  • the display device 8 can
  • the surveying device 2 can be operated on it, i. whose functions are triggered or controlled.
  • the evaluation device 3 is connected to an input device 9, which is also located in the interior of the vehicle 1. With the input device 9, the surveying device 2 can be operated.
  • the operation of the surveying device 2 comprises controlling a
  • Input cursor that overlays the image displayed on the display device 8.
  • the input cursor can be positioned on the image of the vehicle environment at any points that can be selected as measuring points 6.
  • Operation of the surveying device 2 may further include manually controlling the orientation and zooming range of the camera 4/1, and optionally manually controlling the orientation of the lidar 7/1.
  • the surveying device 2 is one or more
  • Travel sensors 1 1 connected, from which it receives travel motion data, which can be included in the determination of the dimensions.
  • the travel sensors are one or more of the following sensors
  • Speedometer in conjunction with a transmission sensor, inclination sensor, a spring travel sensor or suspension sensor and / or other suitable sensors that detect the movement or trajectory of the vehicle.
  • a method for measuring a dimension between at least two points on surfaces which is carried out by means of the above-described measuring device 2 (FIG. 4), will be explained in more detail below.
  • step S1 the camera 4/1 captures an image of the vehicle environment.
  • step S3 the captured image is displayed on the display device 8. Then follows the execution of step S4, in which one or more measuring points 6 are determined by a user of the measuring device 2 with the input device 9 with the input cursor in the displayed image
  • the user can manually control the camera 4/1, as explained above, so that the image shows the desired measuring points 6.
  • step S5 the evaluation device 3 with the lidar 7/1 detects the distance and the direction of the measuring point 6 previously determined in step S4 or the measuring points 6 previously defined in step S4. The method then proceeds to step S6, in which the user indicates whether he wants to capture another measurement point 6. If this is the case, then step S2 is executed again.
  • the step S7 may optionally be carried out in which a vehicle movement takes place and is detected, so that the movement data of the vehicle 1 can be stored for the later determination of the dimensions.
  • step S7 Execution of the optional step S7 is followed by the execution of step S2.
  • the detection of the vehicle movement or the traveled trajectory can take place by means of the data of further travel sensors 1 1 present on the vehicle 1.
  • step S8 If it has been determined in step S6 that no further measuring point 6 is to be detected, the execution of step S8, in which the detected distance follows, follows and direction of the respective measuring point 6, the dimensions between the
  • Measuring points 6 are determined and output to the display device 8.
  • the user may be asked to indicate which dimensions he would like displayed.
  • step S9 In which it is checked whether the operation is to be continued. If the operation continues, step S2 is executed again. If the operation does not continue, then the execution of step S10, in which the process ends.
  • Embodiment includes the same devices, devices, devices, etc., wherein for like parts, which are already explained above, the same reference numerals are used.
  • Figure 1 the additional sensors of the second
  • the evaluation device 3 is connected to a stereo camera 10/1.
  • the evaluation device 3 is connected to a stereo camera 10/1.
  • Stereo camera 10/1 may be provided together with one or more cameras 4 and one or more lidars 7.
  • Two cameras 4 can also be used together as a stereo camera 10.
  • the evaluation device 3 has a control program module with which the two cameras 4 simultaneously record one image each, which are forwarded to the evaluation device 3. Furthermore, the relative position to each other and the viewing directions of the evaluation device 3 must be known by the two cameras 4. The evaluation device 3 can then use this information and the two captured images to determine the distances to specific points in the stereo image.
  • the stereo camera 10/1 is arranged in an exterior mirror on a passenger side of the vehicle 1 such that it faces away from the vehicle 1 with its viewing direction directed downwards.
  • the stereo camera 10/1 preferably includes servo motors, with which they can be aligned horizontally and vertically and zoomed.
  • the servo motors are preferably connected to the evaluation device 3 and are controlled by this.
  • the stereo camera 10/1 represents one
  • Environment sensor which provides three-dimensional data, in particular the distance and direction of measuring points 6, on the basis of which dimensions can be determined.
  • Stereo camera 10/1 are performed accordingly, wherein the stereo camera 10/1 is used both as an image forming device and as an environmental sensor.
  • Evaluation device 3 based on the dimensions of the luggage determine whether they have sufficient space in the trunk. In addition, the
  • Evaluation device 3 show suggestions for loading on the display device 8, wherein the evaluation device 3 can take into account a proper loading.
  • the vehicle can also drive around the baggage autonomously to possibly lying in the shadow area
  • Various detection ranges of the stereo camera 10/1, which are adjustable by means of a servo motor are shown schematically in Fig. 3.
  • the above-explained method can be modified in such a way that the movement or trajectory of the vehicle 1 is permanently detected, in particular between the steps S4 and S5.
  • a permanent capture it is also at no overlapping of the detection areas of the imaging device and the environmental sensor and / or if the environmental sensor can not detect a measurement point 6 due to an obstacle or offset allows to make a survey, since the vehicle 1 can be moved such that each of the measurement points 6 to be detected can be detected by the image forming device and then by the environment sensor.
  • a measurement point 6 is to be defined by the user on the display device 8, which can not be detected with one of the environment sensors of the vehicle 1, the user can be shown an instruction for moving the vehicle 1 on the display device 8, so that the environment sensor is displayed after Movement of the vehicle 1 can detect the measuring point 6.
  • such a movement of the vehicle 1 can also be carried out autonomously by the evaluation device 3 controlling the vehicle 1.
  • the data of the illustrated image generation devices and / or environment sensors can be used to determine a collision-free trajectory.
  • further data from other devices or devices provided to the vehicle 1 may be evaluated, e.g. Data of one
  • an automatic surveying mode can also be provided, with which the vehicle 1 automatically checks the interior areas of buildings (eg underground garages, warehouses, workshops) or outdoor areas (eg construction sites, parking lots, property boundaries) after activation by the user a plurality of measuring points 6 is missing and the respective surveying area autonomously as needed when surveying.
  • buildings eg underground garages, warehouses, workshops
  • outdoor areas eg construction sites, parking lots, property boundaries
  • Measuring points 6 are z. B. by means of an automatic image recognition software characteristic measurement points such. As edges, corners of walls and fences, recognized and scanned at regular or irregular intervals. By specifying certain image patterns for such measurement points, a fully automatic scanning of an interior of a building or an outdoor area is possible. Preferably also predetermined obstacles or additional existing objects, such. As people or animals, automatically removed from the data. Out the data obtained thereby can be a plan, in particular a floor plan and / or elevation, or create a 3D model of the vehicle environment.
  • Such an autonomous measurement of an interior area of a building is shown schematically in FIG. 5, wherein the dashed line indicates a collision-free travel path which is traveled autonomously.
  • the detection of dimensions during the drive of the vehicle 1 may be such that obstacles on the track or
  • Passage widths are automatically detected and their dimensions are determined. If the vehicle 1 does not pass an obstacle or does not pass through a passage, then a warning is preferably issued to the display device 8 and / or to a loudspeaker (not shown) which is connected to the evaluation device 3. In such a detection of passage widths and dimensions of load, especially when moving through a material handling equipment (forklift, pallet truck, etc.), the
  • a check may take place between steps S4 and S5 as to whether a measuring point 6 marked in the image of the vehicle environment can be detected by the environment sensor. This is particularly at an offset between the image forming device and the environmental sensor, d. H. if both are not identical to one another, as well as obstacles that do not hinder the imaging device, but the detection path of the
  • Such a check can ensure that a measuring point 6 previously marked in the two-dimensional image can also be detected in three dimensions. Such verification may be carried out by various methods depending on the available sensors. Here are two ways in which such a review can take place.
  • Image generating device and a lidar 7 used as environmental sensor.
  • Evaluation device 3 judges after specifying a measuring point 6 in the step Laser beam of the lid 7 on the measuring point 6 and determined with the camera 4, if the measuring point 6 is illuminated by the laser beam.
  • Laser beam can be iterated, d. H. the evaluation device 3 corrects the alignment of the laser beam with the aid of the images captured by the camera 4 until the measuring point 6 is illuminated by the laser beam or reaches a predetermined number of illumination attempts or a predetermined time has elapsed. If the measuring point 6 should not be illuminated by the laser beam, then an error message can be output, possibly with a driving instruction for the vehicle driver, or the evaluation device autonomously moves the vehicle 1 in such a way that the measuring point 6 can be illuminated by the laser beam.
  • Imaging device generated image of the vehicle environment compared or linked.
  • edge courses and the structure and / or color of surfaces can be taken into account in order to combine the two-dimensional image with the three-dimensional data.
  • the occurrence of an obstacle that blocks the path from the environment sensor to the measurement point 6 can be determined.
  • the three-dimensional scan of the vehicle environment can be compared to
  • Determination of the distance with the environmental sensor are made very coarse and serve only to estimate the presence of objects between the measuring devices and the target areas.
  • the image processing software module may execute the one or more
  • Imaging equipment to be measured or extracted measurable objects are extracted, which are proposed to the user when displaying the image in step S3 for surveying.
  • objects are preferably a space or a surface bounding object, such as fences, landmarks, walls, Building ceilings, floors, outside or inside edges of a building, driveways, leveling staffs, beacons, posts, passages, driveways, material handling equipment,
  • An object extraction can be done with the help of a pattern comparison on the basis of
  • 3D data of the environment sensors can be included.
  • a three-dimensional scan of the environment can take place, as already explained above.
  • an elimination of moving objects can also be achieved by multiple acquisition of 2D and / or 3D data via a
  • the measuring device 2 can also measure dimensions to be detected, such as 3D coordinates, distances (eg height, width, width, depth, length), angle, diameter, radii for the measurement suggest, which will then be executed automatically. It can also be a differentiation after eg.
  • the query may be: "Should the maximum height / width of the object be measured?"
  • a measurement command may also be entered by voice control, such as: "Calculate the average of all radii along an edge of the object” or "Determine the minimum and maximum maximum angle of the
  • Measuring points 6 by detecting the distance and the direction of other points that are on a imagined by the image forming device and / or from the environment sensor on the surface between the measuring points 6, possibly projected line, are detected.
  • the three-dimensional shape of surfaces are included so that z. B. not only a direct distance between two measuring points 6 can be determined, but also the length of a distance between the two measuring points 6, wherein the distance can extend along the surface.
  • the setting and the scanning of the other points is preferably carried out automatically.
  • the data obtained in this way can be used to create 3D models of surfaces or objects in the vehicle environment.
  • the vehicle 1 may additionally or alternatively be provided with one or more further cameras 4/2, 4/3 and / or 4/4 to the camera 4/1, as shown in FIG. While the camera is 4/2 at the top of a rear window of the
  • Vehicle 1 is arranged centrally, the camera 4/3 is arranged centrally on a front bumper of the vehicle 1 and the camera 4/4 centered on a rear bumper of the vehicle 1. While the viewing direction of the camera 4/2 is directed obliquely downwards and in the direction of travel 5 to the rear, the viewing direction of the camera 4/3 horizontally in the direction of travel 5 forward and the viewing direction of the camera 4/4 horizontally in the direction of travel 5 directed backwards.
  • the cameras 4/2, 4/3 and 4/4 are connected to the evaluation device 3, have the same functions and preferably comprise servo motors, as explained above for the camera 4/1.
  • the cameras 4 can also be part of one of the stereo cameras 10. The method explained above for the camera 4/1 can be performed accordingly with the cameras 4/2, 4/3 and 4/4.
  • the vehicle 1 may be provided with one or more additional lidars 7 in addition to or as an alternative to the lidar 7/1.
  • a lidar 7/2 is shown that is arranged centrally above the camera 4/2 at the upper edge of the rear window and whose viewing direction is directed obliquely upwards and in the direction of travel 5 to the rear.
  • the lidar 7/2 is connected to the evaluation device 3, has the same functions and preferably comprises servo motors, as explained above for the lidar 7/1.
  • the procedure described above for the Lidar 7/1 can be carried out accordingly with the Lidar 7/2.
  • the vehicle 1 may be provided with further stereo cameras 10/2, 10/3 and / or 10/4 which are located on the underbody of the Vehicle 1 are arranged, as shown in Fig. 2.
  • the views of the vehicle 1 may be provided with further stereo cameras 10/2, 10/3 and / or 10/4 which are located on the underbody of the Vehicle 1 are arranged, as shown in Fig. 2. The views of the stereo camera 10/1, the vehicle 1 may be provided with further stereo cameras 10/2, 10/3 and / or 10/4 which are located on the underbody of the Vehicle 1 are arranged, as shown in Fig. 2.
  • Stereo cameras 10/2, 10/3 and 10/4 are directed to the floor below the vehicle 1. With the stereo cameras 10/2, 10/3 and 10/4 z. B. marks on the ground and scanned and thus measured or included in surveying. The stereo cameras 10/2, 10/3 and 10/4 are with the
  • Evaluation device 3 is connected, have the same functions and preferably comprise servo motors, as explained above for the stereo camera 10/1.
  • the stereo cameras 10/2, 10/3 and 10/4 can use light sources as
  • the vehicle 1 additionally or alternatively to the stereo camera 10/1 has a stereo camera (not shown) on an exterior mirror on a driver side of the vehicle 1.
  • This stereo camera like the stereo camera 10/1, is arranged in such a way that it is directed away from the vehicle 1 with its viewing direction and is connected to the evaluation device 3. It has the same functions and preferably comprises servo motors, as explained above for the stereo camera 10/1. The method explained above for the stereo camera 10/1 can be performed accordingly with this stereo camera on the driver's side.
  • the vehicle 1 may be provided with a radar 12/1 and / or 12/2 as environment sensor, as shown in FIGS. 1 and 2.
  • the Radar 12/1 is above the camera 4/3 centered on the front bumper of the vehicle 1 and the radar 12/1 is arranged above the camera 4/4 centered on the rear bumper of the vehicle 1. While the viewing direction of the radar 12/1 is directed horizontally in the direction of travel 5 forward, the line of sight of the radar 12/2 is directed horizontally in the direction of travel 5 to the rear.
  • the radars 12/1 and 12/2 are connected to the evaluation device 3, have the same
  • Vehicle 1 may be provided with one or more ultrasonic sensors 13 as environment sensor, as shown in Fig. 1.
  • the ultrasonic sensors 13 are connected to the
  • Evaluation device 3 is connected, have the same functions and preferably comprise servo motors, as explained above for the lidar 7/1.
  • Ultrasonic sensors 13 which often already on vehicles 1 as part of a
  • Parking assistance system are present, can be made in particular in the vicinity of the vehicle 1 measurements.
  • FIGS. 6 and 7 show a vehicle 1 with a stereo camera 10/5, which is arranged centrally at the upper edge of the windscreen of the vehicle 1 in such a way that it is directed forward from the vehicle 1 in the direction of travel 5.
  • the stereo camera 10/5 is connected to the evaluation device 3, has the same functions and preferably comprises servo motors, as explained above for the stereo camera 10/1.
  • the method explained above for the stereo camera 10/1 can be performed accordingly with the stereo camera 10/5.
  • Fig. 6 shows schematically a movement of the vehicle 1 between the setting or the detection of two different measuring points 6/6 and 6/7 by means of the stereo camera 10/5 in an interior of a building.
  • the dashed line indicates a travel path of the vehicle 1, which is traveled during the surveying process.
  • the measuring point 6/6 is set and measured, then the vehicle 1 is moved and then set the measuring point 6/7 and measured.
  • Fig. 7 shows schematically a measurement of two different measuring points 6/8 and 6/9 of an object by means of the stereo camera 10/5.
  • the object is one Sculpture. First, the measuring point 6/8 is set and measured and then set the measuring point 6/9 and measured.
  • Imaging device or environmental sensors suitable which may be arranged at different locations of the vehicle 1 and directed in different directions.
  • the respective positions of the installed sensors on the vehicle 1 and their possible orientation are stored in the evaluation device.
  • An imaging device in the context of the present invention is a camera 4, a stereo camera 10, a thermal imaging camera or infrared camera, an SD runtime camera, a lidar 7 and a radar 12. From the 3D data generated by the three-dimensionally detected sensors, images of the
  • Vehicle environment in the form of two-dimensional data can be calculated.
  • the thermal imaging camera or infrared camera can also be used to detect living beings, in particular persons and animals. These creatures can be removed from the data if z. For example, plans can be created automatically.
  • An environmental sensor in the sense of the present invention is a lidar 7, a
  • Stereo camera 10 a 3D runtime camera, a camera with autofocus device or rangefinder, an optical distance measuring device with line scan camera, a radar 12 and / or an ultrasonic sensor 13.
  • any environment sensor can also be used as an image generating device, as from the generated 3D data images the vehicle environment in the form of two-dimensional data can be calculated.
  • This data of the vehicle environment can be used as reference points relative to a measurement object.
  • the 3D object coordinates can be measured relative to spatial coordinates.
  • the position / coordinates of the vehicle relative to the spatial coordinates and in the next step to know the object coordinates relative to the vehicle coordinates in order to close the object coordinates relative to the room can.
  • the settings of the servo motors explained above can be made by the operator by means of the input device 9 and / or a touch-sensitive display device 8.
  • the zoom function allows the operator to more accurately determine a measuring point 6 by the
  • Imaging device detects a zoomed in ie enlarged image of the vehicle environment, which is displayed on the display device 8.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Die Erfindung betrifft eine Vorrichtung, ein Fahrzeug (1 ) und ein Verfahren zum Vermessen einer Abmessung zwischen zumindest zwei Punkten auf Oberflächen. Dabei umfasst die Vorrichtung: - zumindest eine Bilderzeugungseinrichtung (4, 7, 10, 12) zum Abtasten der Fahrzeugumgebung, - eine Anzeigeeinrichtung (8) zum Darstellen des Abbilds der Fahrzeugumgebung, - eine Eingabeeinrichtung (9) zum Festlegen zumindest zweier Punkte als Messpunkte, zwischen denen die Abmessungen zu ermitteln sind, in der dargestellten Abbildung, - zumindest einen Umfeldsensor (7, 10, 12, 13) zum Erfassen der Entfernung und der Richtung der Messpunkte bzgl. des Fahrzeugs (1) und - eine Auswerteeinrichtung (3) zum Ermitteln der Abmessung anhand der erfassten Entfernungen und Richtungen der Messpunkte sowie zum Ausgeben der ermittelten Abmessung.

Description

Vermessen einer Abmessung auf einer Oberfläche
Die Erfindung betrifft eine Vorrichtung, ein Fahrzeug und ein Verfahren zum
Vermessen einer Abmessung zwischen zumindest zwei Punkten auf Oberflächen. Es sind unterschiedliche Verfahren und Vorrichtungen zur zweidimensionalen Vermessung von Oberflächen, wie z. B. Fahrzeugoberflächen, und zur
dreidimensionalen Vermessung von Objekten, insbesondere von Fahrzeugen und Versandpaketen, bekannt. Die DE 10 2012 005 966 A1 offenbart eine Vorrichtung zur Erzeugung einer flächenhaften Darstellung eines dreidimensionalen Körpers, indem paralleles Licht zur Projektion eines Schattenbilds des dreidimensionalen Körpers verwendet wird.
Die US 2004/0075847 A1 beschreibt eine Sensorenanordnung zur
Höhenbestimmung eines Fahrzeugs, wobei das zu untersuchende Fahrzeug zwischen zwei Säulen bewegbar ist, in denen lichtemittierende und
lichtempfangende Einrichtungen derart angeordnet sind, dass das Fahrzeug bzw. ein jeweiliger Abschnitt des Fahrzeugs die Lichtstrahlen zwischen diesen Einrichtungen unterbricht, so dass anhand der unterbrochenen Lichtstrahlen die Höhe des
Fahrzeugabschnitts festgestellt werden kann.
Die CH 701 106 A2 offenbart ein Verfahren und eine Vorrichtung zum Vermessen der räumlichen Ausdehnung eines Objekts, wobei mittels zweier Messanordnungen, von denen die eine als waagerecht verlaufende Lichtschrankenanordnung
ausgebildet ist und die andere senkrecht verlaufende Laserstrahlen mit einer Kamera als zugehörigen Sensor aufweist, der Höhenverlauf und die Bodenkontur eines Fahrzeugs ermittelt werden kann, wenn das Fahrzeug während des Messvorgangs durch beide Messanordnungen hindurchbewegt wird. Die US 6,195,019 B1 erläutert eine Vorrichtung zur Klassifikation von Fahrzeugen und ein Mautsystem, wobei die Vorrichtung zur Fahrzeugklassifikation oberhalb einer Fahrbahn angeordnet ist, auf der sich Fahrzeuge durch eine von einem
Laserscanner aufgespannten Detektionszone hindurchbewegen. Die Detektionszone ist einerseits längs zur Fahrtrichtung und andererseits quer zur Fahrtrichtung aufgespannt.
Die JP 31 10725 B2 offenbart eine flächenhafte Messung mit mehreren
Messsensoren von oben.
Die EP 0 828 990 B1 beschreibt eine Vorrichtung zur Bestimmung der Abmessungen eines Objekts, insbesondere eines Objekts auf einem sich bewegenden Förderer für Paketsortier- und -handhabungseinsätze. Die zu erfassenden Objekte bewegen sich auf einem Förderband und werden von einem Laserscanner von oben abgetastet.
Die EP 0 858 055 A2 erläutert eine Vorrichtung und ein Verfahren zur Vermessung von Poststücken, wobei die Poststücke von einer Kamera, vorzugsweise von oben, erfasst werden und aus den erfassten Bildern die Abmessungen des Poststücks bestimmt werden.
Die WO 03/025498 A1 offenbart ein System und ein Verfahren zur Messung der Dimensionen von sich bewegenden Paketen, wobei Lichtstrahlen auf das Objekt gerichtet werden und deren Reflektionen über einen Parabolspiegel mit Hilfe eines Lichtdetektors erfasst werden und aus den erfassten Reflektionen die Abmessungen des Objekts in einer Dimension bestimmt werden.
Die DE 10 2013 103 897 A1 beschreibt ein Kameramodul zum zeilenweisen
Abtasten eines Objekts mit zumindest einem zellenförmigen Sensor und einem Objektiv zum Abbilden des Objekts auf den Sensor. Das Kameramodul weist mehrere Zeilensensoren auf, die mit unterschiedlichem Abstand zum Objektiv angeordnet sind, sodass Bildlinien mit unterschiedlichem Abstand zum Objektiv auf die jeweiligen Zeilensensoren abgebildet werden. Der vorliegenden Erfindung liegt die Aufgabe zugrunde, eine Vorrichtung und ein Verfahren für ein Fahrzeug zu schaffen, mit welchen Abmessungen von einem Objekt oder mehreren Objekten oder zwischen Objekten in der Umgebung des Fahrzeugs genau vermessen werden können.
Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausgestaltungen sind in den jeweiligen Unteransprüchen enthalten.
Die vorliegende Erfindung betrifft eine Vorrichtung zum Vermessen einer Abmessung zwischen zumindest zwei Punkten auf zumindest einer Oberfläche für ein Fahrzeug, umfassend
- zumindest eine Bilderzeugungseinrichtung zum Abtasten der Fahrzeugumgebung,
- eine Anzeigeeinrichtung zum Darstellen des Abbilds der Fahrzeugumgebung,
- eine Eingabeeinrichtung zum Festlegen zumindest zweier Punkte als Messpunkte, zwischen denen die Abmessungen zu ermitteln sind, in der dargestellten Abbildung,
- zumindest einen Umfeldsensor zum Erfassen der Entfernung und der Richtung der Messpunkte bzgl. des Fahrzeugs und
- eine Auswerteeinrichtung zum Ermitteln der Abmessung anhand der erfassten Entfernungen und Richtungen der Messpunkte sowie zum Ausgeben der ermittelten Abmessung.
Mit der Vorrichtung zum Vermessen einer Abmessung zwischen Messpunkten auf zumindest einer Oberfläche können unter Nutzung der bereits am Fahrzeug vorhandenen Sensorik einfach und präzise derartige Abmessungen ermittelt werden.
Eine genaue Vermessung zweier Punkte an zumindest einer Oberfläche in der Umgebung eines Fahrzeugs erlaubt z. B. das Abmessen von Durchfahrten in Breite und/oder Höhe, wie z. B. bei Garagen- bzw. Toreinfahrten. Es können auch schnell und einfach Passagen zwischen parkenden bzw. haltenden Fahrzeugen vermessen werden, sodass ein Fahrzeuglenker entscheiden kann, ob er mit seinem Fahrzeug diese Passage durchfahren kann. Solche Situationen treten z. B. auf, wenn
Lastwagen in engen Straßen parken und einen Großteil des Fahrwegs blockieren. Will man in Warenlager oder Lagerhäuser einfahren, kann es vorteilhaft sein, die entsprechenden Passagen vorab zu vermessen. Dies gilt insbesondere, wenn das Fahrzeug ein großer Lastwagen ist, der nicht ohne weiteres gewendet werden kann. Weiterhin können zu transportierende Güter vermessen werden. Dies ist
insbesondere in Verbindung mit Fahrzeugen, die zum Transport solcher Güter dienen, wie z. B. Flurfördergeräten, Traktoren oder dergleichen, zweckmäßig. Die erfassten Maße der Güter können gespeichert und bei der weiteren Handhabung der Güter verwendet werden. Beispielsweise können Durchfahrten oder Lagerstellen mit dem erfindungsgemäßen Verfahren ausgemessen werden, woraus bestimmt werden kann, ob die Güter hindurchpassen oder dort abgelegt werden können. Weiterhin können im Fahrzeug zu verstauende Gepäckstücke vorab vermessen werden.
Vorzugsweise ist das Verfahren derart weitergebildet, dass es überprüft, ob die
Gepäckstücke im Laderaumvolumen aufgenommen werden können, und selbsttätig Vorschläge für die Anordnung der einzelnen Gepäckstücke im Laderaumvolumen ermittelt und an der Anzeigeeinrichtung darstellt. Hierdurch lässt sich einerseits eine dichte und andererseits eine vorschriftsmäßige Beladung des Fahrzeugs
bewerkstelligen.
Die erfindungsgemäße Vorrichtung kann dabei eine oder mehrere
Bilderzeugungseinrichtungen aus folgender Gruppe aufweisen:
- Kamera,
- Stereokamera,
- Wärmebildkamera,
- 3D-Laufzeitkamera,
- Laserscanner bzw. Rotationslaser bzw. Lidar,
- Radar.
Solche Bilderzeugungseinrichtungen sind oftmals bereits an Fahrzeugen vorhanden.
In einer bevorzugten Ausführungsform der erfindungsgemäßen Vorrichtung sind eine oder mehrere der Bilderzeugungseinrichtungen drehbar bzw. schwenkbar und/oder zoombar ausgebildet.
Durch eine solche Drehbarkeit bzw. Schwenkbarkeit wird es ermöglicht Messpunkte festzulegen, die ansonsten bei Verwendung von starr angeordneten
Bilderzeugungseinrichtungen nicht festlegbar wären. Durch das Bereitstellen von zoombaren Bilderzeugungseinrichtungen wird die Genauigkeit der Festlegung der Messpunkte erhöht, indem in dem durch das Zoomen vergrößerten Bildausschnitt ein Messpunkt präziser festgelegt werden kann. Die erfindungsgemäße Vorrichtung kann einen oder mehrere Umfeldsensoren aus folgender Gruppe aufweisen:
- Stereokamera,
- 3D-Laufzeitkamera,
- Kamera mit Autofokuseinrichtung bzw. Entfernungsmesser,
- optisches Abstandsmessgerät mit Zeilenkamera,
- Laserscanner bzw. Rotationslaser bzw. Lidar,
- Radar,
- Ultraschallsensor. In einer bevorzugten Ausführungsform der erfindungsgemäßen Vorrichtung sind einer oder mehrere Umfeldsensoren drehbar bzw. schwenkbar ausgebildet.
Durch eine solche Drehbarkeit bzw. Schwenkbarkeit wird es ermöglicht die
Entfernung und Richtung von Messpunkten zu erfassen, die ansonsten bei
Verwendung von starr angeordneten Umfeldsensoren nicht erfassbar wären.
In einer weiteren Ausführungsform der erfindungsgemäßen Vorrichtung stellt die zumindest eine Bilderzeugungseinrichtung auch den Umfeldsensor dar bzw. es sind beide in einem Sensor(-gehäuse) integriert.
Die sich daraus ergebenden Vorteile sind, dass das Fahrzeug kostengünstig mit Sensoren ausgestattet werden kann, die am Fahrzeug vorhandenen Sensoren effizient eingesetzt werden, und insbesondere durch die Integration ein Versatz zwischen der Bilderzeugungseinrichtung und dem Umfeldsensor vermieden wird. Ein solcher Versatz kann nämlich bei nicht identischen bzw. nicht integrierten Sensoren gegebenenfalls dazu führen, dass mittels der Bilderzeugungseinrichtung zwar ein Punkt auf einer Oberfläche als Messpunkt festgelegt werden kann, dieser Messpunkt aber aufgrund eines Hindernisses, das sich in direkter Linie zwischen dem
Umfeldsensor und dem Messpunkt befindet, nicht erfassbar ist. Dies wird durch das Ausbilden ein und desselben Sensors als Bilderzeugungseinrichtung und Umfeldsensor vermieden, da die Blickrichtung in beiden Fällen identisch ist.
In einer bevorzugten Ausführungsform der erfindungsgemäßen Vorrichtung sind mehrere Bilderzeugungseinrichtungen und/oder mehrere Umfeldsensoren derart angeordnet, dass sie mit ihrer Blickrichtung in unterschiedliche Richtungen weisen.
Durch eine solche Anordnung wird ermöglicht, das komplette Fahrzeugumfeld erfassen zu können, ohne das Fahrzeug zu bewegen.
In einer weiteren bevorzugten Ausführungsform der erfindungsgemäßen Vorrichtung sind eine oder mehrere Bilderzeugungseinrichtungen und/oder ein oder mehrere Umfeldsensoren derart angeordnet, dass sie vom Fahrzeug aus, insbesondere von der Unterseite bzw. vom Unterboden des Fahrzeugs aus, den Bodenbereich unterhalb des Fahrzeugs abtasten. Zusätzlich können diese Sensoren mit einer Lichtquelle als Beleuchtungseinrichtung ausgebildet sein.
Durch das Abtasten des Bodenbereiches wird es ermöglicht, auch unter dem
Fahrzeug befindliche Punkte als Messpunkte festzulegen und zu erfassen.
Insbesondere ist dies vorteilhaft, wenn auf dem Boden angebrachte Markierungen mit in eine Vermessung einbezogen werden sollen. Eine Lichtquelle ermöglicht dabei ein Festlegen bzw. Erfassen von Messpunkten, die aufgrund der dunkleren
Lichtverhältnisse unterhalb der Karosserie des Fahrzeugs ohne Beleuchtung nicht festlegbar bzw. erfassbar wären.
In einer bevorzugten Ausführungsform der erfindungsgemäßen Vorrichtung sind ein oder mehrere Fahrbewegungssensoren zur Detektion der Bewegung des Fahrzeugs vorgesehen. Dabei ist die Auswerteeinrichtung derart ausgebildet, dass an
unterschiedlichen Fahrzeugpositionen jeweils ein Messpunkt abgetastet werden kann. Dabei wird beim Ermitteln der Abmessung die Bewegung des Fahrzeugs mit berücksichtigt.
Dadurch wird es ermöglicht, bei Fahrzeugen, die nur eine geringe Anzahl von
Bilderzeugungseinrichtungen bzw. Umfeldsensoren aufweisen, auch Messpunkte festzulegen bzw. zu erfassen, die sich nicht im Sichtbereich des jeweiligen Sensors befinden. Die Fahrbewegungssensoren sind Sensoren, die die Bewegung bzw.
Trajektorie des Fahrwegs erfassen. Beispiele hierfür sind in folgender Gruppe aufgeführt:
Raddrehsensor, Lenkwinkelsensor, Beschleunigungssensor,
Geschwindigkeitsmesser, Drehzahlmesser in Verbindung mit einem Getriebesensor, Neigungssensor, Federwegsensor bzw. Fahrwerksensor.
Nach einem weiteren Aspekt der vorliegenden Erfindung ist ein Verfahren zum Vermessen einer Abmessung zwischen zumindest zwei Punkten auf zumindest einer Oberfläche für ein Fahrzeug vorgesehen, insbesondere mit der oben erläuterten Vorrichtung, das die Schritte umfasst
- Abtasten und Erzeugen eines Abbilds der Fahrzeugumgebung,
- Darstellen des Abbilds der Fahrzeugumgebung,
- Festlegen zumindest zweier Punkte als Messpunkte, zwischen denen die
Abmessungen zu ermitteln sind, in der dargestellten Abbildung,
- Erfassen der Entfernung und der Richtung der Messpunkte bzgl. des Fahrzeugs,
- Ermitteln der Abmessung anhand der erfassten Entfernungen und Richtungen der Messpunkte sowie Ausgeben der ermittelten Abmessung.
In einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens wird die Krümmung der Oberfläche zwischen den Messpunkten durch Erfassen der
Entfernung und der Richtung weiterer Punkte, die auf einer von der
Bilderzeugungseinrichtung und/oder vom Umfeldsensor aus auf der zumindest einen Oberfläche zwischen den Messpunkten gedachten, ggf. projizierten Linie liegen, detektiert. Die dadurch ermittelte Krümmung der Oberfläche wird beim Ermitteln der Abmessung mit berücksichtigt.
Dadurch kann beim Ermitteln einer Abmessung die dreidimensionale Form von Oberflächen mit einbezogen werden.
In einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens wird eine Vielzahl von Messpunkten abgetastet. Aus den durch die Abtastung ermittelten Daten wird ein Plan oder ein 3D-Modell der Fahrzeugumgebung erstellt. Dadurch lässt sich einfach und effizient mit der am Fahrzeug vorhandenen Sensorik ein solcher Plan oder ein solches 3D-Modell erstellen. Dabei kann der Plan einen Grundriss und/oder einen Aufriss umfassen.
In einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens werden aus den erfassten Daten vorbestimmte Objekte selbstständig ausgefiltert. Durch das selbstständige Ausfiltern können zum einen für eine Vermessung interessante Objekte bestimmt und zur Vermessung angeboten werden, zum anderen können die Objekte, die für eine Vermessung ungeeignet sind, erkannt werden, so dass diese nicht zur Vermessung angeboten werden. Insbesondere sind sich bewegende Objekte zur Vermessung ungeeignet, da die Messpunkte nicht ohne größere Abweichung festgelegt bzw. abgetastet werden können.
In einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens werden eine oder mehrere der folgenden Typen von vorbestimmten Objekten automatisch mittels Bildanalyse erfasst:
- Zaun,
- Grenzstein,
- Wand,
- Gebäudedecke,
- Boden,
- Außen- oder Innenkante eines Gebäudes,
- Fahrweg,
- Nivellierlatte,
- Bake,
- Pfosten,
- Durchfahrt,
- Einfahrt,
- Flurfördergerät,
- Transportgut,
- Transportpalette, - Lagerregal,
- Gepäckstück,
- Fahrzeug. Hierdurch wird das Ermitteln von Abmessungen bzw. die Erstellung von Plänen schneller und effizienter durchgeführt.
In einer vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens wird die Bewegung des Fahrzeugs detektiert, wenn das Fahrzeug zwischen dem Erfassen der Entfernung und der Richtung zweier Messpunkte bewegt wird. Diese detektierte Bewegung wird beim Ermitteln der Abmessung mit berücksichtigt.
Hierdurch wird es möglich mit einer Sensorik am Fahrzeug, die nicht sämtliche Bereiche in der Fahrzeugumgebung erfassen kann, Abmessungen zwischen Messpunkten auf Oberflächen zu ermitteln. Ebenso kann eine Vermessung auch dann durchgeführt werden, wenn durch ein Hindernis die direkte Sicht einer
Bilderzeugungseinrichtung und/oder eines Umfeldsensors auf einen Messpunkt behindert ist, beispielsweise durch ein Objekt in dessen jeweiliger Sichtlinie. Oftmals kann dann durch ein Bewegen des Fahrzeugs zwischen dem Erfassen der
Entfernung und der Richtung eines Messpunkts und dem Erfassen der Entfernung und der Richtung eines weiteren Messpunkts die Messung trotz des behindernden Objekts durchgeführt werden.
In einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens bewegt sich das Fahrzeug zwischen dem Erfassen der Entfernung und der Richtung der
Messpunkte autonom.
Durch eine autonome Bewegung des Fahrzeugs wird das automatische Vermessen auch von größeren Außen- oder Innenräumen ermöglicht. Dadurch können insbesondere Pläne effizienter erstellt werden.
In einer vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens wird nach dem Festlegen eines Messpunkts überprüft, ob der Messpunkt mit einem der Umfeldsensoren erfasst werden kann. Sollten an einem Fahrzeug eine Bilderzeugungseinrichtung und ein Umfeldsensor einen Versatz zueinander aufweisen, weil beide nicht identische Sensoren bzw. nicht in ein und demselben Sensor(-gehäuse) integriert sind, dann kann es dazu kommen, dass sich zwar ein Messpunkt auf einer Oberfläche in dem durch die
Bilderzeugungseinrichtung erstellten Abbild der Fahrzeugumgebung festlegen lässt, aber der Umfeldsensor aufgrund eines behindernden Objekts oder aufgrund seiner Ausrichtung die Entfernung und die Richtung zum Messpunkt nicht erfassen kann. Durch eine solche Überprüfung wird es möglich, dem die Vermessung
durchführenden Fahrzeuginsassen eine Meldung anzuzeigen, dass ein festgelegter Messpunkt nicht erfasst werden kann. Zusätzlich oder alternativ kann in einem solchen Fall eine Trajektohe berechnet werden, die entweder für den Fahrzeuglenker zum manuellen Abfahren angezeigt wird, oder die vom Fahrzeug autonom
abgefahren wird, um es einem der Umfeldsensoren des Fahrzeugs zu ermöglichen den Messpunkt trotzdem zu erfassen. Beim Erzeugen einer solchen Trajektohe werden vorteilhafterweise andere Messpunkte in der Fahrzeugumgebung erfasst und zur Vermeidung von Kollisionen bei der Berechnung der Trajektorie mit einbezogen. Um eine Berechnung einer solchen Trajektorie präziser durchführen zu können, können auch weitere am Fahrzeug vorhandene Systeme oder Einrichtungen bzw. deren Daten mit einbezogen werden, wie beispielsweise eine
Abstandsmesseinrichtung.
Abmessungen können 3D-Koordinaten, Entfernungen, Winkel, Durchmesser, Radien, etc. sein.
Nach einem weiteren Aspekt der vorliegenden Erfindung ist ein Fahrzeug
vorgesehen, das eine der oben erläuterten erfindungsgemäßen Vorrichtungen aufweist, wobei die Vorrichtung insbesondere eines der oben erläuterten
erfindungsgemäßen Verfahren ausführen kann.
Das erfindungsgemäße Fahrzeug kann einen Vierradantrieb und/oder zumindest eine Bodenfreiheit von zumindest 15 cm und vorzugsweise von zumindest 20 cm aufweisen. Mittels eines solchen Vierradantriebs und/oder einer solchen minimalen Bodenfreiheit ist eine Vermessung von Messpunkten auch im Gelände bzw. abseits von befestigten Fahrwegen möglich. Die Erfindung wird nachfolgend beispielhaft anhand der Zeichnungen näher erläutert. Die Zeichnungen zeigen in:
Figur 1 schematisch den Aufbau einer Vorrichtung zum Vermessen einer
Abmessung zwischen zumindest zwei Punkten auf Oberflächen, Figur 2 schematisch ein Fahrzeug mit der Vorrichtung zum Vermessen einer
Abmessung zwischen zumindest zwei Punkten auf Oberflächen in einer Seitenansicht,
Figur 3 schematisch das Fahrzeug aus Figur 2 in einer Heckansicht,
Figur 4 ein Verfahren zum Vermessen einer Abmessung zwischen zumindest zwei Punkten auf Oberflächen in einem Flussdiagramm,
Figur 5 schematisch eine autonome Vermessung eines Innenbereichs eines
Gebäudes,
Figur 6 schematisch ein Bewegen des Fahrzeugs zwischen dem Festlegen bzw. der Erfassung zweier verschiedener Messpunkte, und Figur 7 schematisch eine Vermessung zweier verschiedener Messpunkte eines
Objekts.
Nachfolgend wird ein erstes Ausführungsbeispiel einer Vorrichtung zum Vermessen einer Abmessung zwischen zumindest zwei Punkten auf Oberflächen für ein
Fahrzeug erläutert. Ein Fahrzeug 1 ist mit einer solchen Vermessungsvorrichtung 2 ausgebildet (Figuren 1 , 2, 3). Insbesondere ist das Fahrzeug 1 ein Kraftfahrzeug.
Die Vermessungsvorrichtung 2 weist eine Auswerteeinrichtung 3 auf, die als
Computer mit einer CPU-Speichereinrichtung und geeigneten Schnittstellen ausgebildet ist und die Vermessungsvorrichtung 2 zentral steuert. Auf der
Auswerteeinrichtung 3 ist ein Vermessungssoftwaremodul zum Verarbeiten von zweidimensionalen und dreidimensionalen Daten gespeichert und ausführbar.
Solche Daten können von verschiedenen am Fahrzeug 1 angeordneten Sensoren, insbesondere von Bilderzeugungseinrichtungen und/oder Umfeldsensoren, an die Auswerteeinrichtung 3 übermittelt werden.
Das Fahrzeug 1 ist mit einer Kamera 4/1 versehen, die am oberen Rand einer Frontscheibe des Fahrzeugs 1 mittig angeordnet ist (Fig. 2). Die Kamera 4/1 ist mit der Auswerteeinrichtung 3 verbunden und überträgt über diese Verbindung Bilddaten an die Auswerteeinrichtung 3 und nimmt darüber Steuerbefehle von der
Auswerteeinrichtung 3 entgegen. Die Kamera 4/1 ist am Fahrzeug 1 derart angeordnet, dass deren Blickrichtung nach schräg unten und in Fahrtrichtung 5 nach vorne gerichtet ist und umfasst vorzugsweise Stellmotoren (nicht gezeigt), mit denen sie horizontal und vertikal ausgerichtet sowie gezoomt werden kann. Die
Stellmotoren sind vorzugsweise mit der Auswerteeinrichtung 3 verbunden und werden von dieser angesteuert. Die Kamera 4/1 stellt eine
Bilderzeugungseinrichtung im Sinne der vorliegenden Erfindung dar, welche
Bilddaten bereitstellt, anhand derer Punkte auf Oberflächen als Messpunkte 6 festgelegt werden können.
Das Fahrzeug 1 ist mit einem Lidar 7/1 versehen, dass über der Kamera 4/1 am oberen Rand der Frontscheibe mittig angeordnet ist (Fig. 2). Das Lidar 7/1 ist mit der Auswerteeinrichtung 3 verbunden und überträgt über diese Verbindung 3D-Daten an die Auswerteeinrichtung 3 und nimmt darüber Steuerbefehle von der
Auswerteeinrichtung 3 entgegen. Das Lidar 7/1 ist am Fahrzeug 1 derart angeordnet, dass dessen Blickrichtung schräg nach oben und in Fahrtrichtung 5 nach vorne gerichtet ist und umfasst vorzugsweise Stellmotoren (nicht gezeigt), mit denen es horizontal und vertikal ausgerichtet werden kann. Die Stellmotoren sind
vorzugsweise mit der Auswerteeinrichtung 3 verbunden und werden von dieser angesteuert. Das Lidar 7/1 stellt einen Umfeldsensor im Sinne der vorliegenden Erfindung dar, welcher dreidimensionale Daten bereitstellt, insbesondere die
Entfernung und Richtung von Messpunkten 6, anhand derer Abmessungen ermittelt werden können.
Die Auswerteeinrichtung 3 ist mit einer Anzeigeeinrichtung 8, wie z. B. einem LCD- Bildschirm, verbunden, die sich im Inneren des Fahrzeugs 1 befindet. Auf der Anzeigeeinrichtung 8 wird ein Abbild der mittels der Kamera 4/1 aufgenommenen Fahrzeugumgebung dargestellt. Die Anzeigeeinrichtung 8 kann
berührungsempfindlich ausgebildet sein, so dass die Vermessungsvorrichtung 2 darüber bedient werden kann, d.h. deren Funktionen ausgelöst bzw. gesteuert werden.
Weiterhin ist die Auswerteeinrichtung 3 mit einer Eingabeeinrichtung 9 verbunden, die sich ebenfalls im Inneren des Fahrzeugs 1 befindet. Mit der Eingabeeinrichtung 9 kann die Vermessungsvorrichtung 2 bedient werden.
Die Bedienung der Vermessungsvorrichtung 2 umfasst das Steuern eines
Eingabecursors, der das auf der Anzeigeeinrichtung 8 dargestellte Bild überlagert. Der Eingabecursor lässt sich auf dem Abbild der Fahrzeugumgebung an beliebigen Punkten positionieren, die als Messpunkte 6 ausgewählt werden können. Die
Bedienung der Vermessungsvorrichtung 2 kann weiter das manuelle Steuern der Ausrichtung und des Zoombereichs der Kamera 4/1 und ggf. das manuelle Steuern der Ausrichtung des Lidars 7/1 umfassen.
Vorzugsweise ist die Vermessungsvorrichtung 2 mit einem oder mehreren
Fahrbewegungssensoren 1 1 verbunden, von denen sie Fahrbewegungsdaten erhält, die mit in die Ermittlung der Abmessungen mit einbezogen werden können.
Insbesondere kann hierdurch während einer Vermessung einer Abmessung das Fahrzeug 1 bewegt werden, ohne dass Messergebnisse verfälscht werden. Die Fahrbewegungssensoren sind ein oder mehrere der Sensoren aus folgender
Gruppe: Raddrehsensor, Lenkwinkelsensor, Beschleunigungssensor,
Geschwindigkeitsmesser, Drehzahlmesser in Verbindung mit einem Getriebesensor, Neigungssensor, eines Federwegsensor bzw. Fahrwerksensor und/oder andere geeignete Sensoren, die die Bewegung bzw. Trajektorie des Fahrzeugs erfassen.
Nachfolgend wird ein Verfahren zum Vermessen einer Abmessung zwischen zumindest zwei Punkten auf Oberflächen näher erläutert, das mittels der oben erläuterten Vermessungsvorrichtung 2 ausgeführt wird (Fig.4).
Das Verfahren beginnt im Schritt S1 . Im Schritt S2 wird mit der Kamera 4/1 ein Bild der Fahrzeugumgebung erfasst. Im darauffolgenden Schritt S3 wird das erfasste Bild an der Anzeigeeinrichtung 8 angezeigt. Dann folgt die Ausführung des Schritts S4, in dem einer oder mehrere Messpunkte 6 festgelegt werden, indem ein Benutzer der Vermessungsvorrichtung 2 mit der Eingabeeinrichtung 9 mit dem Eingabecursor in dem angezeigten Bild einen
Messpunkt 6 markiert. Hierbei kann der Benutzer die Kamera 4/1 manuell, so wie oben erläutert, steuern, so dass das Bild die gewünschten Messpunkte 6 zeigt.
Im darauffolgenden Schritt S5 erfasst die Auswerteeinrichtung 3 mit dem Lidar 7/1 die Entfernung und die Richtung des zuvor im Schritt S4 festgelegten Messpunkts 6 bzw. der zuvor im Schritt S4 festgelegten Messpunkte 6. Dann geht der Verfahrensablauf auf den Schritt S6 über, in dem der Benutzer angibt, ob er einen weiteren Messpunkt 6 erfassen möchte. Ist dieses der Fall, dann wird erneut der Schritt S2 ausgeführt.
Nach der Ausführung des Schritts S6 und vor der Ausführung des Schritts S2 kann optional der Schritt S7 ausgeführt werden, in dem eine Fahrzeugbewegung stattfindet und detektiert wird, sodass die Bewegungsdaten des Fahrzeugs 1 für die spätere Ermittlung der Abmessungen gespeichert werden kann. Nach der
Ausführung des optionalen Schritts S7 folgt die Ausführung des Schritts S2. Die Detektion der Fahrzeugbewegung bzw. der zurückgelegten Trajektorie kann mittels der Daten weiterer am Fahrzeug 1 vorhandener Fahrbewegungssensoren 1 1 erfolgen. Durch das Erfassen und Berücksichtigen der Bewegung bzw. Trajektorie des Fahrzeugs 1 zwischen dem Erfassen der Messpunkte 6, ist ein Bewegen des Fahrzeugs 1 während der Ausführung des Verfahrens möglich, ohne das
Messergebnis zu verfälschen. Dadurch können auch Abmessungen zwischen Messpunkten 6 ermittelt werden, die nicht gleichzeitig auf einem durch die Kamera 4/1 erfassten Bild dargestellt werden.
Ist in Schritt S6 festgestellt worden, dass kein weiterer Messpunkt 6 erfasst werden soll, so folgt die Ausführung des Schritts S8, in dem aus der erfassten Entfernung und Richtung des jeweiligen Messpunkts 6 die Abmessungen zwischen den
Messpunkten 6 ermittelt und an der Anzeigeeinrichtung 8 ausgegeben werden.
Zusätzlich kann hierbei der Benutzer aufgefordert werden, anzugeben, welche Abmessungen er angezeigt bekommen möchte.
Danach folgt die Ausführung des Schritts S9, in dem überprüft wird, ob der Betrieb fortzusetzen ist. Ist der Betrieb fortzusetzen, so wird erneut Schritt S2 ausgeführt. Ist der Betrieb nicht fortzusetzen, dann folgt die Ausführung des Schritts S10, in dem das Verfahren endet.
Nachfolgend wird ein zweites Ausführungsbeispiel einer Vorrichtung zum Vermessen einer Abmessung zwischen zumindest zwei Punkten auf Oberflächen für ein
Fahrzeug erläutert. Dieses Ausführungsbeispiel ist ähnlich ausgebildet wie das erste
Ausführungsbeispiel und umfasst die gleichen Einrichtungen, Vorrichtungen, Geräte etc., wobei für gleiche Teile, die bereits oben erläutert sind, dieselben Bezugszeichen verwendet werden. In Figur 1 sind die zusätzlichen Sensoren des zweiten
Ausführungsbeispiels mit einer strichlinierten Linie mit der Auswerteeinrichtung 3 verbunden.
Die Auswerteeinrichtung 3 ist mit einer Stereokamera 10/1 verbunden. Die
Stereokamera 10/1 kann zusammen mit einer oder mehreren Kameras 4 und einem oder mehreren Lidars 7 vorgesehen sein. Zwei Kameras 4 können auch gemeinsam als Stereokamera 10 verwendet werden. Hierzu weist die Auswerteeinrichtung 3 ein Steuerprogrammmodul auf, mit welchem die beiden Kameras 4 gleichzeitig je ein Bild aufnehmen, die an die Auswerteeinrichtung 3 weitergeleitet werden. Weiterhin müssen von den beiden Kameras 4 die relative Position zueinander und deren Blickrichtungen der Auswerteeinrichtung 3 bekannt sein. Die Auswerteeinrichtung 3 kann dann anhand dieser Informationen und den beiden erfassten Bildern die Entfernungen zu bestimmten Punkten im Stereobild bestimmen.
Die Stereokamera 10/1 ist in einem Außenspiegel an einer Beifahrerseite des Fahrzeugs 1 derart angeordnet, dass sie mit ihrer Blickrichtung vom Fahrzeug 1 weg nach unten gerichtet ist. Die Stereokamera 10/1 umfasst vorzugsweise Stellmotoren, mit denen sie horizontal und vertikal ausgerichtet sowie gezoomt werden kann. Die Stellmotoren sind vorzugsweise mit der Auswerteeinrichtung 3 verbunden und werden von dieser angesteuert. Die Stereokamera 10/1 stellt eine
Bilderzeugungseinrichtung im Sinne der vorliegenden Erfindung dar, welche
Bilddaten bereitstellt, anhand derer Punkte auf Oberflächen als Messpunkte 6 festgelegt werden können. Zusätzlich stellt die Stereokamera 10/1 einen
Umfeldsensor im Sinne der vorliegenden Erfindung dar, welcher dreidimensionale Daten bereitstellt, insbesondere die Entfernung und Richtung von Messpunkten 6, anhand derer Abmessungen ermittelt werden können.
Das oben für die Kamera 4/1 und Lidar 7/1 erläuterte Verfahren kann mit der
Stereokamera 10/1 entsprechend durchgeführt werden, wobei die Stereokamera 10/1 sowohl als Bilderzeugungseinrichtung als auch als Umfeldsensor verwendet wird.
Insbesondere können mit einer solchen Stereokamera 10/1 Gepäckstücke vor Beginn einer Fahrt vermessen werden. Sind in der Auswerteeinrichtung 3 die
Abmessungen eines Kofferraums des Fahrzeugs 1 hinterlegt, so kann die
Auswerteeinrichtung 3 anhand der Abmessungen der Gepäckstücke ermitteln, ob diese im Kofferraum ausreichend Platz haben. Zusätzlich kann die
Auswerteeinrichtung 3 Vorschläge zur Beladung an der Anzeigeeinrichtung 8 anzeigen, wobei die Auswerteeinrichtung 3 eine vorschriftsmäßige Beladung berücksichtigen kann.
Zum Vermessen der Gepäckstücke kann das Fahrzeug auch autonom um das Gepäckstück herum fahren, um mögliche im Schattenbereich liegende
Tiefenabmessungen des Gepäcks zu erfassen.
Verschiedene Erfassungsbereiche der Stereokamera 10/1 , die mit Hilfe eines Stellmotors einstellbar sind, sind in Fig. 3 schematisch gezeigt.
Das oben erläuterte Verfahren kann derart modifiziert werden, dass die Bewegung bzw. Trajektorie des Fahrzeugs 1 permanent erfasst wird, insbesondere zwischen den Schritten S4 und S5. Durch eine solche permanente Erfassung wird es auch bei keiner Überschneidung der Erfassungsbereiche der Bilderzeugungseinrichtung und des Umfeldsensors und/oder wenn der Umfeldsensors einen Messpunkt 6 auf Grund eines Hindernisses oder eines Versatzes nicht erfassen kann, ermöglicht eine Vermessung vorzunehmen, da das Fahrzeug 1 derart bewegt werden kann, dass jeder der zu erfassenden Messpunkte 6 von der Bilderzeugungseinrichtung und danach vom Umfeldsensor erfasst werden kann.
Sollte auf der Anzeigeeinrichtung 8 ein Messpunkt 6 vom Benutzer festgelegt werden, der mit einem der Umfeldsensoren des Fahrzeugs 1 nicht zu erfassen ist, so kann dem Benutzer auf der Anzeigeeinrichtung 8 eine Anweisung zum Bewegen des Fahrzeugs 1 angezeigt werden, so dass der Umfeldsensor nach erfolgter Bewegung des Fahrzeugs 1 den Messpunkt 6 erfassen kann.
Alternativ kann eine solche Bewegung des Fahrzeugs 1 auch autonom durchgeführt werden, indem die Auswerteeinrichtung 3 das Fahrzeug 1 steuert. Dabei können die Daten der erläuterten Bilderzeugungseinrichtungen und/oder Umfeldsensoren verwendet werden, um eine kollisionsfreie Trajektorie zu ermitteln. Ebenfalls können hierbei weitere Daten von anderen Vorrichtungen oder Einrichtungen, mit denen das Fahrzeug 1 versehen ist, ausgewertet werden, wie z.B. Daten eines
Abstandwarnsystems, eines Einparkhilfesystems (Ultraschallsensoren) etc.
Zusätzlich kann auch ein automatischer Vermessungsmodus vorgesehen sein, mit dem das Fahrzeug 1 Innenbereiche von Gebäuden (z. B. Tiefgaragen, Lagerhallen, Werkhallen) oder Außengelände (z. B. Baustellen, Parkplätze, Grundstücksgrenzen) nach Aktivierung durch den Benutzer vollautomatisch durch das Abtasten einer Vielzahl von Messpunkten 6 vermisst und das jeweilige Vermessungsareal bei Bedarf autonom beim Vermessen abfährt. Beim Abtasten einer Vielzahl von
Messpunkten 6 werden z. B. mittels einer automatischen Bilderkennungssoftware charakteristische Messpunkte, wie z. B. Kanten, Ecken von Wänden und Zäunen, erkannt und in regelmäßigen oder unregelmäßigen Abständen abgetastet. Durch das Festlegen bestimmter Bildmuster für derartige Messpunkte ist ein vollautomatisches Abtasten eines Innenbereichs eines Gebäudes oder eines Außengeländes möglich. Vorzugsweise werden auch vorbestimmte Hindernisse oder zusätzlich vorhandene Objekte, wie z. B. Personen oder Tiere, automatisch aus den Daten entfernt. Aus den dadurch gewonnen Daten lässt sich ein Plan, insbesondere ein Grundriss und/oder Aufriss, oder ein 3D-Modell der Fahrzeugumgebung erstellen. Eine solche autonome Vermessung eines Innenbereichs eines Gebäudes ist schematisch in Fig. 5 gezeigt, wobei die gestrichelte Linie einen kollisionsfreien Fahrweg anzeigt, der autonom abgefahren wird.
Zusätzlich oder alternativ kann die Erfassung von Abmessungen während der Fahrt des Fahrzeugs 1 derart erfolgen, dass Hindernisse auf dem Fahrweg oder
Durchfahrtsbreiten automatisch erfasst und deren Abmessungen ermittelt werden. Sollte das Fahrzeug 1 an einem Hindernis nicht vorbeipassen oder durch eine Durchfahrt nicht hindurchpassen, dann wird vorzugsweise eine Warnung an der Anzeigeeinrichtung 8 und/oder an einem Lautsprecher (nicht gezeigt), der mit der Auswerteeinrichtung 3 verbunden ist, ausgegeben. Bei einer solchen Erfassung von Durchfahrtsbreiten können auch Abmessungen von Ladegütern, insbesondere bei Bewegung durch ein Flurfördergerät (Gabelstapler, Hubwagen etc.), das das
Fahrzeug 1 darstellt, manuell oder automatisch erfasst und mit berücksichtigt werden.
Zusätzlich kann im oben erläuterten Verfahren zwischen den Schritten S4 und S5 eine Überprüfung stattfinden, ob ein im Abbild der Fahrzeugumgebung markierter Messpunkt 6 durch den Umfeldsensor erfasst werden kann. Dieses ist insbesondere bei einem Versatz zwischen der Bilderzeugungseinrichtung und dem Umfeldsensor, d. h. wenn beide nicht identisch zueinander sind, sowie bei Hindernissen, die die Bilderzeugungseinrichtung nicht behindern, aber den Erfassungsweg des
Umfeldsensors, vorteilhaft. Durch eine solche Überprüfung kann sichergestellt werden, dass ein zuvor im zweidimensionalen Abbild markierter Messpunkt 6 auch dreidimensional erfasst werden kann. Eine solche Überprüfung kann mittels verschiedener Methoden durchgeführt werden, die von den zur Verfügung stehenden Sensoren abhängen. Nachfolgend werden zwei Methoden erläutert, mit denen eine solche Überprüfung stattfinden kann.
Bei der ersten Uberprüfungsmethode wird eine Kamera 4 als
Bilderzeugungseinrichtung und ein Lidar 7 als Umfeldsensor verwendet. Die
Auswerteeinrichtung 3 richtet nach Festlegen eines Messpunkts 6 im Schritt Laserstrahl des Lidars 7 auf den Messpunkt 6 und ermittelt mit der Kamera 4, ob der Messpunkt 6 durch den Laserstrahl beleuchtet wird. Die Ausrichtung des
Laserstrahls kann dabei iterativ erfolgen, d. h. die Auswerteeinrichtung 3 korrigiert die Ausrichtung des Laserstrahls mit Hilfe der durch die Kamera 4 erfassten Bilder bis der Messpunkt 6 durch den Laserstrahl beleuchtet ist oder eine vorbestimmte Anzahl an Beleuchtungsversuchen erreicht oder eine vorbestimmte Zeit verstrichen ist. Sollte der Messpunkt 6 durch den Laserstrahl nicht zu beleuchten sein, so kann eine Fehlermeldung ausgegeben werden, ggf. mit einer Fahranweisung für den Fahrzeuglenker, oder die Auswerteeinrichtung verfährt das Fahrzeug 1 autonom derart, dass der Messpunkt 6 durch den Laserstrahl beleuchtet werden kann.
Bei der zweiten Überprüfungsmethode wird mit zumindest einem der
Umfeldsensoren ein dreidimensionaler Scan der Fahrzeugumgebung durchgeführt und durch geeignete Bildanalyseverfahren mit dem von der
Bilderzeugungseinrichtung erzeugten Abbild der Fahrzeugumgebung verglichen bzw. verknüpft. Hierbei können insbesondere Kantenverläufe sowie die Struktur und oder Farbe von Oberflächen mit berücksichtigt werden, um das zweidimensionale Bild mit den dreidimensionalen Daten zusammenzuführen. Die insbesondere durch einen Versatz zwischen der Bilderzeugungseinrichtung und dem Umfeldsensor
auftretenden Verzerrungen der dreidimensionalen Strukturen gegenüber dem zweidimensionalen Abbild können dabei durch Interpolationsverfahren eliminiert werden. Durch Anwenden einer solchen Methode lässt sich das Vorkommen eines Hindernisses ermitteln, das den Weg vom Umfeldsensor zum Messpunkt 6 blockiert. Der dreidimensionale Scan der Fahrzeugumgebung kann im Vergleich zur
Bestimmung der Entfernung mit dem Umfeldsensor sehr grob ausgeführt werden und lediglich zur Abschätzung von dem Vorhandensein von Objekten zwischen den Messeinrichtungen und den Zielbereichen dienen.
Zusätzlich kann im oben erläuterten Verfahren zwischen den Schritten S2 und S3 vom Bildverarbeitungssoftwaremodul aus den mit einer oder mehrerer
Bilderzeugungseinrichtungen erfassten Bildern zu vermessende bzw. vermessbare Objekte extrahiert werden, die dem Benutzer beim Anzeigen des Bildes in Schritt S3 zur Vermessung vorgeschlagen werden. Solche Objekte sind vorzugsweise einen Raum bzw. ein Fläche begrenzende Objekt, wie z.B. Zäune, Grenzsteine, Wände, Gebäudedecken, Böden, Außen- oder Innenkanten eines Gebäudes, Fahrwege, Nivellierlatten, Baken, Pfosten, Durchfahrten, Einfahrten, Flurfördergeräte,
Transportgüter, Transportpaletten, Lagerregale, Gepäckstücke, Fahrzeuge. Eine Objektextraktion lässt sich mit Hilfe eines Mustervergleichs an Hand der
gewonnenen 2D-Daten durchführen. Hierbei werden bewegliche bzw. sich
bewegende Objekte eliminiert, so dass nur statische bzw. unbewegliche bzw.
unbewegte Objekte übrig bleiben. Um die Objektextraktion genauer und effizienter durchführen zu können, können 3D-Daten der Umfeldsensoren mit einbezogen werden. Hierzu kann ein dreidimensionaler Scan der Umgebung erfolgen, wie er bereits oben erläutert ist.
Alternativ oder zusätzlich kann eine Eliminierung von sich bewegenden Objekten auch durch mehrfaches Erfassen von 2D- und/oder 3D-Daten über ein
vorbestimmtes Zeitintervall und Vergleichen der gewonnenen Daten miteinander erfolgen. Sind in den Daten sich bewegende Objekte vorhanden, so haben diese ihre Position verändert und können somit erkannt bzw. eliminiert werden.
Zusätzlich oder alternativ kann die Vermessungsvorrichtung 2 im Abbild der zu vermessenden bzw. vermessbaren Objekte auch zu erfassende Abmessungen, wie 3D-Koordinaten, Entfernungen (z. B. Höhe, Breite, Weite, Tiefe, Länge), Winkel, Durchmesser, Radien zur Vermessung vorschlagen, die dann automatisch ausgeführt wird. Es kann auch eine weitere Differenzierung nach bspw.
minimalen/maximalen/durchschnittlichen Abmaßen vorgenommen werden. Zum Beispiel kann die Abfrage erfolgen:„Soll die maximale Höhe/Breite des Objekts vermessen werden?" Ein Messbefehl kann auch per Sprachsteuerung eingegeben werden, wie z.B. :„Berechne den Durchschnitt aller Radien entlang einer Kante des Objekts" oder„Bestimme den minimalen und maximalen Winkel des
herangezoomten Bereiches". Zusätzlich oder alternativ kann die Krümmung der Oberfläche zwischen den
Messpunkten 6 durch Erfassen der Entfernung und der Richtung weiterer Punkte, die auf einer von der Bilderzeugungseinrichtung und/oder vom Umfeldsensor aus auf die Oberfläche zwischen den Messpunkten 6 gedachten, ggf. projizierten Linie liegen, detektiert werden. Dadurch kann beim Ermitteln einer Abmessung die dreidimensionale Form von Oberflächen mit einbezogen werden, so dass z. B. nicht nur ein direkter Abstand zweier Messpunkte 6 ermittelt werden kann, sondern auch die Länge einer Strecke zwischen den beiden Messpunkten 6, wobei sich die Strecke entlang der Oberfläche erstrecken kann. Das Festlegen und die Abtastung der weiteren Punkte erfolgt dabei vorzugsweise automatisch. Insbesondere lassen sich mit den so gewonnenen Daten 3D-Modelle von Oberflächen bzw. Objekten in der Fahrzeugumgebung erstellen.
Das Fahrzeug 1 kann zusätzlich oder alternativ zur Kamera 4/1 mit einer oder mehreren weiteren Kameras 4/2, 4/3 und/oder 4/4 versehen sein, wie in Fig. 2 gezeigt. Während die Kamera 4/2 am oberen Rand einer Heckscheibe des
Fahrzeugs 1 mittig angeordnet ist, ist die Kamera 4/3 mittig an einer vorderen Stoßstange des Fahrzeugs 1 und die Kamera 4/4 mittig an einer hinteren Stoßstange des Fahrzeugs 1 angeordnet. Während die Blickrichtung der Kamera 4/2 nach schräg unten und in Fahrtrichtung 5 nach hinten gerichtet ist, ist die Blickrichtung der Kamera 4/3 waagerecht in Fahrtrichtung 5 nach vorne und die Blickrichtung der Kamera 4/4 waagerecht in Fahrtrichtung 5 nach hinten gerichtet. Die Kameras 4/2, 4/3 und 4/4 sind mit der Auswerteeinrichtung 3 verbunden, weisen die gleichen Funktionen auf und umfassen vorzugsweise Stellmotoren, wie oben für die Kamera 4/1 erläutert. Die Kameras 4 können auch Bestandteil einer der Stereokameras 10 sein. Das oben für die Kamera 4/1 erläuterte Verfahren kann mit den Kameras 4/2, 4/3 und 4/4 entsprechend durchgeführt werden.
Ebenso kann das Fahrzeug 1 zusätzlich oder alternativ zum Lidar 7/1 mit einem oder mehreren weiteren Lidars 7 versehen sein. In Fig. 2 ist ein Lidar 7/2 gezeigt, dass über der Kamera 4/2 am oberen Rand der Heckscheibe mittig angeordnet ist und dessen Blickrichtung schräg nach oben und in Fahrtrichtung 5 nach hinten gerichtet ist. Das Lidar 7/2 ist mit der Auswerteeinrichtung 3 verbunden, weist die gleichen Funktionen auf und umfasst vorzugsweise Stellmotoren, wie oben für das Lidar 7/1 erläutert. Das oben für das Lidar 7/1 erläuterte Verfahren kann mit dem Lidar 7/2 entsprechend durchgeführt werden.
Zusätzlich oder alternativ zur Stereokamera 10/1 kann das Fahrzeug 1 mit weiteren Stereokameras 10/2, 10/3 und/oder 10/4 versehen sein, die am Unterboden des Fahrzeugs 1 angeordnet sind, wie in Fig. 2 gezeigt. Die Blickrichtungen der
Stereokameras 10/2, 10/3 und 10/4 sind auf den Boden unterhalb des Fahrzeugs 1 gerichtet. Mit den Stereokameras 10/2, 10/3 und 10/4 können z. B. Markierungen auf dem Boden erfasst und abgetastet und somit vermessen bzw. in Vermessungen einbezogen werden. Die Stereokameras 10/2, 10/3 und 10/4 sind mit der
Auswerteeinrichtung 3 verbunden, weisen die gleichen Funktionen auf und umfassen vorzugsweise Stellmotoren, wie oben für die Stereokamera 10/1 erläutert. Die Stereokameras 10/2, 10/3 und 10/4 können Lichtquellen als
Beleuchtungseinrichtungen aufweisen, so dass der Boden unter dem Fahrzeug 1 ausgeleuchtet werden kann und somit die Qualität der auf der Anzeigeeinrichtung 8 dargestellten Abbilder verbessert wird. Das oben für die Stereokamera 10/1 erläuterte Verfahren kann mit den Stereokameras 10/2, 10/3 und 10/4 entsprechend durchgeführt werden. Die oben erläuterte Vorrichtung bzw. das oben erläuterte Verfahren zum Vermessen einer Abmessung zwischen zumindest zwei Punkten auf Oberflächen lässt sich auf verschiedenste Weise abwandeln, wobei diese Abwandlungen nachfolgend erläutert sind. In Figur 1 sind die zusätzlichen Sensoren der Abwandlungen mit einer punktlinierten Linie mit der Auswerteeinrichtung 3 verbunden.
Gemäß einer ersten Abwandlung weist das Fahrzeug 1 zusätzlich oder alternativ zur Stereokamera 10/1 eine Stereokamera (nicht gezeigt) an einem Außenspiegel an einer Fahrerseite des Fahrzeugs 1 auf. Diese Stereokamera ist genau wie die Stereokamera 10/1 derart angeordnet, dass sie mit ihrer Blickrichtung vom Fahrzeug 1 weg nach unten gerichtet ist und mit der Auswerteeinrichtung 3 verbunden. Sie weist die gleichen Funktionen auf und umfasst vorzugsweise Stellmotoren, wie es oben für die Stereokamera 10/1 erläutert ist. Das oben für die Stereokamera 10/1 erläuterte Verfahren kann mit dieser Stereokamera an der Fahrerseite entsprechend durchgeführt werden.
Gemäß einer zweiten Abwandlung kann zusätzlich oder alternativ zu den oben erläuterten Umfeldsensoren (Lidar 7, Stereokamera 10) das Fahrzeug 1 mit einem Radar 12/1 und/oder 12/2 als Umfeldsensor versehen sein, wie in Figuren 1 und 2 gezeigt. Das Radar 12/1 ist über der Kamera 4/3 mittig an der vorderen Stoßstange des Fahrzeugs 1 und das Radar 12/1 ist über der Kamera 4/4 mittig an der hinteren Stoßstange des Fahrzeugs 1 angeordnet. Während die Blickrichtung des Radars 12/1 waagerecht in Fahrtrichtung 5 nach vorne gerichtet ist, ist die Blickrichtung des Radars 12/2 waagerecht in Fahrtrichtung 5 nach hinten gerichtet. Die Radare 12/1 und 12/2 sind mit der Auswerteeinrichtung 3 verbunden, weisen die gleichen
Funktionen auf und umfassen vorzugsweise Stellmotoren, wie oben für das Lidar 7/1 erläutert.
Zusätzlich oder alternativ zu den oben erläuterten Umfeldsensoren kann das
Fahrzeug 1 mit einem oder mehreren Ultraschallsensoren 13 als Umfeldsensor versehen sein, wie in Fig. 1 gezeigt. Die Ultraschallsensoren 13 sind mit der
Auswerteeinrichtung 3 verbunden, weisen die gleichen Funktionen auf und umfassen vorzugsweise Stellmotoren, wie oben für das Lidar 7/1 erläutert. Mittels der
Ultraschallsensoren 13, die oftmals bereits an Fahrzeugen 1 als Teil eines
Einparkhilfesystems vorhanden sind, lassen sich insbesondere in der näheren Umgebung um das Fahrzeug 1 Messungen vornehmen.
In den Figuren 6 und 7 ist ein Fahrzeug 1 mit einer Stereokamera 10/5 gezeigt, die am oberen Rand der Frontscheibe des Fahrzeugs 1 mittig derart angeordnet ist, dass sie mit ihrer Blickrichtung vom Fahrzeug 1 in Fahrtrichtung 5 nach vorne gerichtet ist. Die Stereokamera 10/5 ist mit der Auswerteeinrichtung 3 verbunden, weist die gleichen Funktionen auf und umfasst vorzugsweise Stellmotoren, wie oben für die Stereokamera 10/1 erläutert. Das oben für die Stereokamera 10/1 erläuterte Verfahren kann mit der Stereokamera 10/5 entsprechend durchgeführt werden.
Fig. 6 zeigt schematisch ein Bewegen des Fahrzeugs 1 zwischen dem Festlegen bzw. der Erfassung zweier verschiedener Messpunkte 6/6 und 6/7 mittels der Stereokamera 10/5 in einem Innenraum eines Gebäudes. Dabei zeigt die gestrichelte Linie einen Fahrweg des Fahrzeugs 1 an, der während des Vermessungsvorgangs befahren wird. Als erstes wird der Messpunkt 6/6 festgelegt und vermessen, dann das Fahrzeug 1 bewegt und danach der Messpunkt 6/7 festgelegt und vermessen.
Fig. 7 zeigt schematisch eine Vermessung zweier verschiedener Messpunkte 6/8 und 6/9 eines Objekts mittels der Stereokamera 10/5. Das Objekt ist dabei eine Skulptur. Als erstes wird der Messpunkt 6/8 festgelegt und vermessen und danach der Messpunkt 6/9 festgelegt und vermessen.
Grundsätzlich sind mehrere verschiedene Sensorarten als
Bilderzeugungseinrichtung bzw. Umfeldsensoren geeignet, die an verschiedenen Stellen des Fahrzeugs 1 angeordnet und in verschiedene Richtungen gerichtet sein können. Die jeweiligen Positionen der verbauten Sensoren am Fahrzeug 1 sowie deren mögliche Ausrichtung sind dabei in der Auswerteeinrichtung hinterlegt.
Eine Bilderzeugungseinrichtung im Sinne der vorliegenden Erfindung ist eine Kamera 4, eine Stereokamera 10, eine Wärmebildkamera bzw. Infrarotkamera, eine SD- Laufzeitkamera, ein Lidar 7 und ein Radar 12. Aus den von den dreidimensional erfassenden Sensoren erzeugten 3D-Daten können dabei Abbilder der
Fahrzeugumgebung in Form von zweidimensionalen Daten errechnet werden. Die Wärmebildkamera bzw. Infrarotkamera kann auch zum Detektieren von Lebewesen, insbesondere Personen und Tieren, dienen. Diese Lebewesen können aus den Daten entfernt werden, wenn z. B. Pläne automatisch erstellt werden.
Ein Umfeldsensor im Sinne der vorliegenden Erfindung ist ein Lidar 7, eine
Stereokamera 10, eine 3D-Laufzeitkamera, eine Kamera mit Autofokuseinrichtung bzw. Entfernungsmesser, ein optisches Abstandsmessgerät mit Zeilenkamera, ein Radar 12 und/oder ein Ultraschallsensor 13. Grundsätzlich kann jeder Umfeldsensor auch als Bilderzeugungseinrichtung verwendet werden, da aus den erzeugten 3D- Daten Abbilder der Fahrzeugumgebung in Form von zweidimensionalen Daten errechnet werden können.
Diese Daten der Fahrzeugumgebung können als Referenzpunkte relativ zu einem Messobjekt verwendet werden. So können bspw. die 3D-Objektkoordinaten relativ zu Raumkoordinaten vermessen werden. Bspw. kann es sinnvoll sein, ein Objekt an einer gewissen Raumkoordinate zu platzieren und auszurichten. Dabei ist es zweckmäßig mit Hilfe der Umfeldsensoren die Lage/Koordinaten des Fahrzeugs relativ zu den Raumkoordinaten und im weiteren Schritt die Objektkoordinaten relativ zu den Fahrzeugkoordinaten zu kennen, um auf die Objektkoordinaten relativ zum Raum schließen zu können. Grundsätzlich können die Einstellungen der oben erläuterten Stellmotoren durch den Bediener mittels der Eingabeeinrichtung 9 und/oder einer berührungsempfindlichen Anzeigeneinrichtung 8 vorgenommen werden. Die Zoomfunktion ermöglicht dem Bediener dabei einen Messpunkt 6 genauer zu bestimmen, indem die
Bilderzeugungseinrichtung ein herangezoomtes d. h. vergrößertes Abbild der Fahrzeugumgebung erfasst, das an der Anzeigeeinrichtung 8 dargestellt wird.
Bezugszeichen
1 Fahrzeug
2 Vermessungsvorrichtung
3 Auswerteeinrichtung
4 Kamera
5 Fahrtrichtung
6 Messpunkt
7 □dar
8 Anzeigeeinrichtung
9 Eingabeeinrichtung
10 Stereokamera
1 1 Fahrbewegungssensor
12 Radar
13 Ultraschallsensor

Claims

Patentansprüche
1 . Vorrichtung zum Vermessen einer Abmessung zwischen zumindest zwei Punkten auf zumindest einer Oberfläche für ein Fahrzeug (1 ), umfassend
- zumindest eine Bilderzeugungseinrichtung (4, 7, 10, 12) zum Abtasten der
Fahrzeugumgebung,
- eine Anzeigeeinrichtung (8) zum Darstellen des Abbilds der Fahrzeugumgebung,
- eine Eingabeeinrichtung (9) zum Festlegen zumindest zweier Punkte als
Messpunkte (6), zwischen denen die Abmessungen zu ermitteln sind, in der dargestellten Abbildung,
- zumindest einen Umfeldsensor (7, 10, 12, 13) zum Erfassen der Entfernung und der Richtung der Messpunkte (6) bzgl. des Fahrzeugs (1 ) und
- eine Auswerteeinrichtung (3) zum Ermitteln der Abmessung anhand der erfassten Entfernungen und Richtungen der Messpunkte (6) sowie zum Ausgeben der ermittelten Abmessung.
2. Vorrichtung nach Anspruch 1 ,
dadurch gekennzeichnet,
dass die Vorrichtung eine oder mehrere Bilderzeugungseinrichtungen aus folgender Gruppe aufweist:
- Kamera (4),
- Stereokamera (10),
- Wärmebildkamera,
- 3D-Laufzeitkamera,
- Laserscanner bzw. Rotationslaser bzw. Lidar (7),
- Radar (12).
3. Vorrichtung nach Anspruch 1 oder 2,
dadurch gekennzeichnet,
dass eine oder mehrere Bilderzeugungseinrichtungen (4, 7, 10, 12) drehbar bzw. schwenkbar und/oder zoombar ausgebildet sind.
4. Vorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet,
dass die Vorrichtung einen oder mehrere Umfeldsensoren aus folgender Gruppe aufweist:
- Stereokamera (10),
- 3D-Laufzeitkamera,
- Kamera mit Autofokuseinrichtung bzw. Entfernungsmesser,
- optisches Abstandsmessgerät mit Zeilenkamera,
- Laserscanner bzw. Rotationslaser bzw. Lidar (7),
- Radar (12),
- Ultraschallsensor (13).
5. Vorrichtung nach einem der Ansprüche 1 bis 4,
dadurch gekennzeichnet,
dass einer oder mehrere Umfeldsensoren (7, 10, 12, 13) drehbar bzw. schwenkbar ausgebildet sind.
6. Vorrichtung nach einem der Ansprüche 1 bis 5,
dadurch gekennzeichnet,
dass die zumindest eine Bilderzeugungseinrichtung auch den Umfeldsensor darstellt.
7. Vorrichtung nach einem der Ansprüche 1 bis 6,
dass mehrere Bilderzeugungseinrichtungen (4, 7, 10, 12) und/oder mehrere
Umfeldsensoren (7, 10, 12, 13) derart angeordnet sind, dass sie mit ihrer
Blickrichtung in unterschiedliche Richtungen weisen.
8. Vorrichtung nach einem der Ansprüche 1 bis 7,
dadurch gekennzeichnet,
dass eine oder mehrere Bilderzeugungseinrichtungen (4, 10) und/oder ein oder mehrere Umfeldsensoren (10, 13) derart angeordnet sind, dass sie vom Fahrzeug (1 ) aus, insbesondere von der Unterseite bzw. vom Unterboden des Fahrzeugs (1 ) aus, den Bodenbereich unterhalb des Fahrzeugs (1 ) abtasten und ggf. mit einer
Lichtquelle als Beleuchtungseinrichtung ausgebildet sind.
9. Vorrichtung nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet,
dass ein oder mehrere Fahrbewegungssensoren (1 1 ) zur Detektion der Bewegung des Fahrzeugs (1 ) vorgesehen sind und die Auswerteeinrichtung (3) derart ausgebildet ist, dass an unterschiedlichen Fahrzeugpositionen jeweils ein Messpunkt (6) abgetastet werden kann, wobei beim Ermitteln der Abmessung die Bewegung des Fahrzeugs (1 ) mit berücksichtigt wird.
10. Verfahren zum Vermessen einer Abmessung zwischen zumindest zwei Punkten auf zumindest einer Oberfläche für ein Fahrzeug (1 ), insbesondere mit einer
Vorrichtung nach einem der Ansprüche 1 bis 9, die Schritte umfassend
- Abtasten und Erzeugen eines Abbilds der Fahrzeugumgebung,
- Darstellen des Abbilds der Fahrzeugumgebung,
- Festlegen zumindest zweier Punkte als Messpunkte (6), zwischen denen die Abmessungen zu ermitteln sind, in der dargestellten Abbildung,
- Erfassen der Entfernung und der Richtung der Messpunkte (6) bzgl. des Fahrzeugs (1 ),
- Ermitteln der Abmessung anhand der erfassten Entfernungen und Richtungen der Messpunkte (6) sowie Ausgeben der ermittelten Abmessung.
1 1 . Verfahren nach Anspruch 10,
dadurch gekennzeichnet,
dass die Krümmung der zumindest einen Oberfläche zwischen den Messpunkten (6) durch Erfassen der Entfernung und der Richtung weiterer Punkte, die auf einer von der Bilderzeugungseinrichtung (4, 7, 10, 12) und/oder vom Umfeldsensor (7, 10, 12, 13) aus auf die Oberfläche zwischen den Messpunkten (6) gedachten, ggf.
projizierten Linie liegen, detektiert und beim Ermitteln der Abmessung mit
berücksichtigt wird.
12. Verfahren nach einem der Ansprüche 10 oder 1 1 ,
dadurch gekennzeichnet,
dass eine Vielzahl von Messpunkten (6) abgetastet und aus den durch die Abtastung ermittelten Daten ein Plan oder ein 3D-Modell der Fahrzeugumgebung erstellt wird.
13. Verfahren nach Anspruch 12, dadurch gekennzeichnet,
dass der Plan einen Grundriss und/oder einen Aufriss umfasst.
14. Verfahren nach einem der Ansprüche 10 bis 1 3,
dadurch gekennzeichnet,
dass aus den erfassten Daten vorbestimmte Objekte selbständig ausgefiltert werden.
15. Verfahren nach einem der Ansprüche 10 bis 14,
dadurch gekennzeichnet,
dass einer oder mehrere der folgenden Typen von vorbestimmten Objekten automatisch mittels Bildanalyse erfasst werden:
- Zaun,
- Grenzstein,
- Wand,
- Gebäudedecke,
- Boden,
- Außen- oder Innenkante eines Gebäudes,
- Fahrweg,
- Nivellierlatte,
- Bake,
- Pfosten,
- Durchfahrt,
- Einfahrt,
- Flurfördergerät,
- Transportgut,
- Transportpalette,
- Lagerregal,
- Gepäckstück,
- Fahrzeug.
1 6. Verfahren nach einem der Ansprüche 10 bis 1 5,
dadurch gekennzeichnet, dass das Fahrzeug (1 ) zwischen dem Erfassen der Entfernung und der Richtung zweier Messpunkte (6) bewegt wird, wobei die Bewegung des Fahrzeugs (1 ) detektiert und beim Ermitteln der Abmessung mit berücksichtigt wird.
17. Verfahren nach Anspruch 1 6,
dadurch gekennzeichnet,
dass sich das Fahrzeug (1 ) zwischen dem Erfassen der Entfernung und Richtung der Messpunkte (6) autonom bewegt.
18. Verfahren nach einem der Ansprüche 10 bis 1 7,
dadurch gekennzeichnet,
dass nach dem Festlegen eines Messpunkts (6) überprüft wird, ob mit einem der Umfeldsensoren (7, 10, 12, 13) der Messpunkt (6) erfasst werden kann.
19. Verfahren nach einem der Ansprüche 10 bis 1 8,
dadurch gekennzeichnet,
dass Abmessungen 3D-Koordinaten, Entfernungen, Winkel, Durchmesser, Radien sind, welche weiterhin in minimal, maximal und durchschnittliche Werte klassifiziert werden können.
20. Fahrzeug, das eine Vorrichtung nach einem der Ansprüche 1 bis 9 aufweist, wobei die Vorrichtung insbesondere ein Verfahren nach einem der Ansprüche 10 bis 19 ausführt.
21 . Fahrzeug nach Anspruch 20,
dadurch gekennzeichnet,
dass das Fahrzeug (1 ) einen Vierradantrieb und/oder eine Bodenfreiheit von zumindest 15 cm und vorzugsweise von zumindest 20 cm aufweist.
PCT/EP2016/050328 2015-01-27 2016-01-11 Vermessen einer abmessung auf einer oberfläche WO2016120044A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201680003802.5A CN107003409B (zh) 2015-01-27 2016-01-11 在表面上的尺寸的测量
US15/659,956 US10611307B2 (en) 2015-01-27 2017-07-26 Measurement of a dimension on a surface

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015201317.0A DE102015201317A1 (de) 2015-01-27 2015-01-27 Vermessen einer Abmessung auf einer Oberfläche
DE102015201317.0 2015-01-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/659,956 Continuation US10611307B2 (en) 2015-01-27 2017-07-26 Measurement of a dimension on a surface

Publications (1)

Publication Number Publication Date
WO2016120044A1 true WO2016120044A1 (de) 2016-08-04

Family

ID=55077517

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2016/050328 WO2016120044A1 (de) 2015-01-27 2016-01-11 Vermessen einer abmessung auf einer oberfläche

Country Status (4)

Country Link
US (1) US10611307B2 (de)
CN (1) CN107003409B (de)
DE (1) DE102015201317A1 (de)
WO (1) WO2016120044A1 (de)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10814690B1 (en) 2017-04-18 2020-10-27 Apple Inc. Active suspension system with energy storage device
US10899340B1 (en) 2017-06-21 2021-01-26 Apple Inc. Vehicle with automated subsystems
US10906370B1 (en) 2017-09-15 2021-02-02 Apple Inc. Active suspension system
US10960723B1 (en) 2017-09-26 2021-03-30 Apple Inc. Wheel-mounted suspension actuators
US11046143B1 (en) 2015-03-18 2021-06-29 Apple Inc. Fully-actuated suspension system
US11124035B1 (en) 2017-09-25 2021-09-21 Apple Inc. Multi-stage active suspension actuator
US11173766B1 (en) 2017-09-07 2021-11-16 Apple Inc. Suspension system with locking structure
US11179991B1 (en) 2019-09-23 2021-11-23 Apple Inc. Suspension systems
US11285773B1 (en) 2018-09-12 2022-03-29 Apple Inc. Control system
US11345209B1 (en) 2019-06-03 2022-05-31 Apple Inc. Suspension systems
US11358431B2 (en) 2017-05-08 2022-06-14 Apple Inc. Active suspension system
US11634167B1 (en) 2018-09-14 2023-04-25 Apple Inc. Transmitting axial and rotational movement to a hub
US11707961B1 (en) 2020-04-28 2023-07-25 Apple Inc. Actuator with reinforcing structure for torsion resistance
US11828339B1 (en) 2020-07-07 2023-11-28 Apple Inc. Vibration control system
US11938922B1 (en) 2019-09-23 2024-03-26 Apple Inc. Motion control system
US12017498B2 (en) 2022-04-29 2024-06-25 Apple Inc. Mass damper system

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015201317A1 (de) * 2015-01-27 2016-07-28 Bayerische Motoren Werke Aktiengesellschaft Vermessen einer Abmessung auf einer Oberfläche
JP6456173B2 (ja) * 2015-02-04 2019-01-23 日立建機株式会社 車体外部移動物体検知装置
DE102016217916A1 (de) 2016-09-19 2018-03-22 Volkswagen Aktiengesellschaft Verfahren, Assistenzsystem und computerlesbares Speichermedium mit Instruktionen zum Auswerten fahrwegbezogener Informationen
JP2018065482A (ja) * 2016-10-20 2018-04-26 本田技研工業株式会社 乗員保護装置
US10007262B1 (en) * 2016-12-28 2018-06-26 Robert Bosch Gmbh System for monitoring underneath an autonomous vehicle
DE102017111931A1 (de) * 2017-05-31 2018-12-06 Valeo Schalter Und Sensoren Gmbh Verfahren zum Überwachen eines Bodenbereichs unterhalb eines Kraftfahrzeugs mittels einer optischen Sensoreinrichtung, Sensorvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
CN109709530A (zh) 2017-10-26 2019-05-03 株式会社小糸制作所 传感系统及车辆
US10647282B2 (en) * 2017-11-06 2020-05-12 Magna Electronics Inc. Vehicle vision system with undercarriage cameras
CN108153308A (zh) * 2017-12-21 2018-06-12 李华 用于机器人车辆自动驾驶的复合视觉激光导航系统及其控制方法
EP3525000B1 (de) * 2018-02-09 2021-07-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtungen zur objektdetektion in einer szene auf basis von lidar-daten und radar-daten der szene
DE102018002966A1 (de) * 2018-04-12 2019-08-01 Daimler Ag Verfahren und Vorrichtung zur Durchführung einer Abfahrtskontrolle sowie Verwendung
DE102018206751A1 (de) * 2018-05-02 2019-11-07 Continental Automotive Gmbh Konturerkennung eines fahrzeugs anhand von messdaten einer umfeldsensorik
US20200023834A1 (en) * 2018-07-23 2020-01-23 Byton North America Corporation Assisted driving system for clearance guidance
KR102616205B1 (ko) * 2018-10-08 2023-12-21 주식회사 에이치엘클레무브 후방 경보 장치, 그 방법 및 제어 시스템
US11379788B1 (en) 2018-10-09 2022-07-05 Fida, Llc Multilayered method and apparatus to facilitate the accurate calculation of freight density, area, and classification and provide recommendations to optimize shipping efficiency
DE102018127990A1 (de) * 2018-11-08 2020-05-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Verarbeitungseinheit zur Ermittlung von Information in Bezug auf ein Objekt in einem Umfeld eines Fahrzeugs
EP3654064B1 (de) * 2018-11-16 2021-01-13 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und verfahren zur charakterisierung eines objekts auf basis von messproben von einem oder mehreren ortssensoren
US11423570B2 (en) 2018-12-26 2022-08-23 Intel Corporation Technologies for fusing data from multiple sensors to improve object detection, identification, and localization
US11276189B2 (en) * 2019-03-06 2022-03-15 Qualcomm Incorporated Radar-aided single image three-dimensional depth reconstruction
DE102019215903A1 (de) * 2019-10-16 2021-04-22 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten eines Sensors insbesondere eines Fahrzeugs, Verfahren zum Trainieren und Verfahren zum Ansteuern
DE102020200716A1 (de) * 2020-01-22 2021-08-05 Volkswagen Aktiengesellschaft Verfahren zum Steuern einer Antriebseinheit eines Kraftwagens, Parkassistenzsystem für einen Kraftwagen und Kraftwagen mit einem solchen Parkassistenzsystem
US11122211B2 (en) * 2020-02-18 2021-09-14 GM Global Technology Operations LLC Modular under-vehicle camera
CN113218303B (zh) * 2021-03-22 2023-03-14 苏州世椿新能源技术有限公司 尺寸检测方法及尺寸检测系统
WO2024099659A1 (de) * 2022-11-07 2024-05-16 Robert Bosch Gmbh Verfahren zur direkten detektion von objekten

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0858055A2 (de) 1995-09-29 1998-08-12 Siemens Nixdorf Informationssysteme AG Vorrichtung zur Vermessung von Poststücken
WO1999060335A1 (en) * 1998-05-15 1999-11-25 Measurement Devices Limited Survey apparatus
EP0828990B1 (de) 1995-06-02 1999-12-22 Accu-Sort Systems, Inc. Dimensionierungssystem
JP3110725B2 (ja) 1998-12-24 2000-11-20 川崎重工業株式会社 物体の幅、高さ、位置の計測方法及び装置
US6195019B1 (en) 1998-01-20 2001-02-27 Denso Corporation Vehicle classifying apparatus and a toll system
WO2003025498A1 (en) 2001-09-20 2003-03-27 Advanced Optical Systems, Inc. System and method for measuring the dimensions of moving packages
US20040075847A1 (en) 2002-10-18 2004-04-22 Mccracken Thomas N. Sensor arrangement to determine vehicle height
US7184088B1 (en) * 1998-10-28 2007-02-27 Measurement Devices Limited Apparatus and method for obtaining 3D images
CH701106A2 (de) 2009-05-18 2010-11-30 Skyline Parking Ag Verfahren und Vorrichtung zum Vermessen der räumlichen Ausdehnung eines Objektes.
US20100321490A1 (en) * 2009-06-23 2010-12-23 Xin Chen Determining A Geometric Parameter from a Single Image
DE102012005966A1 (de) 2012-03-23 2013-09-26 S.E.A. - Science & Engineering Applications Datentechnik GmbH Vorrichtung und Verfahren zur Erzeugung einer flächenhaften Darstellung eines dreidimensionalen Körpers sowie Beleuchtungseinrichtung dazu
DE102013103897A1 (de) 2012-04-25 2013-10-31 Chromasens Gmbh Kameramodul, Produktüberwachungsvorrichtung mit einem solchen Kameramodul und Verfahren zum Abtasten eines Objektes

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5208750A (en) * 1987-06-17 1993-05-04 Nissan Motor Co., Ltd. Control system for unmanned automotive vehicle
US5517419A (en) * 1993-07-22 1996-05-14 Synectics Corporation Advanced terrain mapping system
JP3212218B2 (ja) * 1994-05-26 2001-09-25 三菱電機株式会社 車両用障害物検出装置
JPH08212499A (ja) * 1995-02-03 1996-08-20 Suzuki Motor Corp 先行車接近警報装置
US6891563B2 (en) * 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
US6980690B1 (en) * 2000-01-20 2005-12-27 Canon Kabushiki Kaisha Image processing apparatus
JP4739569B2 (ja) * 2001-04-09 2011-08-03 パナソニック株式会社 運転支援装置
US7066388B2 (en) * 2002-12-18 2006-06-27 Symbol Technologies, Inc. System and method for verifying RFID reads
DE10261018A1 (de) * 2002-12-24 2004-07-08 Robert Bosch Gmbh Abstandsmessvorrichtung
EP1467225A1 (de) * 2003-04-10 2004-10-13 IEE International Electronics & Engineering S.A.R.L. Einparkhilfe für ein Fahrzeug
DE10326431A1 (de) * 2003-06-10 2005-01-13 Daimlerchrysler Ag Vorrichtung und Verfahren zur Bestimmung der Position von Objekten im Umfeld eines Fahrzeuges
IT1337796B1 (it) * 2004-05-11 2007-02-20 Fausto Siri Procedimento per il riconoscimento, l'analisi e la valutazione delle deformazioni in particolare in automezzi
JP4883517B2 (ja) * 2004-11-19 2012-02-22 学校法人福岡工業大学 三次元計測装置および三次元計測方法並びに三次元計測プログラム
CN2904001Y (zh) * 2005-08-22 2007-05-23 上海市上海中学 复合激光着陆导航设备
JP4654208B2 (ja) * 2007-02-13 2011-03-16 日立オートモティブシステムズ株式会社 車載用走行環境認識装置
EP2120009B1 (de) * 2007-02-16 2016-09-07 Mitsubishi Electric Corporation Messgerät und messverfahren
DE102007019267A1 (de) * 2007-04-24 2008-10-30 Degudent Gmbh Messanordnung sowie Verfahren zum dreidimensionalen Messen eines Objekts
EP2234085B1 (de) * 2007-12-18 2011-11-30 Honda Motor Co., Ltd. Gerät zur Beurteilung der Parkplatzverfügbarkeit für Fahrzeuge
DE102008004632A1 (de) * 2008-01-16 2009-07-23 Robert Bosch Gmbh Vorrichtung und Verfahren zur Vermessung einer Parklücke
KR20090088210A (ko) * 2008-02-14 2009-08-19 주식회사 만도 두 개의 기준점을 이용한 목표주차위치 검출 방법과 장치및 그를 이용한 주차 보조 시스템
JP5182042B2 (ja) * 2008-11-28 2013-04-10 富士通株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
JP2010183170A (ja) * 2009-02-03 2010-08-19 Denso Corp 車両用表示装置
JP5165631B2 (ja) * 2009-04-14 2013-03-21 現代自動車株式会社 車両周囲画像表示システム
DE102009023896B4 (de) * 2009-06-04 2015-06-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erfassen einer Pflanze
US8138899B2 (en) * 2009-07-01 2012-03-20 Ford Global Technologies, Llc Rear camera backup assistance with touchscreen display using two points of interest
KR101126891B1 (ko) * 2010-01-12 2012-03-20 삼성메디슨 주식회사 슬라이스 영상을 제공하는 초음파 시스템 및 방법
JP5071743B2 (ja) * 2010-01-19 2012-11-14 アイシン精機株式会社 車両周辺監視装置
WO2011154987A1 (ja) * 2010-06-07 2011-12-15 三菱電機株式会社 カメラ距離測定装置
EP2481637B1 (de) * 2011-01-28 2014-05-21 Nxp B.V. Parkhilfesystem und -verfahren
US8736463B1 (en) * 2012-01-30 2014-05-27 Google Inc. Object bounding box estimation
US20130308013A1 (en) * 2012-05-18 2013-11-21 Honeywell International Inc. d/b/a Honeywell Scanning and Mobility Untouched 3d measurement with range imaging
DE102013207906A1 (de) * 2013-04-30 2014-10-30 Bayerische Motoren Werke Aktiengesellschaft Geführte Fahrzeugpositionierung für induktives Laden mit Hilfe einer Fahrzeugkamera
CN103499337B (zh) * 2013-09-26 2015-07-15 北京航空航天大学 一种基于立式标靶的车载单目摄像头测距测高装置
CN103487034B (zh) * 2013-09-26 2015-07-15 北京航空航天大学 一种基于立式标靶的车载单目摄像头测距测高方法
DE102015201317A1 (de) * 2015-01-27 2016-07-28 Bayerische Motoren Werke Aktiengesellschaft Vermessen einer Abmessung auf einer Oberfläche
EP3062066A1 (de) * 2015-02-26 2016-08-31 Hexagon Technology Center GmbH Bestimmung von Objektdaten durch vorlagenbasierte UAV-Steuerung
US10817065B1 (en) * 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
CN107918753B (zh) * 2016-10-10 2019-02-22 腾讯科技(深圳)有限公司 点云数据处理方法及装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0828990B1 (de) 1995-06-02 1999-12-22 Accu-Sort Systems, Inc. Dimensionierungssystem
EP0858055A2 (de) 1995-09-29 1998-08-12 Siemens Nixdorf Informationssysteme AG Vorrichtung zur Vermessung von Poststücken
US6195019B1 (en) 1998-01-20 2001-02-27 Denso Corporation Vehicle classifying apparatus and a toll system
WO1999060335A1 (en) * 1998-05-15 1999-11-25 Measurement Devices Limited Survey apparatus
US7184088B1 (en) * 1998-10-28 2007-02-27 Measurement Devices Limited Apparatus and method for obtaining 3D images
JP3110725B2 (ja) 1998-12-24 2000-11-20 川崎重工業株式会社 物体の幅、高さ、位置の計測方法及び装置
WO2003025498A1 (en) 2001-09-20 2003-03-27 Advanced Optical Systems, Inc. System and method for measuring the dimensions of moving packages
US20040075847A1 (en) 2002-10-18 2004-04-22 Mccracken Thomas N. Sensor arrangement to determine vehicle height
CH701106A2 (de) 2009-05-18 2010-11-30 Skyline Parking Ag Verfahren und Vorrichtung zum Vermessen der räumlichen Ausdehnung eines Objektes.
US20100321490A1 (en) * 2009-06-23 2010-12-23 Xin Chen Determining A Geometric Parameter from a Single Image
DE102012005966A1 (de) 2012-03-23 2013-09-26 S.E.A. - Science & Engineering Applications Datentechnik GmbH Vorrichtung und Verfahren zur Erzeugung einer flächenhaften Darstellung eines dreidimensionalen Körpers sowie Beleuchtungseinrichtung dazu
DE102013103897A1 (de) 2012-04-25 2013-10-31 Chromasens Gmbh Kameramodul, Produktüberwachungsvorrichtung mit einem solchen Kameramodul und Verfahren zum Abtasten eines Objektes

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11046143B1 (en) 2015-03-18 2021-06-29 Apple Inc. Fully-actuated suspension system
US11945279B1 (en) 2015-03-18 2024-04-02 Apple Inc. Motion control system
US10814690B1 (en) 2017-04-18 2020-10-27 Apple Inc. Active suspension system with energy storage device
US11358431B2 (en) 2017-05-08 2022-06-14 Apple Inc. Active suspension system
US11701942B2 (en) 2017-05-08 2023-07-18 Apple Inc. Motion control system
US10899340B1 (en) 2017-06-21 2021-01-26 Apple Inc. Vehicle with automated subsystems
US11702065B1 (en) 2017-06-21 2023-07-18 Apple Inc. Thermal management system control
US11173766B1 (en) 2017-09-07 2021-11-16 Apple Inc. Suspension system with locking structure
US10906370B1 (en) 2017-09-15 2021-02-02 Apple Inc. Active suspension system
US11065931B1 (en) 2017-09-15 2021-07-20 Apple Inc. Active suspension system
US11124035B1 (en) 2017-09-25 2021-09-21 Apple Inc. Multi-stage active suspension actuator
US10960723B1 (en) 2017-09-26 2021-03-30 Apple Inc. Wheel-mounted suspension actuators
US11285773B1 (en) 2018-09-12 2022-03-29 Apple Inc. Control system
US11634167B1 (en) 2018-09-14 2023-04-25 Apple Inc. Transmitting axial and rotational movement to a hub
US11345209B1 (en) 2019-06-03 2022-05-31 Apple Inc. Suspension systems
US11731476B1 (en) 2019-09-23 2023-08-22 Apple Inc. Motion control systems
US11938922B1 (en) 2019-09-23 2024-03-26 Apple Inc. Motion control system
US11179991B1 (en) 2019-09-23 2021-11-23 Apple Inc. Suspension systems
US11707961B1 (en) 2020-04-28 2023-07-25 Apple Inc. Actuator with reinforcing structure for torsion resistance
US11828339B1 (en) 2020-07-07 2023-11-28 Apple Inc. Vibration control system
US12017498B2 (en) 2022-04-29 2024-06-25 Apple Inc. Mass damper system

Also Published As

Publication number Publication date
DE102015201317A1 (de) 2016-07-28
US20170320437A1 (en) 2017-11-09
US10611307B2 (en) 2020-04-07
CN107003409B (zh) 2021-05-07
CN107003409A (zh) 2017-08-01

Similar Documents

Publication Publication Date Title
WO2016120044A1 (de) Vermessen einer abmessung auf einer oberfläche
DE19921449C1 (de) Leithilfe bei einem Fahrspurwechsel eines Kraftfahrzeuges
DE19723963C2 (de) Objekterkennungsvorrichtung und -verfahren für Fahrzeuge
EP3084466B1 (de) Verfahren zum detektieren einer auf einem boden aufgebrachten markierung, fahrerassistenzeinrichtung und kraftfahrzeug
EP1848626B1 (de) Vorrichtung zum verbringen eines kraftfahrzeugs in eine zielposition
EP1928687B1 (de) Verfahren und fahrerassistenzsystem zur sensorbasierten anfahrtsteuerung eines kraftfahrzeugs
EP2920778B1 (de) Verfahren zum durchführen eines zumindest semi-autonomen parkvorgangs eines kraftfahrzeugs in eine garage, parkassistenzsystem und kraftfahrzeug
EP2081167B1 (de) Verfahren und Vorrichtung zur Erkennung und/oder Vermessung einer Parklücke
DE102019127058A1 (de) Fahrzeugwegplanung
DE102006010735B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
EP2764812B1 (de) Reinigungsroboter
DE102009005553A1 (de) Verfahren und Vorrichtung zur Erkennung der Umgebung eines Kraftfahrzeugs
WO2010115580A1 (de) Verfahren und vorrichtung zur objekterkennung
EP2568310A2 (de) Verfahren, System sowie Vorrichtung zur Lokalisation eines Fahrzeugs relativ zu einem vordefinierten Bezugssystem
DE102018220298A1 (de) Einparkassistenzverfahren und Vorrichtung
EP3295117A1 (de) Vorrichtung zur bestimmung eines für ein fahrzeug befahrbaren raums, entsprechendes verfahren und fahrzeug
DE102018205964A1 (de) Verfahren und Steuergerät zum Navigieren eines autonomen Flurförderfahrzeugs
DE102018107173B4 (de) Parkassistenzverfahren, dieses nutzende Parkassistenzvorrichtung und Programm
WO2019201537A1 (de) Verfahren und steuergerät zum kennzeichnen einer person
DE102016111079A1 (de) Verfahren zur Objekthöhenerkennung eines Objektes in der Umgebung eines Kraftfahrzeugs sowie Fahrerassistenzsystem
DE102013012771A1 (de) Vorrichtung und Verfahren zur Steuerung des Zugangs zu einem zugangsbeschränkten Bereich
DE102020121504A1 (de) Antriebssteuervorrichtung für ein autonom fahrendes Fahrzeug, Halteziel und Antriebssteuersystem
DE102019134695A1 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und sich bewegendes Subjekt
DE102019206582A1 (de) Vorrichtung, System, Verfahren und Computerprogram zur Geschwindigkeitsregelung eines Fahrzeugs

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16700204

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16700204

Country of ref document: EP

Kind code of ref document: A1