WO2014118386A1 - Vermessungsanordnung und verfahren zur vermessung - Google Patents

Vermessungsanordnung und verfahren zur vermessung Download PDF

Info

Publication number
WO2014118386A1
WO2014118386A1 PCT/EP2014/052121 EP2014052121W WO2014118386A1 WO 2014118386 A1 WO2014118386 A1 WO 2014118386A1 EP 2014052121 W EP2014052121 W EP 2014052121W WO 2014118386 A1 WO2014118386 A1 WO 2014118386A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection system
position detection
orientation
unreferenced
surveying arrangement
Prior art date
Application number
PCT/EP2014/052121
Other languages
English (en)
French (fr)
Inventor
Anko BÖRNER
Sergey Zuev
Denis GRIEßBACH
Dirk BAUMBACH
Maximilian Buder
Andre CHOINOWSKI
Original Assignee
Deutsches Zentrum für Luft- und Raumfahrt e.V.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum für Luft- und Raumfahrt e.V. filed Critical Deutsches Zentrum für Luft- und Raumfahrt e.V.
Publication of WO2014118386A1 publication Critical patent/WO2014118386A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation

Definitions

  • the invention relates to a surveying arrangement and a method for measuring, in particular of closed rooms.
  • the inspection of industrial plants and buildings serves, for example, for the early detection of damage and / or the guarantee of operational safety.
  • sensor systems that collect the data required for this purpose
  • Be gas sensors The data generated by these sensor systems can, however, usually only be used meaningfully and usefully if they are spatially referenced. In other words, a position, ie position and / or orientation, of the sensor system should also be known for each measurement signal.
  • Position detection by means of a GNSS ensures such spatial referencing of measurement data in external areas with a position accuracy of a few centimeters, e.g. when using a differential GPS (Global Positioning System), up to a few meters.
  • the determination of an orientation is not possible with GNSS.
  • the functionality and accuracy of the GNSS may be compromised.
  • the quality of the GNSS may be compromised.
  • Position measurement by GNSS may be affected under adverse conditions, such as shadowing and multiple reflections.
  • terrestrial microwave transmitter and receiver units can be used. So can
  • RFID Radio Frequency Identification
  • pseudolite systems or WLAN-based systems for spatial referencing
  • WLAN-based systems for spatial referencing can be used, but require appropriate technical equipment of the measurement environment in advance of the
  • Double integration can be processed to orientation and position values. By this principle large errors are accumulated quickly, which only by the
  • Inertialmesssystemen can be bypassed.
  • compass-based systems can also be used. All these Systems can be used indoors. Maps created in advance (eg building footprints, electric field strength maps) are often found
  • the published DE 10 201 1 084 690.5 describes a camera comprising at least one optical system, at least one optical detector, which is arranged in a focal plane of the optics, and an evaluation unit, wherein the camera comprises at least one light source and at least one diffractive optical element, wherein by means of the light source, the diffractive optical element can be illuminated, so that this generates different plane waves, which are each punctiform imaged by the optics on the optical detector and evaluated by the evaluation at least for geometric calibration, and a method for geometric calibration of a camera.
  • Location detection systems for generating position and / or orientation data, wherein the location detection systems are in relation to the environment unreferen ownede position detection systems.
  • the surveying arrangement detects its own position and orientation in a relative coordinate system whose origin is e.g. can be adjusted by a user.
  • the measurement data is stored referenced to local position and / or orientation data of the attitude detection systems acquired in this relative coordinate system.
  • a layer at least partially describes a position and / or an orientation of an object.
  • a position can be described by three translation parameters, for example.
  • three translation parameters for example.
  • Translational parameters include an x-parameter, a y-parameter and a z-parameter in a Cartesian coordinate system.
  • An orientation can be described for example by three rotation parameters.
  • rotation parameters may include a rotation angle ⁇ about an x-axis, a rotation angle ⁇ about a y-axis, and a rotation angle K about a z-axis of the Cartesian coordinate system.
  • a layer can include up to 6 parameters.
  • Proposed is a surveying arrangement, wherein the surveying arrangement can also be referred to as surveying system.
  • the surveying arrangement is used in particular for the measurement of closed rooms, in particular for the measurement of mines, buildings and tunnels. Alternatively or cumulatively, the surveying arrangement is used to measure outside areas with disturbed or missing GNSS reception.
  • surveying means that measurement signals whose detection is triggered automatically or manually by a user are generated and spatially referenced. In addition, measurement data can also be referenced in time.
  • the surveying arrangement comprises at least one sensory system for
  • the sensory system may include, for example
  • the surveying arrangement comprises a first unreferenced position detection system for generating first position and / or orientation data and at least one second unreferenced position detection system for generating second position and / or orientation data.
  • a position detection system designates a system which makes it possible to acquire or generate position and / or orientation data which contain at least partial information for determining a position and / or an orientation of the position
  • a position detection system can be a barometer.
  • the first and at least second position detection systems operate on the basis of independent physical measurement principles. This advantageously allows for improved redundancy and increased accuracy in the detection of position and / or orientation information.
  • the term "unreferenced" here means that the generated position and / or orientation data are determined exclusively relative to a system coordinate system of the position detection systems or relative to a common coordinate system of the position detection systems, wherein the common coordinate system is stationary and rotationally fixed with respect to the surveying arrangement.
  • Coordinate system of the first position detection system can be determined. Accordingly, the second position and / or orientation data can also be determined in a system-specific coordinate system of the second position detection system.
  • unreferenced can mean that the unreferenced position detection system makes it impossible to clearly identify the position and / or orientation, eg in a global coordinate system. So the position and / or orientation, is necessary, by means of the unreferenced
  • Positioning system is not detectable or determinable. For example, a unique spatial referencing in a parent, eg
  • Coordinate system can be determined, even if individual parameters of the situation in the parent coordinate system can be detected. For example, you can
  • Tilt sensors two orientation angles and magnetic sensors one
  • Unreferenced also means that no spatial reference to a previously known spatial map is known.
  • a position may refer to a Cartesian
  • Coordinate system can be determined with three linearly independent axes. This allows the position detection system to detect a movement with three
  • orientation data can be determined as the angle of rotation about the three axes of the Cartesian coordinate system, for example according to the so-called yaw pitch-roll convention (yaw pitch-roll angle convention).
  • yaw pitch-roll angle convention yaw pitch-roll angle convention
  • an origin of the coordinate system may be e.g. be set when switching on the position detection system, ie at the beginning of a power supply, or at the beginning of a measurement process or when generating an initialization signal. This means that at one of the points in time explained above, current position and / or orientation coordinates are reset or zeroed, with subsequently all acquired position and / or orientation data being determined relative to the set origin of the coordinate system.
  • the surveying arrangement comprises at least one storage device.
  • the measurement data and the position and / or orientation information encoded by the first and / or second position and / or orientation data, in particular temporally corresponding to one another, can be stored in the memory device with reference to one another, ie with a previously known association with one another. This means that both the measurement data and the corresponding position and / or orientation information are stored.
  • the position and / or orientation information may be in the form of unprocessed output signals (raw signals) of the unreferenced position detection systems. Also, the position and / or orientation information can be processed by already processed
  • the measured data and the temporally corresponding first and / or second unprocessed position and / or orientation data can be stored referenced to one another.
  • the described surveying arrangement can be portable, in particular portable by a human user.
  • a positioning device for example on a vehicle, in particular on a robot.
  • the proposed surveying arrangement advantageously enables a spatial referencing of measured data even in enclosed spaces, in particular in interiors of e.g. Industrial plants or buildings. Because the spatial
  • Additional arrangements such as installed in the rooms transmitters is, results in an advantageous manner as simple and inexpensive as possible Verticiansanssen.
  • the use of at least two position detection systems advantageously increases the availability of position and / or orientation information as well as increased accuracy of the position and / or orientation information. If, for example, a position detection by means of one of the at least two position detection systems is not possible, for example due to external conditions or if the position detection system fails, positioning and / or orientation data or information of the remaining position detection system are still available.
  • the data stored by the surveying arrangement allow navigation in already measured rooms at a later time.
  • the data can also be used to create or compare investment or building models.
  • the surveying arrangement comprises a
  • Orientation data can be merged.
  • Orientation data can then be sent e.g. represent the previously explained position and / or orientation information.
  • Position detection systems are registered to each other.
  • both the first and the second position and / or orientation data are converted into a common coordinate system of the surveying arrangement.
  • the coordinate system of the surveying arrangement in this case refers to a location with respect to the surveying and rotationally fixed
  • the first unreferenced position detection system is as an optical position detection system and the at least second unreferenced
  • Position detection system designed as inertial position detection system.
  • a position change and / or orientation change is optically detected, e.g. image-based, recorded.
  • Position detection system is one or more inertial sensors used to detect acceleration and / or rotation rates. If e.g. Detected accelerations, so a current position can be determined on the basis of an already traveled path, wherein the distance covered by e.g. Double integration of the detected accelerations results. If a rate of rotation is detected, then a current angle, e.g. be determined by simple integration of the rotation rate.
  • Position detection systems usually allow a highly accurate determination of a location and / or orientation.
  • optical position detection system is as
  • a stereo camera system trained.
  • a stereo camera system advantageously allows a simple, image-based determination of a spatial position and / or spatial orientation of objects or persons in the field
  • Detection range of the stereo camera system This may require the Method for image-based feature or object recognition are performed, are detected by the corresponding persons or objects each by a camera of the stereo camera system.
  • Method for image-based feature or object recognition are performed, are detected by the corresponding persons or objects each by a camera of the stereo camera system.
  • other methods of image processing can be used, by which a determination of the spatial position and / or orientation is improved, for example, methods for
  • Stereo images or still images taken in succession may be used to produce a three-dimensional reconstruction
  • At least one panchromatic camera or a color camera in particular an RGB-based color camera, or an infrared camera can be used in the stereo camera system.
  • a color camera in particular an RGB-based color camera, or an infrared camera
  • a spatial resolution and / or a spectral resolution of the cameras used can be different from one another. This results in an advantageous manner that one of the cameras, as explained in more detail below, can be used as a measuring system, for example when using a spatially high-resolution RGB camera and a spatially low-resolution panchromatic camera.
  • the surveying arrangement comprises a
  • a geometric calibration of cameras is a basic prerequisite for their use as a position detection system.
  • the calibration may also be referred to as determining parameters of an internal orientation of the camera.
  • the aim is to determine a line of sight in the camera coordinate system for each pixel of an image generated by a camera of the stereo camera system.
  • the calibration device may in this case be designed, for example, such that a camera of the stereo camera system or all cameras of the stereo camera system comprise an optical system and at least one optical detector, which is arranged in a focal plane of the optical system, and an evaluation device.
  • the camera may comprise at least one light source and at least one diffractive optical element, wherein by means of Light source, the diffractive optical element can be illuminated so that it produces different plane waves, which are each punctiform imaged by the optics on the optical detector and evaluated by the evaluation at least for geometric calibration.
  • the diffractive optical element can in this case be illuminated by the optics by means of the light source.
  • the light source can be designed and aligned in such a way that it emits spherical wavefronts which pass through the optics into plane waves and strike the diffractive optical element.
  • the optical detector can be designed as a matrix sensor.
  • the at least one diffractive optical element can be integrated into the optics.
  • the diffractive optical element may be arranged on the optics.
  • the diffractive optical element can be arranged on a diaphragm of the optics.
  • the camera comprises a plurality of light sources having different emission directions.
  • the light source can be arranged in the focal plane. It is also possible that the light source comprises an optical phase whose aperture forms the light exit of the light source.
  • Diffractive optical elements are known in various embodiments, passive and active diffractive optical elements being known, the latter also being referred to as SLMs (Spatial Light Modulator).
  • SLMs can be designed, for example, as an adjustable micro-mirror array (reflective SLM) or as a transmitting or reflective liquid crystal display (liquid crystal, LC display). These can be actively controlled so that their diffraction structures can be changed over time.
  • Passive diffractive optical elements however, have a fixed diffraction pattern, which may be formed reflective or transmitiv.
  • the measuring system is simultaneously designed as an unreferenced position detection system.
  • the measuring system can be designed as a camera or camera system, which at the same time forms part of the
  • Stereo camera system is.
  • the measuring system generates image data as measured data, with the generated image data simultaneously serving to provide position information.
  • the surveying arrangement additionally comprises at least one further position detection system, e.g. a third one
  • the further position detection system may include, for example, a GNSS sensor or be designed as such.
  • a GNSS sensor enables position detection by receiving signals from navigation satellites and pseudolites.
  • the further position detection system can be designed as a laser scanner or comprise such a laser scanner.
  • the laser scanner can be a one-dimensional, two-dimensional or three-dimensional laser scanner which correspondingly permits a one-dimensional, two-dimensional or three-dimensional image of an environment of the measurement arrangement.
  • the further position detection system can be designed as a magnetometer.
  • a magnetometer refers to a device for detecting a magnetic flux density.
  • a magnetometer for example, a geomagnetic field or an overlay of the geomagnetic field and a further magnetic field, which is generated for example by an electric generator, are detected in the closed premises.
  • the magnetometer can also be used as a position detection system.
  • a tilt sensor can be used as another position detection system.
  • a tilt sensor can, for example, changes a
  • Detect inclination angle can in turn be used as a basis for determining an orientation of the surveying arrangement.
  • the inclination sensor can also detect an actual angular difference to a direction of gravitational acceleration.
  • the tilt sensor can work according to a spirit level.
  • the output signals of the previously explained position detection systems can be stored separately or with the first and second position and / or
  • At least sensory elements of the at least one sensory system for generating measured data, the first unreferenced position detection system and the second unreferenced position detection system are assigned to a sensor head unit.
  • the sensor head unit can in particular comprise a set of fastening elements to which at least the sensory elements of the at least one sensory system for generating measurement data, the first unreferenced position detection system and the second unreferenced position detection system, in particular mechanically, are fastened, in particular with a fixed one and / or predetermined position and / or orientation relative to each other.
  • the sensor head unit may denote an assembly of the sensory elements and a mounting unit in or on which the sensory elements are arranged, in particular mechanically fastened.
  • Sensory elements can in this case be the elements of the at least one sensory system for generating measurement data of the first unreferenced
  • Position detection system and the second unreferenced position detection system the corresponding measured values, e.g. in the form of the previously explained output signals, in particular in the form of unprocessed output signals.
  • the sensor head unit is arranged on or in a helmet.
  • the helmet at least a part of the previously explained
  • Form sensor head unit in particular at least a part of
  • the sensor head unit has at least one fastening device and the helmet has a corresponding fastening device, wherein the sensor head unit can be mechanically fastened to the helmet via the fastening devices.
  • the sensory elements can be integrated into or on a helmet, e.g. by a user when inspecting spaces to be measured and / or
  • outside areas can be worn on the head.
  • the helmet can be part of the proposed survey arrangement.
  • the sensor head unit is arranged on or in a hand-held device.
  • Handset may e.g. have a handle for manual handling.
  • at least a part of the handset can form at least a part of the sensor head unit explained above, in particular at least a part of the
  • the sensor head unit can have at least one fastening device and the handheld device to have a corresponding fastening device, wherein the sensor head unit can be mechanically fastened to the handheld device via the fastening devices.
  • the sensory elements can be integrated into or on a handset, e.g. can be carried by a user in an inspection of rooms to be measured and / or outdoor areas in the hand.
  • the handset may be part of the proposed surveying arrangement.
  • the sensor head unit is arranged on or in a portable housing.
  • the portable housing may, for example, comprise at least one carrying device for fastening the housing to a body of a user, for example on a chest area or on a shoulder area of the user.
  • the at least one support device can be any suitable carrying device for fastening the housing to a body of a user, for example on a chest area or on a shoulder area of the user.
  • the carrying device may in particular also comprise suitable closing or adjusting means, e.g. a buckle, a clamp or similar.
  • suitable closing or adjusting means e.g. a buckle, a clamp or similar.
  • at least a part of the portable housing can at least part of the previously explained
  • Form sensor head unit in particular at least a part of
  • the sensor head unit may have at least one fastening device and the portable one
  • Housing has a corresponding fastening device, wherein the
  • Sensor head unit via the fastening devices can be mechanically attached to the portable housing.
  • the sensory elements can be integrated into or on a portable housing, e.g. can be worn by a user during an inspection of spaces to be measured and / or outdoor areas in front of the chest, on the back or on the shoulder.
  • the portable housing may be part of the proposed surveying arrangement.
  • the sensor head unit is arranged on or in spectacles.
  • at least a part of the spectacles can at least a part of the previously explained
  • Form sensor head unit in particular at least a part of
  • the sensor head unit can have at least one fastening device and the eyewear to have a corresponding fastening device, wherein the sensor head unit can be mechanically fastened to the eyeglasses via the fastening devices.
  • the sensory elements can be integrated in or on a pair of goggles, e.g. by a user when inspecting spaces to be measured and / or
  • the glasses may be part of the proposed surveying arrangement.
  • At least one element of the at least one sensory system which remains next to the sensory elements, can be used to generate measured data, the first unreferenced position detection system and the second unreferenced one
  • Position detection system associated with another unit, which is structurally separate from the sensor head unit.
  • the further unit in particular comprise a total of further fastening elements, to which the at least one remaining element, in particular mechanically, is attached.
  • the further unit can denote an assembly of the remaining element and a further fastening unit, in or on which the remaining element is arranged, in particular mechanically fastened.
  • Remaining elements include, for example, an energy storage device and / or a computing device for processing the, in particular unprocessed, output signals of the sensory elements.
  • the further unit can also be arranged on or in another portable holding device.
  • the further portable holding device may e.g. also have at least one carrying device for attaching the further portable holding device to a body of a user, e.g. at a hip area of the user.
  • Carrying device may be formed as previously explained.
  • at least part of the further portable holding device may form at least part of the further unit explained above, in particular at least part of the further fastening elements or the further fastening unit.
  • the further unit has at least one fastening device and the further portable holding device has a corresponding fastening device, wherein the further unit can be mechanically fastened to the further portable holding device via the fastening devices.
  • the remaining elements may be placed in a further portable holding device structurally separate from the sensor head unit, e.g. into another portable housing, integrated e.g.
  • the further portable holding device may also be part of the proposed surveying arrangement.
  • the surveying arrangement comprises at least one illumination device, it being possible to generate light in the non-visible region by means of the illumination device.
  • the illumination device In particular, only light in the non-visible region can be generated by means of the illumination device.
  • a visible region here denotes a predetermined spectral range, in particular a
  • Spectral range from 380 nm to 780 nm.
  • the illumination device is light, in particular exclusively, with at least one wavelength or at least a wavelength range can be generated which is outside the visible range.
  • the illumination device can be arranged and / or configured in such a way that at least part of the detection range of the sensory system for generating measurement data and / or of the first image is generated by means of the illumination device
  • Unreferen amount detection system and / or the second unreferen amount position detection system can be illuminated.
  • this illumination device can be part of the sensor head unit explained above or can be structurally separate from the sensor head unit. Also, the
  • Lighting device of the previously explained light source correspond.
  • the at least one illumination device can light in one
  • Spectral range of infrared radiation in particular near infrared radiation produce.
  • the spectral range of infrared radiation may be e.g. Wavelengths of 780 nm, in particular 780 nm (exclusive), to 1400 nm, to 3000 nm or to 1 mm, preferably wavelengths of 900 nm to 1000 nm.
  • the above-described optical detection system may be formed as an infrared detection system, wherein by means of the infrared detection system radiation from the spectral range of the infrared radiation can be detected.
  • one of the previously explained cameras in particular a stereo camera system, may be an infrared camera.
  • the surveying arrangement comprises at least a part of a referenced position detection system.
  • referenced here means that the position and / or orientation data generated by means of the referenced position detection system contain position and / or orientation information relative to a predetermined, in particular device-external, e.g. encode a global, coordinate system.
  • Position and / or orientation data can be determined relative to a building-fixed coordinate system.
  • An apparatus-external coordinate system in particular designates a
  • the referenced position detection system can be provided, for example, by the previously explained further position detection system, in particular a GNSS sensor.
  • the surveying arrangement can comprise at least one means for converting the position and / or orientation information determined by the at least one unreferenced position detection system into position and / or position information
  • Orientation information relative to the predetermined coordinate system include, for example, the previously explained computing device.
  • the surveying arrangement can determine position and / or orientation information in a superordinate, in particular device-external, coordinate system, and thus in particular in a device-external, but not
  • Location detection system comprises, which allows the determination of the position and / or orientation information without further elements.
  • the surveying arrangement comprises only a part of a referenced position detection system, which determines the determination of the position and / or orientation information only with further, in particular
  • the determination of the position and / or orientation information by the referenced position detection system can only take place if the device-side part with a device-external, so structurally different from the surveying, part of the referenced
  • Position detection system data or signaling technology communicates. At least part of position and / or orientation information of the device-external part may be previously known relative to the predetermined coordinate system. This means that the device-external part can be spatially referenced.
  • the surveying arrangement may comprise an RFID device which can establish a signal and / or data connection with further, device-external RFID devices whose position and / or orientation in the predetermined coordinate system are known.
  • the position and / or orientation of the device-external RFID device in the predetermined coordinate system then the position and / or
  • Orientation information of the surveying arrangement are determined relative to the predetermined coordinate system.
  • a sensory system generates measured data. Furthermore, a first unreferenced position detection system generates first position and / or position information
  • Orientation data and at least a second unreferen assumes position detection system second position and / or orientation data. Furthermore, the measurement data and the position and / or orientation information encoded by the first and / or second position and / or orientation data, in particular temporally corresponding to one another, are stored referenced to one another.
  • the proposed method can in this case in particular by means of a
  • Embodiments are performed.
  • Position detection systems and, where appropriate, the measuring system are determined in order to merge the position data and to be able to determine in a reference coordinate system. Methods are known for this referencing of the position sensors.
  • the proposed method allows the inspection of buildings in the
  • first and the second position and / or orientation data are fused to resulting position and / or orientation data, wherein only the position and / or orientation information encoded by the fused or resulting position and / or orientation data
  • the fused position and / or orientation data may represent the position and / or orientation information, or the
  • Positioning and / or orientation information depending on the fused position and / or orientation data can be determined.
  • an origin of a native domain in another embodiment, an origin of a native domain
  • the origin of a native coordinate system of the second unreferenced position detection system or an origin of a common coordinate system can be initialized at the beginning of an operation of a surveying arrangement or at the beginning of a measurement or at a time of generation of an initialization signal.
  • initialisable means that current position and / or orientation information or position and / or orientation data are used as reference or origin coordinates as of the time of initialization.
  • the current position and / or orientation information or the position and / or orientation data are reset. From this point on and until a new initialization position and / or orientation information are now determined relative to this origin.
  • An initialization signal can be generated, for example, by actuating a corresponding actuating device, for example a pushbutton or switch.
  • a corresponding actuating device for example a pushbutton or switch.
  • Measurement arrangement can be brought into a position and / or orientation, which is known with respect to a desired global or device-external coordinate system, for example, a coordinate system of a GNSS.
  • a registration between the already generated or still to be generated position and / or orientation information and the global coordinate system can be determined.
  • a user it is possible for a user to measure closed spaces in accordance with the invention and to move out of the closed rooms into a free space after completion of the measurement in which a position and / or orientation can be determined with sufficient accuracy, for example by means of a GNSS sensor , Further, e.g. be determined by a GNSS sensor, then a current position and / or orientation of the surveying arrangement in a coordinate system of the GNSS.
  • Coordinate systems of the position detection systems are initialized and a
  • a trajectory of the surveying arrangement can also be determined.
  • Position detection system Furthermore, the position and / or position detected by means of the first and / or second unreferenced position detection system
  • the predetermined coordinate system is in particular a device-external coordinate system.
  • the determination of the position and / or orientation information in the predetermined coordinate system and / or the conversion can in this case take place continuously, at fixed time intervals or at irregularly spaced points in time, whereby the times of determination and conversion can also be different.
  • the determination and / or conversion can only take place if a determination is physically possible.
  • the determination and / or conversion only on user request, e.g. due to a corresponding activation signal, done.
  • Orientation information in a desired, for example, building-fixed, coordinate system take place.
  • the invention will be explained in more detail with reference to an embodiment.
  • the single figure shows a schematic block diagram of a surveying arrangement.
  • a surveying arrangement 1 according to the invention is shown in a schematic block diagram.
  • the surveying arrangement 1 comprises a sensory system 2 for generating measured data.
  • the sensory system 2 comprises a sensor 3, e.g. a humidity sensor.
  • the sensory system 2 comprises a control and evaluation device 4, the output signals of the sensor 3
  • sensory system 2 or the surveying arrangement 1 includes, which may be formed for example as a switch.
  • the surveying arrangement 1 comprises a combined position detection system 6.
  • the combined position detection system 6 comprises unreferenced first
  • Stereo camera system comprising a first camera 8 and a second camera 9.
  • the first unreferenced position detection system detects first position and
  • Position detection system second position and orientation data with respect to a native three-dimensional coordinate system 12.
  • the first camera 8 and the second camera 9 respectively captures image data in a two-dimensional camera-own coordinate system 13, 14, wherein the image data in this
  • Coordinate systems 13, 14 are then converted by another control and evaluation device 10 in the native three-dimensional coordinate system 12.
  • first position and / or orientation data from the inertial sensor 7 and image data from the cameras 8, 9 of the stereo camera system are transmitted to the further control and evaluation device 10, which calculates position and / or orientation information from the output signals, wherein the output signals of
  • Inertialsensors 7 encoded first position and / or orientation data with the coded in the image data of the cameras 8, 9 position and / or orientation data are fused together.
  • the calculated position and / or orientation information For example, they may be referenced to a coordinate arrangement fixed coordinate system 15.
  • the evaluation and computing device 10 also methods of
  • both the data determined by the first control and evaluation device 4 and also by the further control and evaluation device 10 are stored in a memory device 16 referenced to one another.
  • preprocessed measurement data are spatially referenced to a common coordinate system, namely the coordinate arrangement fixed coordinate system 15, the inertial sensor 7 and the stereo camera system stored.
  • Verticiansan iste coordinate system 15 is in this case lazy and rotationally fixed relative to the surveying arrangement. 1
  • the sensory system 2 and the elements of the combined position detection system 6 are also arranged in a stationary and rotationally fixed manner on or in the surveying arrangement 1.
  • the cameras 8, 9 and the initial sensor 7 are arranged stationary and rotationally fixed to each other. This means that a registration between the individual output data does not change during operation.
  • Position detection system 6 mechanically loosely coupled, e.g. if it is the
  • Mechanically loose can mean, for example, that the mechanical coupling is designed such that a position of the sensory system 2 always within a
  • Ball volume is located with a predetermined radius, wherein a center of the spherical volume is referenced to the position and / or orientation information known. This allows, for example, a humidity measurement by hand directly on a room wall.
  • the further control and evaluation device 10 can in this case in real time a position in three translational and three rotational degrees of freedom, based on the
  • the further control and evaluation device 10 can generate a 3D model from the output signals of the cameras 8, 9. Information of the 3D model can also be found in the
  • Memory device 16 are spatially referenced stored.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft eine Vermessungsanordnung, insbesondere zur Vermessung von geschlossenen Räumen und/oder von Außenbereichen mit gestörtem oder fehlendem GNSS-Empfang, wobei die Vermessungsanordnung (1) mindestens ein sensorisches System (2) zur Erzeugung von Messdaten umfasst, wobei die Vermessungsanordnung (1) weiter ein erstes unreferenziertes Lageerfassungssystem zur Erzeugung erster Positions- und/oder Orientierungsdaten und mindestens ein zweites unreferenziertes Lageerfassungssystem zur Erzeugung zweiter Positions- und/oder Orientierungsdaten umfasst, wobei die Vermessungsanordnung (1) weiter mindestens eine Speichereinrichtung (16) umfasst, wobei Messdaten durch die ersten und/oder zweiten Positions- und/oder Orientierungsdaten codierte Positions- und/oder Orientierungsinformationen referenziert zueinander in der Speichereinrichtung (16) speicherbar sind, sowie ein Verfahren zur Vermessung.

Description

Vermessungsanordnung und Verfahren zur Vermessung
Die Erfindung betrifft eine Vermessungsanordnung sowie ein Verfahren zur Vermessung, insbesondere von geschlossenen Räumen.
Die Inspektion von Industrieanlagen und Gebäuden dient beispielsweise einer frühzeitigen Erkennung von Schäden und/oder der Gewährleistung einer Betriebssicherheit.
Sensorsysteme, die die dafür benötigten Daten erfassen, können beispielsweise
Kamerasysteme mit einem beliebigen Spektralbereich, Feuchtesensoren oder
Gassensoren sein. Die von diesen Sensorsystemen erzeugten Daten können aber in der Regel nur dann sinnvoll und nutzbringend verwendet werden, wenn sie räumlich referenziert werden. D.h., dass zu jedem Messsignal auch eine Lage, also Position und/oder Orientierung, des Sensorsystems bekannt sein sollten.
Eine Lageerfassung mittels eines GNSS (globalen Navigationssatellitensystems) gewährleistet eine derartige räumliche Referenzierung von Messdaten in Au ßenbereichen mit einer Positionsgenauigkeit von einigen Zentimetern, z.B. bei Verwendung eines differentiellen GPS (Global Positioning System), bis zu einigen Metern. Die Bestimmung einer Orientierung ist mit GNSS nicht möglich. In geschlossenen Räumen, beispielsweise in Innenräumen von Gebäuden können eine Funktionsfähigkeit und die Genauigkeit des GNSS jedoch beeinträchtigt sein. Im Außenbereich kann die Qualität der
Positionsmessung mittels GNSS bei ungünstigen Bedingungen beeinträchtigt sein, beispielsweise durch Abschattungen und Mehrfachreflexionen.
Für eine räumliche Referenzierung von Messdaten können beispielsweise terrestrische Mikrowellen-Sender- und Empfangseinheiten verwendet werden. So können
beispielsweise RFID (Radio Frequency ldentification)-Systeme, Pseudolite-Systeme oder WLAN-basierte Systeme zur räumlichen Referenzierung genutzt werden, erfordern aber eine entsprechende technische Ausrüstung der Messumgebung im Vorfeld der
Messungen. Auch ist es möglich, Inertial-Messsysteme zu verwenden. Diese Systeme messen Winkelgeschwindigkeiten und Beschleunigungen, die durch Einfach- bzw.
Zweifachintegration zu Orientierungs- und Positionswerten verarbeitet werden können. Durch dieses Prinzip werden schnell große Fehler akkumuliert, was nur durch die
Verwendung von großen und teuren Inertialmesssystemen umgangen werden kann. Zusätzlich können auch kompassbasierte Systeme zum Einsatz kommen. All diese Systeme können in Innenräumen Anwendung finden. Karten, die im Vorfeld erstellt wurden (z.B. Gebäudegrundrisse, Elektrische-Feldstärke-Karten) finden oftmals
Verwendung, um die Messwerte zu stützen.
Allen bekannten Verfahren zur räumlichen Referenzierung von Messdaten ohne GNSS ist gemein, dass sie a-priori-lnformationen benötigen, z.B. durch Karten oder eine
Ausrüstung des zu vermessenden Objekts mit entsprechenden technischen Hilfsmitteln, und teuer sind.
Ferner existieren Ansätze zur photogrammetrischen Verortung von Messdaten. Hierbei wird eine Vielzahl von räumlich überlappenden Bildern in einem zu untersuchenden Innenraumbereich aufgenommen. Hierbei ist problematisch, dass eine Verortung auf Grundlagen von photogrammetrischen Ansätzen nur bedingt echtzeitfähig ist, da in der Regel der gesamte Bildblock (vom ersten bis zum letzten Bild) vorliegen muss, um nachträglich die Trajektorie des Messsystems zu bestimmen und damit die räumliche Referenzierung der Messwerte sicherzustellen.
Die nachveröffentliche DE 10 201 1 084 690.5 beschreibt eine Kamera, umfassend mindestens eine Optik, mindestens einen optischen Detektor, der in einer Fokalebene der Optik angeordnet ist, und eine Auswerteeinheit, wobei die Kamera mindestens eine Lichtquelle und mindestens ein diffraktives optisches Element umfasst, wobei mittels der Lichtquelle das diffraktive optische Element beleuchtbar ist, so dass dieses verschiedene ebene Wellen erzeugt, die durch die Optik jeweils punktförmig auf dem optischen Detektor abgebildet und durch die Auswerteeinheit mindestens zur geometrischen Kalibrierung ausgewertet werden, sowie ein Verfahren zur geometrischen Kalibrierung einer Kamera.
Es stellt sich das technische Problem, eine Vermessungsanordnung und ein Verfahren zur Vermessung zu schaffen, welche eine räumliche Referenzierung von Messdaten vereinfachen und eine zeitlich schnelle räumliche Referenzierung ermöglichen, wobei a- priori-Wissen, z.B. in Form von Karten oder zusätzliche Infrastruktur, nicht notwendig ist.
Die Lösung des technischen Problems ergibt sich durch die Gegenstände mit den
Merkmalen der Ansprüche 1 und 1 1 . Weitere vorteilhafte Ausgestaltungen ergeben sich aus den Unteransprüchen. Es ist eine Grundidee der Erfindung, dass eine Vermessungsanordnung sowohl ein sensorisches System zur Erzeugung von Messdaten als auch mindestens zwei
Lageerfassungssysteme zur Erzeugung von Positions- und/oder Orientierungsdaten umfasst, wobei die Lageerfassungssysteme in Bezug auf die Umgebung unreferenzierte Lageerfassungssysteme sind. Die Vermessungsanordnung erfasst die eigene Position und Orientierung in einem relativen Koordinatensystem, dessen Ursprung z.B. durch einen Nutzer eingestellt werden kann. Die Messdaten werden referenziert zu lokalen Positions- und/oder Orientierungsdaten der Lageerfassungssysteme, die in diesem relativen Koordinatensystem erfasst werden, gespeichert.
Nachfolgend gelten folgende Definitionen. Eine Lage beschreibt eine Position und/oder eine Orientierung eines Objekts zumindest teilweise. Eine Position kann beispielsweise durch drei Translationsparameter beschrieben werden. Z.B. können
Translationsparameter einen x-Parameter, einen y-Parameter und einen z-Parameter in einem kartesischen Koordinatensystem umfassen. Eine Orientierung kann beispielsweise durch drei Rotationsparameter beschrieben werden. Z.B. können Rotationsparameter einen Drehwinkel ω um eine x-Achse, einen Drehwinkel φ um eine y-Achse und einen Drehwinkel K um eine z-Achse des kartesischen Koordinatensystems umfassen. Somit kann eine Lage bis zu 6 Parameter umfassen.
Vorgeschlagen wird eine Vermessungsanordnung, wobei die Vermessungsanordnung auch als Vermessungssystem bezeichnet werden kann. Die Vermessungsanordnung dient insbesondere zur Vermessung von geschlossenen Räumen, insbesondere zur Vermessung von Bergwerken, Gebäuden und Tunneln. Alternativ oder kumulativ dient die Vermessungsanordnung zur Vermessung von Au ßenbereichen mit gestörtem oder fehlendem GNSS-Empfang. Im Kontext dieser Erfindung bedeutet Vermessung, dass Messsignale, deren Erfassung automatisch oder von einem Benutzer manuell ausgelöst wird, erzeugt und räumlich referenziert werden. Zusätzlich können Messdaten auch zeitlich referenziert werden.
Die Vermessungsanordnung umfasst mindestens ein sensorisches System zur
Erzeugung von Messdaten. Das sensorische System kann beispielsweise ein
Kamerasystem zur Erzeugung von Kamerabildern, ein Feuchtesensor oder ein Gassensor sein. Selbstverständlich können auch weitere sensorische Systeme zur Anwendung kommen. Weiter umfasst die Vermessungsanordnung ein erstes unreferenziertes Lageerfassungssystem zur Erzeugung erster Positions- und/oder Orientierungsdaten und mindestens ein zweites unreferenziertes Lageerfassungssystem zur Erzeugung zweiter Positions- und/oder Orientierungsdaten.
Ein Lageerfassungssystem bezeichnet hierbei ein System, welches die Erfassung oder Erzeugung von Positions- und/oder Orientierungsdaten ermöglicht, die zumindest eine Teilinformation zur Bestimmung einer Lage und/oder einer Orientierung der
Vermessungsanordnung codieren. Wie nachfolgend näher erläutert, kann ein
Lageerfassungssystem ein optisches Lageerfassungssystem oder ein inertiales
Lageerfassungssystem sein. Auch kann ein Lageerfassungssystem ein Barometer sein.
Vorzugsweise arbeiten das erste und das mindestens zweite Lageerfassungssystem auf Grundlage von voneinander unabhängigen physikalischen Messprinzipien. Dies ermöglicht in vorteilhafter Weise eine verbesserte Redundanz und eine Erhöhung der Genauigkeit bei der Erfassung von Positions- und/oder Orientierungsinformationen.
Der Begriff "unreferenziert" bedeutet hierbei, dass die erzeugten Positions- und/oder Orientierungsdaten ausschließlich relativ zu einem systemeigenen Koordinatensystem der Lageerfassungssysteme oder relativ zu einem gemeinsamen Koordinatensystem der Lageerfassungssysteme bestimmt werden, wobei das gemeinsame Koordinatensystem orts- und drehfest bezüglich der Vermessungsanordnung ist. So können z.B. die ersten Positions- und/oder Orientierungsdaten relativ zu einem systemeigenen
Koordinatensystem des ersten Lageerfassungssystems bestimmt werden. Entsprechend können auch die zweiten Positions- und/oder Orientierungsdaten in einem systemeigenen Koordinatensystem des zweiten Lageerfassungssystems bestimmt werden.
Weiter kann der Begriff „unreferenziert" bedeuten, dass mittels des unreferenzierten Lageerfassungssystems keine eindeutige Erfassung der Position und/oder Orientierung, z.B. in einem globalen Koordinatensystem, möglich ist. Dies bedeutet, dass zumindest ein Parameter, der zur eindeutigen und vollständigen Beschreibung der Lage, also der Position und/oder Orientierung, notwendig ist, mittels des unreferenzierten
Lageerfassungssystems nicht erfassbar oder bestimmbar ist. Z.B. kann eine eindeutige räumliche Referenzierung in einem übergeordneten, z.B.
globalen, Koordinatensystem die Erfassung oder Bestimmung von drei Positions- und drei Orientierungsparametern in diesem übergeordneten Koordinatensystem erfordern. Ist das nicht vollständig zu gewährleisten, kann die Lage nur in einem systemeigenen
Koordinatensystem bestimmt werden, auch wenn einzelne Parameter der Lage in dem übergeordneten Koordinatensystem erfassbar sind. Beispielsweise können
Neigungssensoren zwei Orientierungswinkel und Magnetsensoren einen
Orientierungswinkel räumlich referenziert zu einem weltfesten Koordinatensystem erfassen.
Unreferenziert bedeutet auch, dass kein räumlicher Bezug zu einer vorbekannten räumlichen Karte bekannt ist.
Eine Position kann hierbei beispielsweise bezogen auf ein kartesisches
Koordinatensystem mit drei linear unabhängigen Achsen bestimmt werden. Hierdurch ermöglicht das Lageerfassungssystem die Erfassung einer Bewegung mit drei
translatorischen Freiheitsgraden. Alternativ oder kumulativ können Orientierungsdaten als Verdrehwinkel um die drei Achsen des kartesischen Koordinatensystems bestimmt werden, beispielsweise entsprechend der so genannten Yaw-Pitch-Roll-Konvention (Gier- Nick-Roll-Winkelkonvention). Somit ist die Bestimmung einer Winkelbewegung mit drei voneinander unabhängigen rotatorischen Freiheitsgraden möglich.
Wie nachfolgend näher erläutert, kann ein Ursprung des Koordinatensystems z.B. beim Einschalten des Lageerfassungssystems, also mit Beginn einer Energieversorgung, oder bei Beginn eines Messvorgangs oder bei Erzeugung eines Initialisierungssignals gesetzt werden. Dies bedeutet, dass zu einem der vorhergehend erläuterten Zeitpunkte aktuelle Positions- und/oder Orientierungskoordinaten zurückgesetzt oder genullt werden, wobei nachfolgend alle erfassten Positions- und/oder Orientierungsdaten relativ zu dem gesetzten Ursprung des Koordinatensystems bestimmt werden.
Weiter umfasst die Vermessungsanordnung mindestens eine Speichereinrichtung.
Die Messdaten und die, insbesondere zeitlich korrespondierenden, durch die ersten und/oder zweiten Positions- und/oder Orientierungsdaten codierten Positions- und/oder Orientierungsinformationen sind referenziert zueinander, also mit einer vorbekannten Zuordnung zueinander, in der Speichereinrichtung speicherbar. Dies bedeutet, dass sowohl die Messdaten als auch die korrespondierenden Positionsund/oder Orientierungsinformationen gespeichert werden. Die Positions- und/oder Orientierungsinformationen können in Form von unverarbeiteten Ausgangssignalen (Rohsignalen) der unreferenzierten Lageerfassungssysteme gegeben sein. Auch können die Positions- und/oder Orientierungsinformationen durch bereits verarbeitete
Ausgangssignale der unreferenzierten Lageerfassungssysteme gegeben sein, wobei die verarbeiteten Ausgangssignale wiederum eine Position und/oder Orientierung
ausschließlich referenziert zu dem/den systemeigenen Koordinatensystem(en) oder zu einem gemeinsamen vermessungsanordnungsfesten Koordinatensystem codieren oder repräsentieren.
Beispielsweise können die Messdaten und die zeitlich korrespondierenden ersten und/oder zweiten unverarbeiteten Positions- und/oder Orientierungsdaten referenziert zueinander gespeichert werden.
Somit ist also eine Zuordnung von Messdaten zu einer Position und/oder Orientierung möglich und auch zu einem späteren Zeitpunkt abrufbar. Allerdings ist eine Zuordnung ausschließlich zu Lagen in den unreferenzierten systemeigenen Koordinatensystemen der Lageerfassungssysteme oder zu Lagen in einem gemeinsamen, vermessungsanordnungsfesten Koordinatensystem möglich.
Die beschriebene Vermessungsanordnung kann hierbei portabel, insbesondere durch einen menschlichen Benutzer tragbar, ausgebildet sein. Allerdings ist es auch möglich, die beschriebene Vermessungsanordnung auf einer Positioniereinrichtung, beispielsweise auf einem Fahrzeug, insbesondere auf einem Roboter, montierbar auszubilden.
Die vorgeschlagene Vermessungsanordnung ermöglicht in vorteilhafter Weise eine räumliche Referenzierung von Messdaten auch in geschlossenen Räumen, insbesondere in Innenräumen von z.B. Industrieanlagen oder Gebäuden. Da die räumliche
Referenzierung unabhängig von einem globalen Koordinatensystem, z.B. einem
Koordinatensystem eines GNSS, erfolgt und ebenfalls unabhängig von weiteren
Zusatzanordnungen, wie z.B. in den Räumen installierten Sendern, ist, ergibt sich in vorteilhafter Weise eine möglichst einfache und kostengünstige Vermessungsanordnung. Die Verwendung von mindestens zwei Lageerfassungssystemen erhöht in vorteilhafter Weise eine Verfügbarkeit von Positions- und/oder Orientierungsinformationen sowie eine erhöhte Genauigkeit der Positions- und/oder Orientierungsinformationen. Ist z.B. eine Lageerfassung mittels einem der mindestens zwei Lageerfassungssysteme nicht möglich, z.B. aufgrund von äu ßeren Bedingungen oder bei Ausfall des Lageerfassungssystems, so stehen weiterhin Positions- und/oder Orientierungsdaten oder - Informationen des verbleibenden Lageerfassungssystems zur Verfügung.
Die von der Vermessungsanordnung gespeicherten Daten ermöglichen zu einem späteren Zeitpunkt eine Navigation in bereits vermessenen Räumen. Auch können die Daten zur Erstellung oder zum Abgleich von Anlage- bzw. Gebäudemodellen dienen.
In einer weiteren Ausführungsform umfasst die Vermessungsanordnung eine
Recheneinrichtung, wobei mittels der Recheneinrichtung die ersten und die zweiten Positions- und/oder Orientierungsdaten zu resultierenden Positions- und/oder
Orientierungsdaten fusionierbar sind. Die resultierenden Positions- und/oder
Orientierungsdaten können dann z.B. die vorhergehend erläuterten Positions- und/oder Orientierungsinformationen darstellen.
Hierbei können z.B. Positions- und/oder Orientierungsdaten eines
Lageerfassungssystems in das systemeigene Koordinatensystem des weiteren
Lageerfassungssystems umgerechnet werden. Hierzu ist es erforderlich, dass eine Abbildungsvorschrift für eine solche Umrechnung vorbekannt ist. Dies bedeutet in anderen Worten, dass die systemeigenen Koordinatensysteme der
Lageerfassungssysteme zueinander registriert sind.
Auch ist es möglich, dass sowohl die ersten als auch die zweiten Positions- und/oder Orientierungsdaten in ein gemeinsames Koordinatensystem der Vermessungsanordnung umgerechnet werden. Das Koordinatensystem der Vermessungsanordnung bezeichnet hierbei ein bezüglich der Vermessungsanordnung orts- und drehfestes
Koordinatensystem. Dies wiederum bedeutet, dass, wenn sich die
Vermessungsanordnung translatorisch und/oder rotatorisch bewegt, sich auch das gemeinsame Koordinatensystem der Vermessungsanordnung im gleichen Maße translatorisch und/oder rotatorisch bewegt. Wie vorhergehend erläutert, ist es hierfür erforderlich, dass die systemeigenen Koordinatensysteme mit dem gemeinsamen Koordinatensystem registriert sind.
Dies ermöglicht in vorteilhafter Weise eine Einsparung von Speicherplatz, da Messdaten nunmehr nur referenziert zu den resultierenden Positions- und/oder Orientierungsdaten gespeichert werden müssen.
In einer weiteren Ausführungsform ist das erste unreferenzierte Lageerfassungssystem als optisches Lageerfassungssystem und das mindestens zweite unreferenzierte
Lageerfassungssystem als inertiales Lageerfassungssystem ausgebildet.
Bei dem optischen Lageerfassungssystem wird eine Positionsänderung und/oder Orientierungsänderung optisch, z.B. bildbasiert, erfasst. Bei einem inertialen
Lageerfassungssystem wird ein oder werden mehrere Inertialsensoren zur Erfassung von Beschleunigung und/oder Drehraten verwendet. Werden z.B. Beschleunigungen erfasst, so kann eine aktuelle Position auf Grundlage eines bereits zurückgelegten Weges bestimmt werden, wobei sich der zurückgelegte Weg durch z.B. Zweifachintegration der erfassten Beschleunigungen ergibt. Wird eine Drehrate erfasst, so kann ein aktueller Winkel z.B. durch Einfachintegration der Drehrate bestimmt werden.
Die Verwendung eines optischen und eines inertialen Lageerfassungssystems realisiert hierbei in vorteilhafter Weise eine Lageerfassung auf Grundlage von zwei voneinander unabhängigen physikalischen Messprinzipien. Weiter vorteilhaft ergibt sich, dass inertiale Lageerfassungssysteme erfahrungsgemäß robust arbeiten und somit eine hohe
Verfügbarkeit der Positions- und/oder Orientierungsdaten bereitstellen. Optische
Lageerfassungssysteme ermöglichen in der Regel eine hochgenaue Bestimmung einer Lage und/oder Orientierung. Durch die Verwendung der vorgeschlagenen
Lageerfassungssysteme ergibt sich also in vorteilhafter Weise sowohl eine hohe
Verfügbarkeit als auch eine hohe Genauigkeit bei der Bestimmung von Positionsund/oder Orientierungsinformationen.
In einer weiteren Ausführungsform ist das optische Lageerfassungssystem als
Stereokamerasystem ausgebildet. Ein Stereokamerasystem ermöglicht hierbei in vorteilhafter Weise eine einfache, bildbasierte Bestimmung einer räumlichen Position und/oder räumlichen Orientierung von Gegenständen oder Personen im
Erfassungsbereich des Stereokamerasystems. Hierzu kann es erforderlich sein, das Verfahren zur bildbasierten Merkmals- oder Objekterkennung durchgeführt werden, durch die korrespondierende, durch jeweils eine Kamera des Stereokamerasystems abgebildete Personen oder Objekte detektiert werden. Selbstverständlich können auch weitere Methoden der Bildverarbeitung zur Anwendung kommen, durch die eine Bestimmung der räumlichen Position und/oder Orientierung verbessert wird, z.B. Verfahren zur
Rauschunterdrückung, Verfahren zur Segmentierung und weitere Verfahren zur
Bildverarbeitung. Zusätzlich können zeitlich nacheinander aufgenommenen Stereobilder oder Einzelbilder verwendet werden, um eine dreidimensionale Rekonstruktion
durchzuführen, beispielsweise in einem so genannten structure-from-motion-Verfahren .
Insbesondere können beim Stereokamerasystem mindestens eine panchromatische Kamera oder eine Farbkamera, insbesondere eine RGB-basierte Farbkamera, oder eine Infrarotkamera verwendet werden. Alternativ oder kumulativ ist es möglich, dass die im Stereokamerasystem verwendeten Kameras unterschiedliche geometrische,
radiometrische und/oder spektrale Eigenschaften aufweisen. Z.B. kann eine räumliche Auflösung und/oder eine spektrale Auflösung der verwendeten Kameras voneinander verschieden sein. Hierdurch ergibt sich in vorteilhafter Weise, dass eine der Kameras, wie nachfolgend näher erläutert, als Messsystem Verwendung finden kann, beispielsweise bei einer Verwendung einer räumlich hochauflösenden RGB-Kamera und einer räumlich niedrig auflösenden panchromatischen Kamera.
In einer weiteren Ausführungsform umfasst die Vermessungsanordnung eine
Kalibriervorrichtung zur Kalibrierung des Stereokamerasystems.
Eine geometrische Kalibrierung von Kameras ist hierbei eine Grundvoraussetzung für deren Einsatz als Lageerfassungssystem. Die Kalibrierung kann auch als Bestimmung von Parametern einer inneren Orientierung der Kamera bezeichnet werden. Ziel ist es, für jeden Bildpunkt eines von einer Kamera des Stereokamerasystems erzeugten Bildes eine Blickrichtung (line of sight) im Kamerakoordinatensystem zu bestimmen.
Die Kalibriervorrichtung kann hierbei z.B. derart ausgebildet sein, dass eine Kamera des Stereokamerasystems oder alle Kameras des Stereokamerasystems eine Optik und mindestens einen optischen Detektor, der in einer Fokalebene der Optik angeordnet ist, und eine Auswerteeinrichtung umfassen. Weiter kann die Kamera mindestens eine Lichtquelle und mindestens ein diffraktives optisches Element umfassen, wobei mittels der Lichtquelle das diffraktive optische Element beleuchtbar ist, sodass dieses verschiedene ebene Wellen erzeugt, die durch die Optik jeweils punktförmig auf dem optischen Detektor abgebildet und durch die Auswerteeinheit mindestens zur geometrischen Kalibrierung ausgewertet werden.
Ein solches System ist in der nachveröffentlichten DE 10 201 1 084 690.5 beschrieben.
Das diffraktive optische Element kann hierbei durch die Optik mittels der Lichtquelle beleuchtbar sein. Weiter kann die Lichtquelle derart ausgebildet und ausgerichtet sein, dass diese kugelförmige Wellenfronten abstrahlt, die durch die Optik in ebene Wellen überführt auf das diffraktive optische Element treffen.
Der optische Detektor kann als Matrix-Sensor ausgebildet sein. Das mindestens eine diffraktive optische Element kann in die Optik integriert sein. Alternativ kann das diffraktive optische Element auf der Optik angeordnet sein. Weiter alternativ kann das diffraktive optische Element an einer Blende der Optik angeordnet sein. Auch ist es möglich, dass die Kamera mehrere Lichtquellen umfasst, die unterschiedliche Abstrahlrichtungen aufweisen. Weiter kann die Lichtquelle in der Fokalebene angeordnet sein. Auch ist es möglich, dass die Lichtquelle eine optische Phase umfasst, deren Apertur den Lichtaustritt der Lichtquelle bildet.
Diffraktive optische Elemente sind in den verschiedensten Ausführungsformen bekannt, wobei passive und aktive diffraktive optische Elemente bekannt sind, wobei letztere auch als SLMs (Spatial Light Modulator) bezeichnet werden. SLMs können beispielsweise als verstellbares Mikro-Spiegel-Array (reflektives SLM) oder als transmitives oder reflektives Flüssigkeitskristall-Display (Liquid Crystal, LC-Display) ausgebildet sein. Diese können aktiv angesteuert werden, sodass deren Beugungsstrukturen zeitlich veränderbar sind. Passive diffraktive optische Elemente hingegen weisen ein festes Beugungsmuster auf, wobei diese reflektiv oder transmitiv ausgebildet sein können.
Bezüglich weiterer Ausführungsformen der Kamera mit einer Kalibriervorrichtung wird hierbei auf das in der DE 10 201 1 084 690.5 offenbarte Ausführungsbeispiel Bezug genommen. Hierdurch ergibt sich in vorteilhafter Weise, dass eine Kalibrierung einer oder aller Kameras des Stereokamerasystems auch während des Betriebs und somit eine dauerhaft hochgenaue Bestimmung der Position und/oder Orientierung möglich ist.
In einer weiteren Ausführungsform ist das Messsystem gleichzeitig als unreferenziertes Lageerfassungssystem ausgebildet. Beispielsweise kann das Messsystem als Kamera oder Kamerasystem ausgebildet sein, welches gleichzeitig Bestandteil des
Stereokamerasystems ist. Hierbei erzeugt das Messsystem Bilddaten als Messdaten, wobei die erzeugten Bilddaten gleichzeitig zur Bereitstellung von Lageinformationen dienen.
Selbstverständlich ist es vorstellbar, auch andere Messsysteme, deren Ausgangssignale zur Bereitstellung einer Positions- und/oder Orientierungsinformation dienen können, zu verwenden.
In einer weiteren Ausführungsform umfasst die Vermessungsanordnung zusätzlich mindestens ein weiteres Lageerfassungssystem, also z.B. ein drittes
Lageerfassungssystem.
Das weitere Lageerfassungssystem kann beispielsweise einen GNSS-Sensor umfassen oder als solcher ausgebildet sein. Ein GNSS-Sensor ermöglicht eine Lageerfassung durch den Empfang von Signalen von Navigationssatelliten und Pseudoliten.
Alternativ kann das weitere Lageerfassungssystem als Laserscanner ausgebildet sein oder einen solchen Laserscanner umfassen. Der Laserscanner kann hierbei ein eindimensionaler, zweidimensionaler oder dreidimensionaler Laserscanner sein, der entsprechend eine eindimensionale, zweidimensionale oder dreidimensionale Abbildung einer Umgebung der Vermessungsanordnung ermöglicht. Durch entsprechende
Verfahren der Datenverarbeitung kann, entsprechend der Bildverarbeitung, eine
Objekterkennung in den von dem Laserscanner erzeugten Ausgangssignalen
durchgeführt werden. In Abhängigkeit von erkannten Objekten kann dann eine Bewegung, d.h. eine Positions- und/oder Orientierungsänderung der Vermessungsanordnung zwischen zwei Zeitpunkten, bestimmt werden. Dafür existieren Algorithmen, z.B. der so genannte ICP (iterative dosest point) - Algorithmus. Alternativ kann das weitere Lageerfassungssystem als Magnetometer ausgebildet sein. Ein Magnetometer bezeichnet hierbei eine Einrichtung zur Erfassung einer magnetischen Flussdichte. Mittels eines Magnetometers kann beispielsweise ein Erdmagnetfeld oder eine Überlagerung aus dem Erdmagnetfeld und einem weiteren Magnetfeld, welches z.B. von einem elektrischen Generator erzeugt wird, in den geschlossenen Räumlichkeiten erfasst werden. Weiter kann das Magnetometer auch als Lageerfassungssystem verwendet werden.
Weiter alternativ kann ein Neigungssensor als weiteres Lageerfassungssystem verwendet werden. Ein Neigungssensor kann hierbei beispielsweise Änderungen eines
Neigungswinkels erfassen. Diese Änderungen des Neigungswinkels können wiederum als Grundlage zur Bestimmung einer Orientierung der Vermessungsanordnung genutzt werden. Beispielsweise kann der Neigungssensor auch eine aktuelle Winkeldifferenz zu einer Richtung der Erdbeschleunigung erfassen. Somit kann der Neigungssensor entsprechend einer Wasserwaage arbeiten.
Die Ausgangssignale der vorhergehend erläuterten Lageerfassungssysteme können hierbei separat gespeichert oder mit den ersten und zweiten Lage- und/oder
Orientierungsdaten, wie vorhergehend erläutert, fusioniert werden.
In einer weiteren Ausführungsform sind zumindest sensorische Elemente des mindestens einen sensorisches Systems zur Erzeugung von Messdaten, des ersten unreferenzierten Lageerfassungssystems und des zweiten unreferenzierten Lageerfassungssystems einer Sensorkopfeinheit zugeordnet.
Neben den sensorischen Elementen kann die Sensorkopfeinheit insbesondere eine Gesamtheit von Befestigungselementen umfassen, an der zumindest die sensorischen Elemente des mindestens einen sensorisches Systems zur Erzeugung von Messdaten, des ersten unreferenzierten Lageerfassungssystems und des zweiten unreferenzierten Lageerfassungssystems, insbesondere mechanisch, befestigt sind, insbesondere mit einer unveränderlichen und/oder vorbestimmten Position und/oder Ausrichtung relativ zueinander. Z.B. kann die Sensorkopfeinheit eine Gesamtheit aus den sensorischen Elementen und einer Befestigungseinheit bezeichnen, in oder an der die sensorischen Elemente angeordnet, insbesondere mechanisch befestigt, sind. Sensorische Elemente können hierbei die Elemente des mindestens einen sensorisches Systems zur Erzeugung von Messdaten, des ersten unreferenzierten
Lageerfassungssystems und des zweiten unreferenzierten Lageerfassungssystems bezeichnen, die entsprechende Messwerte, z.B. in Form der vorhergehend erläuterten Ausgangssignale, insbesondere in Form von unverarbeiteten Ausgangssignalen, erzeugen.
Weiter ist die Sensorkopfeinheit an oder in einem Helm angeordnet ist. Hierbei kann zumindest ein Teil des Helms zumindest einen Teil der vorhergehend erläuterten
Sensorkopfeinheit ausbilden, insbesondere zumindest einen Teil der
Befestigungselemente oder der Befestigungseinheit. Allerdings ist es auch möglich, dass die Sensorkopfeinheit mindestens eine Befestigungseinrichtung und der Helm eine korrespondierende Befestigungseinrichtung aufweist, wobei die Sensorkopfeinheit über die Befestigungseinrichtungen mechanisch an dem Helm befestigt werden kann. Somit können die sensorischen Elemente in oder an einen Helm integriert werden, der z.B. von einem Nutzer bei einer Begehung von zu vermessenden Räumen und/oder
Außenbereichen auf dem Kopf getragen werden kann. Insbesondere kann der Helm Teil der vorgeschlagenen Vermessungsanordnung sein.
Alternativ ist die Sensorkopfeinheit an oder in einem Handgerät angeordnet. Ein
Handgerät kann z.B. einen Griff zur manuellen Handhabung aufweisen. Hierbei kann zumindest ein Teil des Handgeräts zumindest einen Teil der vorhergehend erläuterten Sensorkopfeinheit ausbilden, insbesondere zumindest einen Teil der
Befestigungselemente oder der Befestigungseinheit. Allerdings ist es auch möglich, dass die Sensorkopfeinheit mindestens eine Befestigungseinrichtung und das Handgerät eine korrespondierende Befestigungseinrichtung aufweist, wobei die Sensorkopfeinheit über die Befestigungseinrichtungen mechanisch an dem Handgerät befestigt werden kann. Somit können die sensorischen Elemente in oder an ein Handgerät integriert werden, das z.B. von einem Nutzer bei einer Begehung von zu vermessenden Räumen und/oder Außenbereichen in der Hand getragen werden kann. Insbesondere kann das Handgerät Teil der vorgeschlagenen Vermessungsanordnung sein.
Alternativ ist die Sensorkopfeinheit an oder in einem tragbaren Gehäuse angeordnet. Das tragbare Gehäuse kann z.B. mindestens eine Tragvorrichtung zur Befestigung des Gehäuses an einem Körper eines Nutzers aufweisen, z.B. an einem Brustbereich oder an einem Schulterbereich des Nutzers. Die mindestens eine Tragvorrichtung kann
beispielsweise als Gurt oder Riemen ausgebildet sein oder einen solchen umfassen. Die Tragvorrichtung kann insbesondere auch geeignete Verschluss- oder Verstellmittel aufweisen, z.B. einen Schnalle, eine Klemme oder ähnliches. Hierbei kann zumindest ein Teil des tragbaren Gehäuses zumindest einen Teil der vorhergehend erläuterten
Sensorkopfeinheit ausbilden, insbesondere zumindest einen Teil der
Befestigungselemente oder der Befestigungseinheit. Allerdings ist es auch möglich, dass die Sensorkopfeinheit mindestens eine Befestigungseinrichtung und das tragbare
Gehäuse eine korrespondierende Befestigungseinrichtung aufweist, wobei die
Sensorkopfeinheit über die Befestigungseinrichtungen mechanisch an dem tragbaren Gehäuse befestigt werden kann. Somit können die sensorischen Elemente in oder an ein tragbares Gehäuse integriert werden, das z.B. von einem Nutzer bei einer Begehung von zu vermessenden Räumen und/oder Außenbereichen vor der Brust, auf dem Rücken oder auf der Schulter getragen werden kann. Insbesondere kann das tragbare Gehäuse Teil der vorgeschlagenen Vermessungsanordnung sein.
Alternativ ist die Sensorkopfeinheit an oder in einer Brille angeordnet. Hierbei kann zumindest ein Teil der Brille zumindest einen Teil der vorhergehend erläuterten
Sensorkopfeinheit ausbilden, insbesondere zumindest einen Teil der
Befestigungselemente oder der Befestigungseinheit. Allerdings ist es auch möglich, dass die Sensorkopfeinheit mindestens eine Befestigungseinrichtung und die Brille eine korrespondierende Befestigungseinrichtung aufweist, wobei die Sensorkopfeinheit über die Befestigungseinrichtungen mechanisch an der Brille befestigt werden kann. Somit können die sensorischen Elemente in oder an eine Brille integriert werden, die z.B. von einem Nutzer bei einer Begehung von zu vermessenden Räumen und/oder
Außenbereichen auf dem Kopf getragen werden kann. Insbesondere kann die Brille Teil der vorgeschlagenen Vermessungsanordnung sein.
Weiter kann mindestens ein neben den sensorischen Elementen verbleibendes Element des mindestens einen sensorisches Systems zur Erzeugung von Messdaten, des ersten unreferenzierten Lageerfassungssystems und des zweiten unreferenzierten
Lageerfassungssystems einer weiteren Einheit zugeordnet sein, die eine baulich von der Sensorkopfeinheit getrennte Einheit ist.
Neben dem mindestens einen verbleibenden Element kann die weitere Einheit insbesondere eine Gesamtheit von weiteren Befestigungselementen umfassen, an der das zumindest eine verbleibende Element, insbesondere mechanisch, befestigt ist. Z.B. kann die weitere Einheit eine Gesamtheit aus dem verbleibenden Element und einer weiteren Befestigungseinheit bezeichnen, in oder an der das verbleibende Element angeordnet, insbesondere mechanisch befestigt, ist. Verbleibende Elemente umfassen z.B. eine Energiespeichereinrichtung und/oder eine Recheneinrichtung zur Verarbeitung der, insbesondere unverarbeiteten, Ausgangssignale der sensorischen Elemente.
Die weitere Einheit kann ebenfalls an oder in einer weiteren tragbaren Haltevorrichtung angeordnet sein. Die weitere tragbare Haltevorrichtung kann z.B. ebenfalls mindestens eine Tragvorrichtung zur Befestigung der weiteren tragbaren Haltevorrichtung an einem Körper eines Nutzers aufweisen, z.B. an einem Hüftbereich des Nutzers. Die
Tragvorrichtung kann hierbei wie vorhergehend erläutert ausgebildet sein. Z.B. kann zumindest ein Teil der weiteren tragbaren Haltevorrichtung zumindest einen Teil der vorhergehend erläuterten weiteren Einheit ausbilden, insbesondere zumindest ein Teil der weiteren Befestigungselemente oder der weiteren Befestigungseinheit. Allerdings ist es auch möglich, dass die weitere Einheit mindestens eine Befestigungseinrichtung und die weitere tragbare Haltevorrichtung eine korrespondierende Befestigungseinrichtung aufweist, wobei die weitere Einheit über die Befestigungseinrichtungen mechanisch an der weiteren tragbaren Haltevorrichtung befestigt werden kann. Somit können die verbleibenden Elemente in eine baulich von der Sensorkopfeinheit getrennte weitere tragbare Haltevorrichtung, z.B. in ein weiteres tragbares Gehäuse, integriert werden, die z.B. von einem Nutzer bei einer Begehung von zu vermessenden Räumen und/oder Außenbereichen im Hüftbereich, insbesondere an einem Gürtel, vor der Brust, auf dem Rücken oder auf der Schulter getragen werden kann. Insbesondere kann die weitere tragbare Haltevorrichtung ebenfalls Teil der vorgeschlagenen Vermessungsanordnung sein.
In einer weiteren Ausführungsform umfasst die Vermessungsanordnung mindestens eine Beleuchtungseinrichtung, wobei mittels der Beleuchtungseinrichtung Licht im nichtsichtbaren Bereich erzeugbar ist. Insbesondere kann mittels der Beleuchtungseinrichtung ausschließlich Licht im nicht-sichtbaren Bereich erzeugbar sein. Ein sichtbarer Bereich bezeichnet hierbei einen vorbestimmten Spektralbereich, insbesondere einen
Spektralbereich von 380 nm bis 780 nm. Somit ist mittels der Beleuchtungseinrichtung Licht, insbesondere ausschließlich, mit mindestens einer Wellenlänge oder mindestens einem Wellenlängenbereich erzeugbar, welche/welcher au ßerhalb des sichtbaren Bereichs liegt.
Die Beleuchtungseinrichtung kann hierbei derart angeordnet und/oder ausgebildet sein, dass mittels der Beleuchtungseinrichtung zumindest ein Teil des Erfassungsbereichs des sensorischen Systems zur Erzeugung von Messdaten und/oder des ersten
unreferenzierten Lageerfassungssystems und/oder des zweiten unreferenzierten Lageerfassungssystems beleuchtbar ist. Diese Beleuchtungseinrichtung kann insbesondere Teil der vorhergehend erläuterten Sensorkopfeinheit sein oder aber baulich getrennt von der Sensorkopfeinheit ausgebildet sein. Auch kann die
Beleuchtungseinrichtung der vorhergehend erläuterten Lichtquelle entsprechen.
Insbesondere kann die mindestens eine Beleuchtungseinrichtung Licht in einem
Spektralbereich von Infrarotstrahlung, insbesondere naher Infrarotstrahlung, erzeugen. Der Spektralbereich von Infrarotstrahlung kann hierbei z.B. Wellenlängen von 780 nm, insbesondere 780 nm (ausschließlich), bis 1400 nm, bis 3000 nm oder bis 1 mm umfassen, bevorzugt Wellenlängen von 900 nm bis 1000 nm. In diesem Fall kann das vorhergehend erläuterte optische Erfassungssystem als Infrarot-Erfassungssystem ausgebildet sein, wobei mittels des Infrarot- Erfassungssystem Strahlung aus dem Spektralbereich der Infrarotstrahlung erfassbar ist. Beispielsweise kann eine der vorhergehend erläuterten Kameras, insbesondere eines Stereokamerasystems, eine Infrarotkamera sein. Hierdurch können insbesondere optische Blendeffekte für einen Nutzer der Vermessungsanordnung vermieden werden.
In einer weiteren Ausführungsform umfasst die Vermessungsanordung zumindest einen Teil eines referenzierten Lageerfassungssystems. Der Begriff "referenziert" bedeutet hierbei, dass die mittels des referenzierten Lageerfassungssystems erzeugten Positionsund/oder Orientierungsdaten Positions- und/oder Orientierungsinormationen relativ zu einem vorbestimmten, insbesondere vorrichtungsexternen, z.B. einem globalen, Koordinatensystem codieren. Z.B. können Positions- und/oder Orientierungsdaten relativ zu einem gebäudefesten Koordinatensystem bestimmt werden. Ein vorrichtungsexternes Koordinatensystem bezeichnet hierbei insbesondere ein
vermessungsanordnungsexternes Koordinatensystem, insbesondere ein nicht in Bezug auf die Vermessungsanordnung ortsfestes und/oder drehfestes Koordinatensystem. Das referenzierte Lageerfassungssystem kann z.B. durch das vorhergehend erläuterten weitere Lageerfassungssystem, insbesondere einen GNSS-Sensor, bereitgestellt werden.
Weiter kann die Vermessungsanordnung mindestens ein Mittel zur Umrechnung der mittels des mindestens einen unreferenzierten Lageerfassungssystems bestimmten Positions- und/oder Orientierungsinformationen in Position- und/oder
Orientierungsinformationen relativ zu dem vorbestimmten Koordinatensystem umfassen, beispielsweise die vorhergehend erläuterte Recheneinrichtung. Hierdurch können durch die Vermessungsanordnung Positions- und/oder Orientierungsinformationen in einem übergeordneten, insbesondere vorrichtungsexternen, Koordinatensystem bestimmt werden, und somit insbesondere in einem vorrichtungsexternen, aber nicht
zwingendermaßen globalen, Koordinatensystem räumlich referenzierte Positionsund/oder Orientierungsinformationen.
Hierbei ist es möglich, dass die Vermessungsanordnung ein referenziertes
Lageerfassungssystem umfasst, welches die Bestimmung der Positions- und/oder Orientierungsinformationen ohne weitere Elemente ermöglicht.
Allerdings ist es auch möglich, dass die Vermessungsanordnung nur einen Teil eines referenzierten Lageerfassungssystems umfasst, welches die Bestimmung der Positionsund/oder Orientierungsinformationen nur mit weiteren, insbesondere
vorrichtungsexternen, Elementen ermöglicht. Z.B. kann die Bestimmung der Positionsund/oder Orientierungsinformationen durch das referenzierte Lageerfassungssystem nur dann erfolgen, wenn der vorrichtungsseitige Teil mit einem vorrichtungsexternen, also baulich von der Vermessungsanordnung verschiedenen, Teil des referenzierten
Lageerfassungssystems daten- oder signaltechnisch kommuniziert. Zumindest ein Teil von Positions- und/oder Orientierungsinformationen des vorrichtungsexternen Teils kann relativ zum vorbestimmten Koordinatensystem vorbekannt sein. Dies bedeutet, dass der vorrichtungsexterne Teil räumlich referenziert sein kann.
Z.B. kann die Vermessungsanordnung eine RFID-Einrichtung umfassen, die mit weiteren, vorrichtungsexternen RFID-Einrichtungen, deren Position und/oder Orientierung im vorbestimmten Koordinatensystem bekannt sind, eine Signal- und/oder Datenverbindung aufbauen kann. In Abhängigkeit einer solchen Signal- und/oder Datenverbindung und der vorbekannten Position und/oder Orientierung der vorrichtungsexternen RFID-Einrichtung im vorbestimmten Koordinatensystem können dann die Positions- und/oder
Orientierungsinformationen der Vermessungsanordnung relativ zu dem vorbestimmten Koordinatensystem bestimmt werden.
Weiter vorgeschlagen wird ein Verfahren zur Vermessung, insbesondere von
geschlossenen Räumen und/oder Au ßenbereichen mit gestörtem oder fehlerhaftem GNSS-Empfang, wobei ein sensorisches System Messdaten erzeugt. Weiter erzeugt ein erstes unreferenziertes Lageerfassungssystem erste Positions- und/oder
Orientierungsdaten und mindestens ein zweites unreferenziertes Lageerfassungssystem zweite Positions- und/oder Orientierungsdaten. Weiter werden die Messdaten und die, insbesondere zeitlich korrespondierenden, durch die ersten und/oder zweiten Positionsund/oder Orientierungsdaten codierten Positions- und/oder Orientierungsinformationen referenziert zueinander gespeichert.
Das vorgeschlagene Verfahren kann in vorteilhafter Weise zur Inspektion von
geschlossen Räumen natürlichen und unnatürlichen Ursprungs, z.B. von Höhlen und Schächten, unter Verwendung von referenzfreien Lageerfassungssystemen verwendet werden. Das vorgeschlagene Verfahren kann hierbei insbesondere mittels einer
Vermessungsanordnung gemäß einer der vorhergehend beschriebenen
Ausführungsformen durchgeführt werden.
Für das vorgeschlagene Verfahren kann die Registrierung der eingesetzten
Lageerfassungssysteme zueinander notwendig sein. Hierbei müssen zeitliche, rotatorische und/oder translatorische Zusammenhänge zwischen den
Lageerfassungssystemen und gegebenenfalls dem Messsystem bestimmt werden, um die Lagedaten fusionieren und in einem Referenzkoordinatensystem bestimmen zu können. Für diese Referenzierung der Lagesensoren sind Verfahren bekannt.
Somit ermöglicht das vorgeschlagene Verfahren die Inspektion von Gebäuden im
Rahmen eines Facility-Managements, z.B. im Rahmen von Lärmschutzmaßnahmen. Weiter wird die Inspektion von Gebäuden im Rahmen von sicherheitsrelevanten Aufgaben ermöglicht, z.B. für Einsätze der Polizei und Feuerwehr. Weiter ist eine Inspektion von Industrieanlagen, z.B. von Tanks, möglich. In einer weiteren Ausführungsform werden die ersten und die zweiten Positions- und/oder Orientierungsdaten zu resultierenden Positions- und/oder Orientierungsdaten fusioniert, wobei ausschließlich die durch die fusionierten oder resultierenden Positions- und/oder Orientierungsdaten codierten Positions- und/oder Orientierungsinformationen
abgespeichert werden. Die fusionierten Positions- und/oder Orientierungsdaten können die Positions- und/oder Orientierungsinformationen darstellen oder es können die
Positions- und/oder Orientierungsinformationen in Abhängigkeit der fusionierten Positionsund/oder Orientierungsdaten bestimmt werden.
Hierdurch ergibt sich in vorteilhafter Weise eine, wie vorhergehend erläutert, verbesserte Genauigkeit der Positions- und/oder Orientierungsinformationen sowie ein verringerter Speicherplatzbedarf.
In einer weiteren Ausführungsform ist ein Ursprung eines systemeigenen
Koordinatensystems des ersten unreferenzierten Lageerfassungssystems und ein
Ursprung eines systemeigenen Koordinatensystems des zweiten unreferenzierten Lageerfassungssystems oder ein Ursprung eines gemeinsamen Koordinatensystems zu Beginn eines Betriebs einer Vermessungsanordnung oder zu Beginn einer Messung oder zu einem Zeitpunkt einer Erzeugung eines Initialisierungssignals initialisierbar. Hierbei bedeutet initialisierbar, dass aktuelle Positions- und/oder Orientierungsinformationen bzw. Positions- und/oder Orientierungsdaten ab dem Zeitpunkt der Initialisierung als Referenzoder Ursprungskoordinaten verwendet werden. Somit werden die aktuellen Positionsund/oder Orientierungsinformationen bzw. die Positions- und/oder Orientierungsdaten zurückgesetzt. Ab diesem Zeitpunkt und bis zu einer erneuten Initialisierung werden nunmehr Positions- und/oder Orientierungsinformationen relativ zu diesem Ursprung bestimmt.
Ein Initialisierungssignal kann beispielsweise durch Betätigung einer entsprechenden Betätigungsvorrichtung, beispielsweise eines Tasters oder Schalters, erzeugt werden. Somit kann ein Benutzer, wenn sich die Vermessungsanordnung in einer von ihm gewünschten Lage und/oder Orientierung befindet, die systemeigenen
Koordinatensysteme initialisieren. In diesem Fall können alle bisher erzeugten Positionsund/oder Orientierungsinformationen bzw. Positions- und/oder Orientierungsdaten auf den neu initialisierten Ursprung umgerechnet werden. Somit ist es in vorteilhafter Weise möglich, dass bereits generierte Informationen zur räumlichen Referenzierung nicht verloren gehen. So kann ein Nutzer beispielsweise eine vollständige Vermessung durchführen und nach der Messung die systemeigenen Koordinatensysteme in einer von ihm gewünschten Position und/oder Orientierung der Vermessungsanordnung
initialisieren.
Beispielsweise kann auf diese Weise ein Bezug zu einem globalen oder
vorrichtungsexternen Koordinatensystem hergestellt werden. So kann die
Vermessungsanordnung in eine Position und/oder Orientierung gebracht werden, die in Bezug auf ein gewünschtes globales oder vorrichtungsexternes Koordinatensystem, beispielsweise ein Koordinatensystem eines GNSS, bekannt ist. Werden die
systemeigenen Koordinatensysteme der Lageerfassungssysteme in dieser Position und/oder Orientierung initialisiert, so kann eine Registrierung zwischen den bereits erzeugten oder noch zu erzeugenden Positions- und/oder Orientierungsinformationen und dem globalen Koordinatensystem bestimmt werden. Beispielsweise ist es möglich, dass ein Benutzer in erfindungsgemäß vorgeschlagener Weise geschlossene Räumlichkeiten vermisst und nach Abschluss der Vermessung sich aus den geschlossenen Räumen hinaus in einen Freiraum bewegt, in welchem eine Position und/oder Orientierung beispielsweise mittels eines GNSS-Sensors mit ausreichender Genauigkeit bestimmbar sind. Weiter kann, z.B. mittels eines GNSS-Sensors, dann eine aktuelle Position und/oder Orientierung der Vermessungsanordnung in einem Koordinatensystem des GNSS bestimmt werden. Weiter können, wie vorhergehend erläutert, die systemeigenen
Koordinatensysteme der Lageerfassungssysteme initialisiert werden und eine
Umrechnung der gespeicherten Positions- und/oder Orientierungsinformationen auf das Koordinatensystem des GNSS erfolgen.
Auch ist es möglich, z.B. bildbasiert, eine Struktur oder ein Objekt zu detektieren, dessen Position und/oder Orientierung in einem globalen Koordinatensystem bekannt ist. Weiter kann eine Position und/oder Orientierung der detektierten Struktur oder des detektierten Objekts in den systemeigenen Koordinatensystemen der Lageerfassungssysteme bestimmt werden. Schließlich kann dann eine Umrechnung der bereits bestimmten Positions- und/oder Orientierungsinformationen oder noch zu bestimmenden Positionsund/oder Orientierungsinformationen auf das globale Koordinatensystem erfolgen. In diesem Fall können also die unreferenzierten systemeigenen Koordinatensysteme der Lageerfassungssysteme auf die Position und/oder Orientierung des Objekts oder der Struktur initialisiert werden.
Wird eine Stereokamera als Lageerfassungssystem verwendet, so kann auch eine räumliche Referenzierung eines 2D-/3D-Umgebungsmodells erfolgen, welches in
Abhängigkeit der Bilddaten des Stereokamerasystems erzeugt wird.
Aus den bestimmten und gespeicherten Positions- und/oder Orientierungsinformationen kann auch eine Trajektorie der Vermessungsanordnung bestimmt werden. Somit ist es möglich, zu einem späteren Zeitpunkt eine Trajektorie in einem 2D-/3D-Modell darzustellen.
In einer weiteren Ausführungsform werden Positions- und/oder
Orientierungsinformationen in einem vorbestimmten Koordinatensystem bestimmt, beispielsweise mittels des vorhergehend erläuterten referenzierten
Lageerfassungssystems. Weiter werden die mittels des ersten und/oder des zweiten unreferenzierten Lageerfassungssystems erfassten Positions- und/oder
Orientierungsinformationen relativ zum systemeigenen oder gemeinsamen
Koordinatensystem in Positions- und/oder Orientierungsinformationen relativ zum vorbestimmten Koordinatensystem umgerechnet, wobei das vorbestimmte
Koordinatensystem verschieden vom systemeigenen oder gemeinsamen
Koordinatensystem ist. Das vorbestimmte Koordinatensystem ist insbesondere ein vorrichtungsexternes Koordinatensystem. Die Bestimmung der Positions- und/oder Orientierungsinformationen in dem vorbestimmten Koordinatensystem und/oder die Umrechnung kann/können hierbei kontinuierlich, in festen zeitlichen Abständen oder an unregelmäßig beabstandeten Zeitpunkten erfolgen, wobei die Zeitpunkte von Bestimmung und Umrechnung auch verschieden sein können. Beispielsweise kann die Bestimmung und/oder Umrechnung nur dann erfolgen, wenn eine Bestimmung physikalisch möglich ist. Auch kann die Bestimmung und/oder Umrechnung nur auf Benutzerwunsch, z.B. aufgrund eines entsprechenden Aktivierungssignals, erfolgen.
Hierdurch kann in vorteilhafter Weise die Bestimmung von Positions- und/oder
Orientierungsinformationen in einem gewünschten, beispielsweise gebäudefesten, Koordinatensystem, erfolgen. Die Erfindung wird anhand eines Ausführungsbeispiels näher erläutert. Die einzige Figur zeigt ein schematisches Blockschaltbild einer Vermessungsanordnung.
In Fig. 1 ist eine erfindungsgemäße Vermessungsanordnung 1 in einem schematischen Blockschaltbild dargestellt. Die Vermessungsanordnung 1 umfasst ein sensorisches System 2 zur Erzeugung von Messdaten. Das sensorische System 2 umfasst hierbei einen Sensor 3, z.B. einen Feuchtesensor. Weiter umfasst das sensorische System 2 eine Steuer- und Auswerteeinrichtung 4, die Ausgangssignale des Sensors 3
vorverarbeiten kann und einen Betrieb des Sensors 3 steuert. Weiter dargestellt ist, dass das sensorische System 2 eine Betätigungseinrichtung 5 zur Aktivierung des
sensorischen Systems 2 oder der Vermessungsanordnung 1 umfasst, die beispielsweise als Schalter ausgebildet sein kann.
Weiter umfasst die Vermessungsanordnung 1 ein kombiniertes Lageerfassungssystem 6. Das kombinierte Lageerfassungssystem 6 umfasst als erstes unreferenziertes
Lageerfassungssystem einen Inertialsensor 7. Weiter umfasst das kombinierte
Lageerfassungssystem 6 als zweites unreferenziertes Lageerfassungssystem ein
Stereokamerasystem, welches eine erste Kamera 8 und eine zweite Kamera 9 umfasst. Das erste unreferenzierte Lageerfassungssystem erfasst erste Positions- und
Orientierungsdaten mit Bezug auf ein systemeigenes dreidimensionales
Koordinatensystem 1 1 . Entsprechend erfasst das zweite unreferenzierte
Lageerfassungssystem zweite Positions- und Orientierungsdaten mit Bezug auf ein systemeigenes dreidimensionales Koordinatensystem 12. Hierbei erfasst die erste Kamera 8 und die zweite Kamera 9 jeweils Bilddaten in einem zweidimensionalen kameraeigenen Koordinatensystem 13, 14, wobei die Bilddaten in diesen
Koordinatensystemen 13, 14 dann von einer weiteren Steuer- und Auswerteeinrichtung 10 in das systemeigene dreidimensionale Koordinatensystem 12 umgerechnet werden. Somit werden erste Positions- und/oder Orientierungsdaten von dem Inertialsensor 7 und Bilddaten von den Kameras 8, 9 des Stereokamerasystems an die weitere Steuer- und Auswerteeinrichtung 10 übertragen, die aus den Ausgangssignalen Positions- und/oder Orientierungsinformationen berechnet, wobei die in den Ausgangssignalen des
Inertialsensors 7 kodierten ersten Positions- und/oder Orientierungsdaten mit den in den Bilddaten der Kameras 8, 9 kodierten Positions- und/oder Orientierungsdaten miteinander fusioniert werden. Die berechneten Positions- und/oder Orientierungsinformationen können z.B. referenziert zu einem vermessungsanordnungsfesten Koordinatensystem 15 sein. Hierbei kann die Auswerte- und Recheneinrichtung 10 auch Methoden der
Bildverarbeitung durchführen. Weiter werden sowohl die von der ersten Steuer- und Auswerteeinrichtung 4 als auch die von der weiteren Steuer- und Auswerteeinrichtung 10 bestimmten Daten in einer Speichereinrichtung 16 referenziert zueinander gespeichert. Somit sind also vorverarbeitete Messdaten räumlich referenziert zu einem gemeinsamen Koordinatensystem, nämlich dem vermessungsanordnungsfesten Koordinatensystem 15, des Inertialsensors 7 und des Stereokamerasystems gespeichert. Das
vermessungsanordnungsfeste Koordinatensystem 15 ist hierbei läge- und rotationsfest gegenüber der Vermessungsanordnung 1 .
Das sensorische System 2 und die Elemente des kombinierten Lageerfassungssystems 6 sind ebenfalls orts- und drehfest zueinander auf oder in der Vermessungsanordnung 1 angeordnet. Insbesondere sind auch die Kameras 8, 9 sowie der Initialsensor 7 orts- und drehfest zueinander angeordnet. Dies bedeutet, dass sich eine Registrierung zwischen den einzelnen Ausgangsdaten während des Betriebes nicht ändert.
Auch können das sensorische System 2 und die Elemente des kombinierten
Lageerfassungssystems 6 mechanisch lose gekoppelt sein, z.B. wenn es die
Anforderungen an die Genauigkeit der räumliche Referenzierung zulassen. Mechanisch lose kann beispielsweise bedeuten, dass die mechanische Kopplung derart ausgebildet ist, dass sich eine Position des sensorischen Systems 2 immer innerhalb eines
Kugelvolumens mit einem vorbestimmten Radius befindet, wobei ein Mittelpunkt des Kugelvolumens referenziert zu den Positions- und/oder Orientierungsinformationen bekannt ist. Dies gestattet beispielsweise eine Feuchtemessung per Hand direkt an einer Raumwand.
Die weitere Steuer- und Auswerteeinrichtung 10 kann hierbei in Echtzeit eine Lage in drei translatorischen und drei rotatorischen Freiheitsgraden, bezogen auf das
vermessungsanordnungsfeste Koordinatensystem 15, bestimmen. Zusätzlich kann die weitere Steuer- und Auswerteeinrichtung 10 aus den Ausgangssignalen der Kameras 8, 9 ein 3D-Modell erzeugen. Informationen des 3D-Modells können ebenfalls in der
Speichereinrichtung 16 räumlich referenziert gespeichert werden.

Claims

Patentansprüche
1 . Vermessungsanordnung, insbesondere zur Vermessung von geschlossenen
Räumen und/ oder von Außenbereichen mit gestörten oder fehlendem GNSS- Empfang, wobei die Vermessungsanordnung (1 ) mindestens ein sensorisches System (2) zur Erzeugung von Messdaten umfasst, wobei die
Vermessungsanordnung (1 ) weiter ein erstes unreferenziertes
Lageerfassungssystem zur Erzeugung erster Positions- und/oder
Orientierungsdaten und mindestens ein zweites unreferenziertes
Lageerfassungssystem zur Erzeugung zweiter Positions- und/oder
Orientierungsdaten umfasst, wobei die Vermessungsanordnung (1 ) weiter mindestens eine Speichereinrichtung (16) umfasst, wobei Messdaten und durch die ersten und/oder zweiten Positions- und/oder Orientierungsdaten codierte Positionsund/oder Orientierungsinformationen referenziert zueinander in der
Speichereinrichtung (16) speicherbar sind.
2. Vermessungsanordnung nach Anspruch 1 , dadurch gekennzeichnet, dass die
Vermessungsanordnung (1 ) eine Recheneinrichtung umfasst, wobei mittels der Recheneinrichtung die ersten und die zweiten Positions- und/oder
Orientierungsdaten zu resultierenden Positions- und/oder Orientierungsdaten fusionierbar sind.
3. Vermessungsanordnung nach einem der Ansprüche 1 oder 2, dadurch
gekennzeichnet, dass das erste unreferenzierte Lageerfassungssystem als optisches Lageerfassungssystem und das mindestens zweite unreferenzierte Lageerfassungssystem als inertiales Lageerfassungssystem ausgebildet ist.
4. Vermessungsanordnung nach Anspruch 3, dadurch gekennzeichnet, dass das optische Lageerfassungssystem als Stereokamerasystem ausgebildet ist.
5. Vermessungsanordnung nach einem der Ansprüche 1 bis 4, dadurch
gekennzeichnet, dass die Vermessungsanordnung (1 ) eine Kalibriervorrichtung zur Kalibrierung mindestens einer Kamera (8, 9) des Stereokamerasystems umfasst.
6. Vermessungsanordnung nach einem der Ansprüche 1 bis 5, dadurch
gekennzeichnet, dass das sensorische System (2) gleichzeitig als ein
unreferenziertes Lageerfassungssystem ausgebildet ist.
7. Vermessungsanordnung nach einem der Ansprüche 1 bis 6, dadurch
gekennzeichnet, dass die Vermessungsanordnung (1 ) zusätzlich mindestens ein weiteres Lageerfassungssystem umfasst, wobei das weitere Lageerfassungssystem einen GNSS-Sensor, einen Laserscanner, ein Magnetometer oder einen
Neigungssensor umfasst.
8. Vermessungsanordnung nach einem der Ansprüche 1 bis 7, dadurch
gekennzeichnet, dass zumindest sensorische Elemente des mindestens einen sensorisches Systems zur Erzeugung von Messdaten, des ersten unreferenzierten Lageerfassungssystems und des zweiten unreferenzierten Lageerfassungssystems einer Sensorkopfeinheit zugeordnet sind, wobei die Sensorkopfeinheit an oder in einem Helm oder an oder in einem Handgerät oder an oder in einem tragbaren Gehäuse oder an oder in einer Brille angeordnet ist.
9. Vermessungsanordnung nach einem der Ansprüche 1 bis 8, dadurch
gekennzeichnet, dass die Vermessungsanordnung (1 ) mindestens eine
Beleuchtungseinrichtung umfasst, wobei mittels der Beleuchtungseinrichtung Licht im nicht-sichtbaren Bereich erzeugbar ist.
10. Vermessungsanordnung nach einem der Ansprüche 1 bis 9, dadurch
gekennzeichnet, dass die Vermessungsanordnung (1 ) zumindest einen Teil eines referenzierten Lageerfassungssystems umfasst.
1 1 . Verfahren zur Vermessung, insbesondere von geschlossenen Räumen und/oder von Au ßenbereichen mit gestörtem oder fehlendem GNSS-Empfang, wobei ein sensorisches System (2) Messdaten erzeugt,
wobei ein erstes unreferenziertes Lageerfassungssystem erste Positions- und/oder Orientierungsdaten erzeugt,
wobei zweites unreferenziertes Lageerfassungssystem zweite Positions- und/oder Orientierungsdaten erzeugt,
wobei Messdaten und durch die ersten und/oder zweiten Positions- und/oder Orientierungsdaten codierte Positions- und/oder Orientierungsinformationen referenziert zueinander gespeichert werden.
12. Verfahren nach Anspruch 1 1 , dadurch gekennzeichnet, dass die ersten und die zweiten Positions- und/oder Orientierungsdaten zu resultierenden Positionsund/oder Orientierungsdaten fusioniert werden.
13. Verfahren nach einem der Ansprüche 1 1 oder 12, dadurch gekennzeichnet, dass ein Ursprung eines systemeigenen Koordinatensystems des ersten unreferenzierten Lageerfassungssystem und ein Ursprung eines systemeigenen Koordinatensystems des zweiten unreferenzierten Lageerfassungssystem oder ein Ursprung eines gemeinsamen Koordinatensystem zu Beginn eines Betriebs einer
Vermessungsanordnung (1 ) oder zu Beginn einer Messung oder zu einem Zeitpunkt einer Erzeugung eines Initialisierungssignals initialisierbar ist.
14. Verfahren nach einem der Ansprüche 1 1 bis 13, dadurch gekennzeichnet, dass Positions- und/oder Orientierungsinformationen in einem vorbestimmten
Koordinatensystem bestimmt werden, wobei die mittels des ersten und/oder des zweiten unreferenzierten Lageerfassungssystems erfassten Positions- und/oder Orientierungsinformationen relativ zu einem systemeigenen oder gemeinsamen Koordinatensystem in Positions- und/oder Orientierungsinformationen relativ zum vorbestimmten Koordinatensystem umgerechnet werden, wobei das vorbestimmte Koordinatensystem verschieden vom systemeigenen oder gemeinsamen
Koordinatensystem ist.
PCT/EP2014/052121 2013-02-04 2014-02-04 Vermessungsanordnung und verfahren zur vermessung WO2014118386A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102013201769.3 2013-02-04
DE102013201769.3A DE102013201769A1 (de) 2013-02-04 2013-02-04 Vermessungsanordnung und Verfahren zur Vermessung

Publications (1)

Publication Number Publication Date
WO2014118386A1 true WO2014118386A1 (de) 2014-08-07

Family

ID=50031358

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2014/052121 WO2014118386A1 (de) 2013-02-04 2014-02-04 Vermessungsanordnung und verfahren zur vermessung

Country Status (2)

Country Link
DE (2) DE102013201769A1 (de)
WO (1) WO2014118386A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114167493A (zh) * 2021-11-23 2022-03-11 武汉大学 Gnss双天线辅助陀螺的地震旋转测量系统及方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014102727B3 (de) * 2014-02-28 2015-07-30 Lars Geißler Kamerabasierter Positionssensor und Verfahren zur Positionsbestimmung
US9704250B1 (en) 2014-10-30 2017-07-11 Amazon Technologies, Inc. Image optimization techniques using depth planes
DE102016007297A1 (de) * 2016-06-16 2017-12-21 Michael Salewski Vorrichtung zur Erfassung von Meßwertänderungen an einem Einsatzort, aufweisend mindestens ein elektrisch leitendes Element

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6083353A (en) * 1996-09-06 2000-07-04 University Of Florida Handheld portable digital geographic data manager
US20110206236A1 (en) * 2010-02-19 2011-08-25 Center Jr Julian L Navigation method and aparatus
WO2012151333A2 (en) * 2011-05-02 2012-11-08 Certusview Technologies, Llc Marking methods, apparatus and systems including optical flow-based dead reckoning features
DE102011084690A1 (de) 2011-10-18 2013-04-18 Deutsches Zentrum für Luft- und Raumfahrt e.V. Kamera und Verfahren zur geometrischen Kalibrierung einer Kamera

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10138719A1 (de) * 2001-08-07 2003-03-06 Siemens Ag Verfahren und Vorrichtung zur Darstellung von Fahrhinweisen, insbesondere in Auto-Navigationssystemen
US7015831B2 (en) * 2002-12-17 2006-03-21 Evolution Robotics, Inc. Systems and methods for incrementally updating a pose of a mobile device calculated by visual simultaneous localization and mapping techniques
DE102004001572B4 (de) * 2004-01-12 2008-11-13 Daimler Ag Laufzeit-Kalibrierungsverfahren
US7499776B2 (en) * 2004-10-22 2009-03-03 Irobot Corporation Systems and methods for control of an unmanned ground vehicle
DE102007016802B3 (de) * 2007-04-05 2008-05-15 Miele & Cie. Kg Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6083353A (en) * 1996-09-06 2000-07-04 University Of Florida Handheld portable digital geographic data manager
US20110206236A1 (en) * 2010-02-19 2011-08-25 Center Jr Julian L Navigation method and aparatus
WO2012151333A2 (en) * 2011-05-02 2012-11-08 Certusview Technologies, Llc Marking methods, apparatus and systems including optical flow-based dead reckoning features
DE102011084690A1 (de) 2011-10-18 2013-04-18 Deutsches Zentrum für Luft- und Raumfahrt e.V. Kamera und Verfahren zur geometrischen Kalibrierung einer Kamera

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114167493A (zh) * 2021-11-23 2022-03-11 武汉大学 Gnss双天线辅助陀螺的地震旋转测量系统及方法
CN114167493B (zh) * 2021-11-23 2023-08-04 武汉大学 Gnss双天线辅助陀螺的地震旋转测量系统及方法

Also Published As

Publication number Publication date
DE202014001126U1 (de) 2014-05-06
DE102013201769A1 (de) 2014-08-07

Similar Documents

Publication Publication Date Title
EP3660451B1 (de) Intelligentes stationierungs-modul
EP3410064B1 (de) Inspektionskameraeinheit, verfahren zur inspektion von innenräumen sowie sensoreinheit
KR102121974B1 (ko) 드론을 이용한 재난피해 조사·분석시스템 및 이를 이용한 재난피해 조사·분석방법
EP2101867B1 (de) Sehhilfe mit dreidimensionaler bilderfassung
EP2669707B1 (de) Verfahren und handhaltbares Entfernungsmessgerät zur indirekten Entfernungsmessung mittels bildgestützter Winkelbestimmungsfunktion
EP1664674B1 (de) Verfahren und system zur bestimmung der aktualposition eines handhaltbaren messgerätes im raum
DE112015004396T5 (de) Augmented-reality-kamera zur verwendung mit 3d-metrologie-ausrüstung zum erzeugen von 3d-bildern aus 2d-kamerabildern
DE112011102995T5 (de) Laserscanner oder Lasernachführungsgerät mit einem Projektor
DE112016002057T5 (de) Dreidimensionales messgerät, lösbar verkoppelt mit einem roboterarm auf einer motorisierten mobilen plattform
EP3182065A1 (de) Handhaltbares entfernungsmessgerät und verfahren zum erfassen relativer positionen
DE112012007096B4 (de) Trackereinheit und Verfahren in einer Trackereinheit
DE102012111345B4 (de) Mobiles Handgerät zur Ausrichtung eines Sensors
JP4658318B2 (ja) 物体の位置および回転位置を求める方法
DE102014205640B4 (de) Vermessung mittels mobilem Gerät
DE202010013825U1 (de) Tragbare 3D Messvorrichtung
WO2014118386A1 (de) Vermessungsanordnung und verfahren zur vermessung
EP3250883A1 (de) Positionieren zweier körper mittels eines ausrichtsystems mit einer datenbrille
Wagner et al. Long-range geo-monitoring using image assisted total stations
DE102008023439B4 (de) Augmented Reality Fernglas zur Navigationsunterstützung
DE102014019669B4 (de) 16Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mit vorgegebenen Bedingungen
DE102019201134B4 (de) Verfahren, Computerprogramm mit Instruktionen und System zum Einmessen einer Augmented-Reality-Brille und Augmented-Reality-Brille zur Verwendung in einem Kraftfahrzeug
DE102016119150A1 (de) Registrierungsberechnung zwischen dreidimensionalen (3D) Abtastungen auf Basis zweidimensionaler (2D) Abtastungsdaten von einem 3D-Scanner
AT515294B1 (de) Markiereinrichtung, Laserscanner und Verfahren zum Kalibrieren einer Abtastpunktwolke
DE102020207454A1 (de) Messvorrichtung
DE4326704A1 (de) Verfahren zur Messung von geometrischen Größen mit Hilfe von optischen Positionsdetektoren in der Kamerafokusebene

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14702285

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14702285

Country of ref document: EP

Kind code of ref document: A1