DE202014010357U1 - Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten - Google Patents

Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten Download PDF

Info

Publication number
DE202014010357U1
DE202014010357U1 DE202014010357.7U DE202014010357U DE202014010357U1 DE 202014010357 U1 DE202014010357 U1 DE 202014010357U1 DE 202014010357 U DE202014010357 U DE 202014010357U DE 202014010357 U1 DE202014010357 U1 DE 202014010357U1
Authority
DE
Germany
Prior art keywords
hand
scanner
video image
point cloud
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202014010357.7U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faro Technologies Inc
Original Assignee
Faro Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Faro Technologies Inc filed Critical Faro Technologies Inc
Priority to DE202014010357.7U priority Critical patent/DE202014010357U1/de
Priority to DE102015106836.2A priority patent/DE102015106836B4/de
Priority to DE102015106838.9A priority patent/DE102015106838B4/de
Priority to DE102015106837.0A priority patent/DE102015106837B4/de
Publication of DE202014010357U1 publication Critical patent/DE202014010357U1/de
Expired - Lifetime legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed

Abstract

Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung eines Handscanners (100), umfassend einen Handscanner (100) und eine Steuer- und Auswertevorrichtung (122) mit einem Display (130), wobei der Handscanner (100) seine Umgebung aufnimmt und Daten an die Steuer- und Auswertevorrichtung (122) liefert, welche die vom Handscanner (100) gelieferten Daten verarbeitet und daraus 3D-Scans mit einer dreidimensionalen Punktwolke (3DP) erzeugt, wobei eine Kamera (113) ein Videobild (VL) der Umgebung aufnimmt, welches auf einem Display (130) der Steuer- und Auswertevorrichtung (122) dargestellt wird, dadurch gekennzeichnet, dass Bewegungen des Handscanners (100) aufgrund von Gesten des Benutzers die Darstellung des Videobildes (VL) und/oder der dreidimensionalen Punktwolke (3DP) steuern.

Description

  • Die Erfindung betrifft eine Vorrichtung mit den Merkmalen des Oberbegriffs des Anspruches 1.
  • Eine Vorrichtung dieser Art ist aus der US 6,826,299 B2 bekannt. Ein Projektor projiziert Lichtmuster auf die Oberfläche eines zu scannenden Objekts. Die Position des Projektors wird anhand eines projizierten kodierten Musters bestimmt. Zwei (oder mehr) Kameras, deren Relativpositionen und -ausrichtungen bekannt sind oder ermittelt werden, können die Oberfläche mit einem weiteren, unkodierten Muster aufnehmen. Mittels an sich bekannter mathematischer Methoden, wie der Epipolargeometrie, können die dreidimensionalen Koordinaten (der Punkte des Musters) ermittelt werden.
  • Aus dem Spielebereich sind Scanner als Zielverfolgungseinrichtungen bekannt, bei welchen ein Projektor ein kodiertes Lichtmuster auf das zu verfolgende Ziel projiziert, vorzugsweise den spielenden Benutzer, um dieses kodierte Lichtmuster dann mit einer Kamera aufzunehmen und die Koordinaten des Benutzers zu ermitteln. Die Daten werden auf einem geeigneten Display dargestellt.
  • Die US 8,238,611 B2 offenbart ein System zum Scannen einer Szene einschließlich Entfernungsmessung. Das System besteht in seiner einfachsten Form aus einer Kameraeinheit mit zwei Kameras, gegebenenfalls mit Filtern, zur stereoskopischen Erfassung eines Zielbereichs, aus einer Beleuchtungseinheit zur Erzeugung eines Musters im Zielbereich, vorzugsweise mittels eines diffraktiven optischen Elements, und aus einer Synchronisiereinheit, welche Beleuchtungseinheit und Kameraeinheit aufeinander abstimmt. Kameraeinheit und Beleuchtungseinheit können in wählbaren Relativpositionen aufgestellt werden. Wahlweise können auch zwei Kameraeinheiten oder zwei Beleuchtungseinheiten eingesetzt werden.
  • Der Erfindung liegt die Aufgabe zu Grunde, eine Vorrichtung der eingangs genannten Art zu verbessern. Diese Aufgabe wird erfindungsgemäß durch eine Vorrichtung mit den Merkmalen des Anspruches 1 gelöst. Vorteilhafte Ausgestaltungen sind Gegenstand der Unteransprüche.
  • Die erfindungsgemäße Tragestruktur, welche vorzugsweise mechanisch und thermisch (besonders) stabil ist, definiert die relativen Abstände und relativen Ausrichtungen der Kameras und des Projektors. Die Anordnung auf Vorderseite des Handscanners, welche bei bestimmungsgemäßem Gebrauch der Umgebung zugewandt ist, hat den Vorteil, dass diese Abstände und Ausrichtungen nicht durch Formänderungen eines Gehäuses geändert werden.
  • Der Begriff ”Projektor” soll sich allgemein auf eine Vorrichtung zur Erzeugung eines Musters beziehen. Die Erzeugung des Musters kann durch ablenkende Verfahren, beispielsweise die Erzeugung mittels diffraktiver optischer Elemente oder Mikrolinsen (oder Einzel-Laser), oder durch abschattende Verfahren, beispielsweise die Erzeugung mittels Blenden, Dias (wie sie bei einem Dia-Projektor verwendet werden würden) und anderen Masken, erfolgen. Die ablenkenden Verfahren haben dabei den Vorteil, dass weniger Licht verloren geht und daher mehr Intensität zur Verfügung steht.
  • Die für die Entfernungsmessung vorgesehenen Baugruppen sind nicht kolinear angeordnet. Im Falle von einem Projektor und zwei Kameras sind diese in einer Dreiecksanordnung zueinander angeordnet.
  • In Abhängigkeit der Anzahl der für die Entfernungsmessung vorgesehenen Baugruppen ist vorzugsweise eine entsprechend Anzahl von Armen der Tragestruktur vorgesehen, welche vorzugsweise von einer gemeinsamen Mitte aus abstehen. Die besagten Baugruppen sind vorzugsweise im Bereich der Enden der zugeordneten Arme vorgesehen. Die Baugruppen sind vorzugsweise jeweils auf der Rückseite der Tragestruktur angeordnet. Ihre jeweilige Optik ist durch eine zugeordnete Öffnung in der Tragestruktur gerichtet, gegebenenfalls eingeführt, so dass die Baugruppen von der Vorderseite aus in die Umgebung blicken, worunter aus das Projizieren verstanden werden soll. Ein Gehäuse deckt die Rückseite ab und bildet das Griffteil.
  • Die Tragestruktur besteht vorzugsweise aus einer kohle- oder glasfaserverstärkten Matrix aus Kunststoff oder Keramik (oder einem anderen Material). Das Material sorgt für Stabilität und ein geringes Gewicht und kann zugleich mit Sichtflächen ausgebildet sein. Eine konkave (sphärische) Krümmung der Vorderseite der Tragestruktur hat nicht nur konstruktive Vorteile, sondern schützt die Optiken der für die Entfernungsmessung vorgesehenen Baugruppen, wenn der Handscanner auf der Vorderseite abgelegt wird.
  • Der Projektor erzeugt das Muster, welches vorzugsweise nicht im sichtbaren Wellenlängenbereich liegt, sondern im Infraroten. Entsprechend sind die beiden Kameras in diesem Wellenlängenbereich empfindlich, während Streulicht und andere Störungen im sichtbaren Wellenlängenbereich herausgefiltert werden können. Für Farbinformationen kann als dritte Kamera eine Farbkamera vorgesehen sein, welche ebenfalls die Umgebung und das zu scannende Objekt aufnimmt. Mit den so erlangten Farbinformationen kann dann der 3D-Scan eingefärbt werden.
  • Der Handscanner erzeugt mehrere 3D-Scans der gleichen Szene von verschiedenen Positionen aus. Die 3D-Scans werden in einem gemeinsamen Koordinatensystem registriert. Für das Zusammenfügen zweier überlappender 3D-Scans sind wiedererkennbare Strukturen von Vorteil. Vorzugsweise werden solche wiedererkennbaren Strukturen laufend oder wenigstens nach dem Aufnahmevorgang gesucht und angezeigt. Wenn im einem bestimmten Bereich die Dichte nicht groß genug erscheint, können weitere 3D-Scans dieses Bereichs erzeugt werden. Eine Unterteilung des verwendeten Displays zur Darstellung eines Videobildes und der (dazu benachbarten Teile der) dreidimensionalen Punktwolke hilft zu erkennen, in welchen Bereichen noch Scans erzeugt werden sollten.
  • Der Handscanner ist vorliegend als tragbarer Scanner konzipiert, arbeitet also mit hoher Geschwindigkeit und weist ein geringes Gewicht auf. Es ist aber auch möglich, dass der Handscanner auf einem Dreibein (oder einem anderen Stativ), auf einem manuell verfahrbaren Trolley (oder einem anderen Wagen) oder auf einem autonom fahrenden Roboter montiert ist, also nicht mehr vom Benutzer getragen wird, gegebenenfalls auch unter Verwendung eines anderen Gehäuses, beispielsweise ohne Griffteil. Der Begriff ”Handscanner” ist daher weit auszulegen, so dass er allgemein als kompakte Einheiten ausgebildete Scanner umfasst, die stationär oder mobil sind und gegebenenfalls mit anderen Vorrichtungen verbaut sind.
  • Im Folgenden ist die Erfindung anhand eines in der Zeichnung dargestellten Ausführungsbeispiels näher erläutert. Es zeigen
  • 1 eine perspektivische Ansicht eines Handscanners und eines Objekt in der Umgebung,
  • 2 eine Ansicht der Vorderseite des Handscanners,
  • 3 eine Ansicht der Rückseite des Handscanners,
  • 4 eine Draufsicht auf den Handscanner von oben,
  • 5 eine rechte Seitenansicht des Handscanners,
  • 6 eine 1 entsprechende Ansicht ohne Gehäuse,
  • 7 eine Darstellung der Steuer- und Auswertevorrichtung mit Display, und
  • 8 eine 7 entsprechende Darstellung mit einem kleineren Maßstab des Videobildes.
  • Ein Handscanner 100 ist als tragbarer Teil einer Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung des Handscanners 100 mit Objekten O vorgesehen. Die – beim bestimmungsgemäßen Betrieb – dem Benutzer zugewandte Seite des Handscanners 100, d. h sei als Rückseite und die der Umgebung zugewandte Seite als Vorderseite bezeichnet. Diese Definition erstreckt sich auf die Bestandteile des Handscanners 100. Der Handscanner 100 weist (auf seiner Vorderseite) sichtbar eine Tragestruktur 102 mit drei Armen 102a, 102b, 102c auf, welche der Tragestruktur 102 eine T-Form oder V-Form geben, also eine Dreiecksanordnung. Der Bereich, in welchem die drei Arme 102a, 102b, 102c miteinander verbunden sind und von welchem aus die drei Arme 102a, 102b, 102c abstehen, definiert die Mitte des Handscanners 100. Vom Benutzer aus gesehen, bei bestimmungsgemäßem Gebrauch, weist die Tragestruktur 102 einen linken Arm 102a, einen rechten Arm 102b und einen unteren Arm 102c auf. Vorliegend beträgt beispielsweise der Winkel zwischen linkem Arm 102a und rechtem Arm 102b etwa 150° ± 20° zwischen linker Arm 102a und unterem Arm 102c etwa 105° ± 10°. Der untere Arm 102c ist meist etwas länger als die beiden anderen Arme 102a, 102b.
  • Die Tragestruktur 102 ist vorzugsweise aus einem kohlefaserverstärkten Kunststoff (CFK) ausgebildet, alternativ beispielsweise aus einer kohlefaserverstärkten Keramik oder aus einem glasfaserverstärkten Kunststoff. Das Material macht die Tragestruktur 102 mechanisch und thermisch stabil und sorgt zugleich für ein geringes Gewicht. Die Abmessung der Tragestruktur 102 senkrecht zu den Armen 102a, 102b, 102c ist deutlich geringer (beispielsweise 5 bis 15 mm) als die Länge der Arme 102a, 102b, 102c (beispielsweise 15 bis 25 cm). Die Tragestruktur 102 hat daher eine flache Grundform, vorliegend an einigen Abschnitten der Arme 102a, 102b, 102c mit einem verstärkten Rücken in der Mitte. Sie ist aber vorzugsweise nicht eben ausgebildet, sondern gekrümmt. Diese Krümmung der Tragestruktur 102 ist an die Krümmung einer Kugel angepasst, welche einen Radius von etwa 1 bis 3 m hat. Die (dem Objekt O zugewandte) Vorderseite der Tragestruktur 102 ist dabei konkav ausgebildet, die Rückseite konvex. Die gekrümmte Form der Tragestruktur 102 ist für die Stabilität vorteilhaft. Die Vorderseite der Tragestruktur 102 (und vorliegend auch die sichtbaren Bereiche der Rückseite) ist als Sichtfläche ausgebildet, d. h. ohne Blenden, Abdeckungen, Verkleidungen oder sonstige Aufmachungen versehen. Die bevorzugte Ausbildung aus faserverstärkten Kunststoffen oder Keramiken ist hierfür besonders geeignet.
  • Auf der Rückseite der Tragestruktur 102 ist ein Gehäuse 104 angeordnet, welches im Bereich der Enden der drei Arme 102a, 102b, 102c mittels geeigneter Verbindungsmittel schwimmend mit der Tragestruktur 102 verbunden ist, beispielsweise mittels Gummiringen und Schrauben mit etwas Spiel. Der Rand des Gehäuses 104 ist im Bereich des linken Arms 102a und des rechten Arms 102b bis in die unmittelbare Nähe der Tragestruktur 102 gezogen, während das Gehäuse 104 von der Mitte des Handscanners 100 aus im Bereich des unteren Arms 102c im Abstand zur Tragestruktur 102 verläuft unter Bildung eines Griffteils 104g, am Ende des Griffteils 104g abbiegt und sich dem Ende des unteren Arms 102c nähert, wo es mit diesem schwimmend verbunden ist und sein Rand bis in die unmittelbare Nähe der Tragestruktur 102 gezogen ist. Soweit an einigen Abschnitten der Tragestruktur 102 ein verstärkter Rücken 102r vorgesehen ist, ragt dieser Rücken 102r in das Innere des Gehäuses 104. Das Gehäuse 104 wirkt als Haube.
  • Vorzugsweise sind Schutzelemente 105 am Gehäuse 104 oder an der Tragestruktur 102 angebracht, insbesondere an den Enden der Arme 102a, 102b, 102c, welche vor Stößen und daraus folgenden Beschädigungen schützen. Bei Nichtgebrauch kann der Handscanner 100 mit der Vorderseite nach unten abgelegt werden. Dabei kommt er aufgrund der konkaven Krümmung der Vorderseite auf den Enden der Arme 102a, 102b, 102c zu liegen. Auch hier sind die Schutzelemente 105 an den Enden der Arme 102a, 102b, 102c hilfreich, indem der Handscanner 100 auf diesen zu liegen kommt. Ferner können am Gehäuse 104, insbesondere am Griffteil 104g, optional Noppen aus einem weichen Material, beispielsweise Gummi, angebracht sein, welche für einen guten Kontakt mit der Hand des Benutzers sorgen.
  • Auf der Rückseite des Gehäuses 104 ist in der Mitte des Handscanners 100 ein Bedienknopf 106 angeordnet, mittels dessen wenigstens das optische Abtasten und Vermessen, also der Aufnahmevorgang (Scanvorgang), gestartet und gestoppt werden kann. Der Bedienknopf 106 ist vorzugsweise multifunktional, beispielsweise mittels zeitlich strukturierter Sequenzen und/oder räumlich unterscheidbarer Bedienrichtungen, d. h. der Bedienknopf 106 kann nicht nur in eine Richtung gedrückt werden, sondern in mehrere Richtungen unterscheidbar gekippt werden. Um den Bedienknopf 106 herum sind vorzugsweise eine oder mehrere Statusleuchten 107 angeordnet, welche den aktuellen Zustand des Handscanners 100 anzeigen und dadurch dessen Bedienung erleichtern. Die Statusleuchten 107 können vorzugsweise unterschiedliche Farben (grün, rot, ...) anzeigen, um mehrere Zustände unterscheiden zu können. Vorzugsweise sind die Statusleuchten 107 als LED ausgebildet.
  • An der Tragstruktur 102 sind – in einem definierten Abstand voneinander beabstandet – am linken Arm 102a (im Bereich von dessen Ende) eine erste Kamera 111 und am rechten Arm 102b (im Bereich von dessen Ende) eine zweite Kamera 112 angeordnet. Genauer gesagt, sind die beiden Kamera 111 und 112 auf der Rückseite der Tragestruktur 102 angeordnet und daran befestigt, wobei die Tragestruktur 102 jeweils eine Öffnung aufweist, durch welche die jeweilige Kamera 111, 112 zur Vorderseite der Tragestruktur 102 hinaus blicken kann. Die beiden Kameras 111, 112 werden vorzugsweise von den Verbindungsmitteln für die schwimmende Verbindung des Gehäuses 104 mit der Tragestruktur 102 umgeben.
  • Die Ausrichtungen der ersten Kamera 111 und der zweiten Kamera 112 zueinander sind so eingestellt oder einstellbar, dass die Gesichtsfelder überlappen und stereoskopische Aufnahmen der Objekte O möglich sind. Wenn die Ausrichtungen fest eingestellt sind, gibt es je nach Anwendung einen optimalen Überlapp-Bereich. Hinsichtlich Genauigkeit wäre ein Überlapp-Bereich ähnlich der Abmessung des Handscanners 100 günstig. Abhängig von typischen Umgebungssituationen kann auch ein Bereich von mehreren Dezimetern oder Meter bevorzugt werden. Alternativ sind die Ausrichtungen vom Benutzer einstellbar, beispielsweise durch gegensinniges Schwenken der Kameras 111 und 112. Die Ausrichtung kann dem Handscanner 100 jederzeit bekannt sein, wenn der Einstellvorgang des Benutzers verfolgt wird, oder die Ausrichtung ist zunächst beliebig (und unbekannt), und wird dann beispielsweise durch werksseitiges Kalibrieren dem Handscanner 100 bekannt gemacht.
  • Vorzugsweise sind die erste Kamera 111 und die zweite Kamera 112 monochrom, d. h. für einen engen Wellenlängenbereich empfindlich, beispielsweise indem sie entsprechende Filter aufweisen, die dann andere Wellenlängenbereiche einschließlich Streulicht ausfiltern. Dieser enge Wellenlängenbereich liegt vorzugsweise im Infrarot-Bereich. Um trotzdem Farbinformationen über die Objekte O zu erhalten, weist der Handscanner 100 vorzugsweise zusätzlich eine Farbkamera 113 auf, vorzugsweise symmetrisch zur ersten Kamera 111 und zweiten Kamera 112 ausgerichtet und in der Mitte des Handscanners 100 zwischen den beiden angeordnet. Die Farbkamera 113 ist dann im sichtbaren Wellenlängenbereich empfindlich.
  • Um für die Farbkamera 113 die Szene bei ungünstigen Lichtverhältnissen auszuleuchten, sind wenigstens eine, vorliegend vier (leistungsstarke) Leuchtdioden (LED) 114 vorgesehen. Jeder Leuchtdiode 114 ist ein Abstrahlelement 115 zugeordnet, mittels dessen das Licht der Leuchtdiode 114 entsprechend der Ausrichtung des Handscanners 100 abgestrahlt wird. Ein solches Abstrahlelement 115 kann beispielsweise eine Linse oder ein geeignet ausgebildetes Ende eines Lichtleiters sein. Die (vorliegend vier) Abstrahlelemente 115 sind gleichmäßig um die Farbkamera 113 herum angeordnet. Jede Leuchtdiode 114 ist mittels jeweils eines Lichtleiters 116 mit dem zugeordneten Abstrahlelement 115 verbunden. Die Leuchtdioden 114 können daher baulich an einer Steuereinheit 118 des Handscanners 100 angeordnet sein, insbesondere auf einer Platine derselben befestigt sein.
  • Um später eine Referenz für die Aufnahmen der Kameras 111, 112, 113 haben, ist vorzugsweise ein Neigungsmesser 119 vorgesehen. Als Neigungsmesser 119 bevorzugt ist ein Beschleunigungssensor (mit einer oder mehreren sensitiven Achsen), der in an sich bekannter Weise als MEMS (micro-electro-mechanical system) hergestellt ist. Als Neigungsmesser 119 sind auch andere Ausführungen und Kombinationen möglich. Die Daten des Handscanners 100 haben jeweils (als eine Komponente) eine Gravitationsrichtung, die der Neigungsmesser 119 liefert.
  • Grundsätzlich könnten aus den Aufnahmen der ersten Kamera 111 und der zweiten Kamera 112 bereits dreidimensionale Daten ermittelt werden, also 3D-Scans der Objekte O erstellt werden, beispielsweise mittels Photogrammetrie. Jedoch weisen die Objekte O häufig wenig Strukturen und viele glatte Flächen auf, so dass die Erstellung von 3D-Scans aus dem Streulicht der Objekte O schwierig ist.
  • Es ist daher ein Projektor 121 vorgesehen, welcher am unteren Arm 102c (im Bereich seines Endes) auf der Rückseite der Tragestruktur 102 angeordnet und daran befestigt ist, und zwar entsprechend der Kameras 111, 112, 113, d. h. die Tragestruktur 102 weist eine Öffnung auf, durch welcher der Projektor 121 zur Vorderseite der Tragestruktur 102 hinaus blicken kann. Der Projektor 121 wird vorzugsweise von den Verbindungsmitteln für die schwimmende Verbindung des Gehäuses 104 mit der Tragestruktur 102 umgeben. Der Projektor 121, die erste Kamera 111 und die zweite Kamera 112 sind in einer Dreiecksanordnung zueinander angeordnet und in die Umgebung des Handscanners 100 gerichtet. Der Projektor 121 ist entsprechend der beiden Kameras 111 und 112 ausgerichtet. Die relative Ausrichtung ist fest eingestellt oder vom Benutzer einstellbar.
  • Wird der Handscanner 100 bei Nichtgebrauch auf die Vorderseite gelegt, also mit der Vorderseite nach unten auf einer Ablagefläche abgelegt, so sorgt die konkave Krümmung der Vorderseite dafür, dass die Kameras 111, 112, 113 und der Projektor 121 von der Ablagefläche beabstandet bleiben, also beispielsweise die jeweiligen Linsen vor Beschädigungen geschützt sind.
  • Die Kameras 111, 112, 113, der Projektor 121, der Bedienknopf 106, die Statusleuchten 107, die Leuchtdioden 114 und der Neigungsmesser 119 sind mit der gemeinsamen Steuereinheit 118 verbunden, die innerhalb des Gehäuses 104 angeordnet ist. Diese Steuereinheit 118 kann Bestandteil einer im Gehäuse integrierten Steuer- und Auswertevorrichtung sein. Vorzugsweise ist die besagten Steuereinheit 118 aber mit einer genormten Kommunikationsschnittstelle am Gehäuse 104 verbunden, die für eine drahtlose Verbindung (beispielsweise Bluetooth, WLAN, DECT) als Sende- und Empfangseinheit oder für eine kabelgebundene Verbindung (beispielsweise USB, LAN) ausgebildet ist, gegebenenfalls auch als ein spezielle Schnittstelle, wie sie in der DE 10 2009 010 465 B3 beschrieben ist. Die Kommunikationsschnittstelle ist mittels der besagten drahtlosen oder kabelgebundenen Verbindung mit einer externen Steuer- und Auswertevorrichtung 122 (als weiterem Bestandteil der Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung des Handscanners 100) verbunden. Vorliegend ist die Kommunikationsschnittstelle für eine kabelgebundende Verbindung ausgebildet, wobei am Gehäuse 104 ein Kabel 125 eingesteckt ist, beispielsweise am unteren Ende des Griffteils 104g, so dass das Kabel 125 in Verlängerung des Griffteils 104g abgeht.
  • Die Steuer- und Auswertevorrichtung 122 ist vorzugsweise ein tragbarer Computer (Notebook) oder ein Tablet (oder Smartphone), auf welchem eine spezielle Software zum Steuern des Handscanners 100 und zum Auswerten der gelieferten Messdaten implementiert ist. Die Steuer- und Auswertevorrichtung 122 kann aber auch eine spezielle Hardware sein.
  • Der Projektor 121 projiziert auf die zu scannenden Objekte O ein Muster X, das er beispielsweise mittels eines diffraktiven optischen Elements erzeugt. Das Muster X braucht nicht kodiert (also eindeutig) zu sein, sondern ist vorzugsweise unkodiert, beispielsweise periodisch, also mehrdeutig. Die Mehrdeutigkeit wird durch die Verwendung der beiden Kameras 111 und 112 in Kombination mit dem vorhandenen exakten Wissen über die Form und Richtung des Musters aufgelöst.
  • Vorzugsweise ist das unkodierte Muster X ein Punktmuster, bestehend aus einer regelmäßigen Anordnung von Punkten in einem Gitter. Vorliegend werden beispielsweise etwa einhundert mal einhundert Punkte in einem Winkel von etwa 50° in eine Entfernung von etwa 0,5 m bis 5 m projiziert. Das Muster X kann auch ein Linienmuster oder ein Kombinationsmuster von Punkten und Linien sein, das jeweils aus entsprechend dicht angeordneten Lichtpunkten gebildet wird.
  • Es besteht ein Zusammenhang zwischen der Punktdichte, der Distanz zwischen dem Projektor 121 und dem Objekt O und der Auflösung, welche mit dem erzeugten Muster X erreicht werden kann. Wenn nur einzelne Aufnahmen zu Verfügung stehen, können mit einer höheren Punktdichte feine Strukturen des Objekts O untersucht werden, mit niederen Punktdichten nur grobe Strukturen. Es erscheint daher hilfreich, außer dem Muster X wenigstens noch ein anderes Muster erzeugen zu können. Je nach Erzeugung der Muster ist ein dynamischer Übergang zwischen den Mustern und/oder eine räumliche Durchmischung möglich, um die Punktdichte an die Strukturen des Objektes O anzupassen. Vorzugsweise erzeugt der Projektor 121 die beiden Muster zeitlich versetzt zueinander und/oder in einem anderen. Wellenlängenbereich und/oder mit unterschiedlicher Intensität. Das andere Muster ist vorzugsweise ein von dem Muster X abweichendes, vorliegend unkodiertes Muster, vorliegend ein Punktmuster mit einer regelmäßigen Anordnung von Punkten mit einem anderen Abstand (Gitterlänge) zueinander.
  • Aus Gründen der Energieeffizienz und der Augensicherheit erzeugt der Projektor 121 nur dann das Muster X auf den Objekten O, wenn die Kameras 111 und 112 (und gegebenenfalls 113) die mit dem Muster X versehenen Objekte O aufnehmen. Hierzu sind die beiden Kameras 111, 112 und der Projektor 121 synchronisiert, d. h. intern aufeinander abgestimmt, und zwar sowohl zeitlich als auch hinsichtlich des verwendeten Musters X. Jeder Aufnahmevorgang beginnt, indem der Projektor 121 das Muster X erzeugt, ähnlich einem Blitz in der Photographie, und die Kameras 111 und 112 (und gegebenenfalls 113) folgen mit ihren Aufnahmen, genauer gesagt den Paaren von Aufnahmen (Frames), also von jeder der beiden Kameras 111, 112 eine Aufnahme. Der Aufnahmevorgang kann einen einzelnen Frame (Schuss), oder eine Sequenz von mehreren Frames (Video) umfassen. Ein derartiger Schuss oder ein derartiges Video wird mittels des Bedienknopfes 106 ausgelöst. Jeder Frame ergibt dann nach der Verarbeitung der Daten einen 3D-Scan, also eine Punktwolke im dreidimensionalen Raum in relativen Koordinaten des Handscanners 100.
  • In der Steuer- und Auswertevorrichtung 122 werden die vom Handscanner 100 gelieferten Daten verarbeitet, d. h. aus den Frames die 3D-Scans erstellt. Die 3D-Scans wiederum werden zusammengefügt, d. h. in einem gemeinsamen Koordinatensystem registriert. Für das Registrieren können die bekannten Verfahren verwendet werden, d. h. beispielsweise in überlappenden Bereichen zweier 3D-Scans natürliche oder künstliche Targets (also wiedererkennbare Strukturen) lokalisiert und identifiziert werden, um durch Korrespondenzpaare die Zuordnung der beiden 3D-Scans zu ermitteln. Damit wird nach und nach eine ganze Szene vom Handscanner 100 erfasst. Die Steuer- und Auswertevorrichtung 122 weist ein Display 130 (Anzeigevorrichtung) auf, welches integriert oder extern angeschlossen ist.
  • Das Display 130 liefert in einem bevorzugten Modus ein unterteiltes Bild, um sowohl (beispielsweise links oder außen) den aktuellen 3D-Scan (oder die bislang registrierten 3D-Scans) als eine dreidimensionale Punktwolke 3DP als auch (beispielsweise rechts oder innen) ein aktuelles Videobild VL (Video-Livebild), wie es die Farbkamera 113 erzeugt, zu zeigen. Die Darstellung des aktuellen Videobildes VL ändert sich, wenn der Handscanner 100 bewegt wird. Entsprechend ändert sich auch die Darstellung der dreidimensionalen Punktwolke 3DP, welche vorzugsweise aus der neuen Position und Orientierung des Handscanners 100 nach seiner Bewegung betrachtet wird.
  • In einer bevorzugten Unterteilung ist das Videobild VL mittig auf dem Display 130 angeordnet, und ein Teil der dreidimensionalen Punktwolke 3DP ist in dem verbleibenden Randbereich angeordnet. Vorzugsweise wird dieser Teil der dreidimensionalen Punktwolke 3DP (von der Steuer- und Auswertevorrichtung 122) zum Ersten so ausgewählt, wie er aus der Perspektive der Farbkamera 113 betrachtet wird, wenn diese unter Beibehaltung der Ausrichtung eine weiter rückwärts (dem Betrachter zu) gelegen Position einnimmt. Zum Zweiten wird der besagte Teil so ausgewählt, dass er sich kontinuierlich an das Videobild VL anschließt, d. h. es wird die Fortsetzung des Videobildes VL über das Blickfeld der Farbkamera 113 hinaus nach links, rechts, oben und unten gezeigt. Die Darstellung kann der Darstellung bei Verwendung eines Fischaugenobjektivs entsprechen, ist aber vorzugsweise unverzerrt. Der vom Videobild VL verdeckte Teil der dreidimensionalen Punktwolke 3DP wird nicht dargestellt. Um aber die dortige Dichte der Punkte der dreidimensionalen Punktwolke 3DP anzudeuten, kann das Videobild VL eingefärbt werden. Die für die Darstellung des eingefärbten Videobildes VL verwendete Farbe (und gegebenenfalls Intensität) entspricht der Dichte der Punkte, beispielsweise grün für eine (ausreichend) hohe Dichte und gelb für eine (verbesserungswürdige) mittlere oder geringe Dichte.
  • Um die Registrierung zu unterstützen, werden vorzugsweise auf dem Display 130 in das aktuelle Videobild VL Marken 133 eingeblendet, welche wiedererkennbare Strukturen (also mögliche Targets) anzeigen. Diese wiedererkennbaren Strukturen können spezielle Punkte, Ecken, Kanten oder Texturen sein. Die wiedererkennbaren Strukturen werden aufgefunden, indem der aktuelle 3D-Scan oder das aktuelle Videobild VL dem Beginn des Registrierungsvorgangs unterworfen wird (d. h. dem Lokalisieren von Targets). Die Verwendung des aktuellen Videobildes VL hat den Vorteil, dass der Aufnahmevorgang nicht so häufig erfolgen muss. Sofern die Marken 133 eine hohe Dichte haben, ist mit einer erfolgreichen Registrierung der betroffenen 3D-Scans zu rechnen. Sofern aber eine geringe Dichte der Marken 133 erkannt wird, sind zusätzliche 3D-Scans und/oder eine langsamere Bewegung des Handscanners 100 vorteilhaft. Entsprechend ist die Dichte der Marken 133 ein qualitatives Maß für den Erfolg der Registrierung. Gleiches gilt für die durch Einfärben des Videobildes VL dargestellte Dichte der Punkte der dreidimensionalen Punktwolke 3DP.
  • Die Bewegung des Handscanners 100 und die Verarbeitung der erzeugten Frames kann auch als Tracking behandelt werden, d. h. der Handscanner 100 verfolgt die Relativbewegung seiner Umgebung mit den beim Tracking verwendeten Verfahren. Wenn das Tracking verloren geht, beispielsweise wenn der Handscanner 100 zu schnell bewegt wurde, gibt es eine einfache Möglichkeit, das Tracking wieder aufzunehmen. Hierzu wird dem Benutzer das aktuelle Videobild VL, wie es die Farbkamera 113 liefert, und das von ihr gelieferte, letzte Video-Standbild des Trackings nebeneinander (oder übereinander) dargestellt. Der Benutzer muss dann den Handscanner 100 so lange bewegen, bis beide Videobilder in Übereinstimmung gelangen. Eine Unterstützung, beispielsweise akustisch oder optisch, aufgrund einer Verarbeitung der Videobilder und eines Vergleichs derselben, ist hilfreich und daher vorzugsweise implementiert.
  • Die Bewegung des Handscanners 100 aufgrund von Gesten des Benutzers kann auch zur Steuerung der Darstellung des Videobildes VL und/oder der dreidimensionalen Punktwolke 3DP) verwendet werden. Insbesondere kann der Maßstab der Darstellung des Videobildes VL und/oder der dreidimensionalen Punktwolke 3DP auf dem Display 130 von der Geschwindigkeit und/oder Beschleunigung der Bewegung des Handscanners 100 abhängen. Unter dem Begriff ”Maßstab” soll das Verhältnis zwischen der Abmessung des Videobildes VL und der Größe des Displays 130 verstanden werden, d. h. bei einem Maßstab von 100% füllt das Videobild das komplette Display 130 oder – im Falle einer Unterteilung des Displays 130 zwischen Videobild VL und dreidimensionaler Punktwolke 3DP – den zugeordneten Teil des Displays 130 aus.
  • Einem kleinen Maßstab ist ein großes Blickfeld zugeordnet. Im Falle eines unterteilten Displays mit mittiger Darstellung des Videobildes VL ist dieser mittige Teilbereich dann vorzugsweise kleiner als im Normalfall dargestellt, und der vergrößerte Randbereich zeigt einen größeren Teil der dreidimensionalen Punktwolke 3DP. Einem großen Maßstab ist ein kleines Blickfeld zugeordnet. Im Falle eines unterteilten Displays mit mittiger Darstellung des Videobildes VL füllt das Videobild VL gegebenenfalls das gesamte Display 130 aus, oder es wird nur ein Ausschnitt des Videobildes VL gezeigt.
  • Bei großen Geschwindigkeiten der Bewegung des Handscanners 100 ist der Maßstab der Darstellung vorzugsweise kleiner ist als bei kleinen Geschwindigkeiten und umgekehrt. Entsprechendes gilt für die Beschleunigungen der Bewegung des Handscanners 100, indem der Maßstab der Darstellung bei positiven Beschleunigungen verkleinert und bei negativen Beschleunigungen vergrößert wird. Der Maßstab von einer Komponente der Geschwindigkeit und/oder Beschleunigung der Bewegung des Handscanners abhängen, beispielsweise senkrecht zur Ausrichtung des Handscanners oder parallel zu dieser Ausrichtung. Wenn der Maßstab von der Komponente der Bewegung parallel zur Ausrichtung (d. h. in Richtung der Ausrichtung) abhängen soll, kann der Maßstab von der Veränderung eines mittleren Abstandes zu Objekten O in der Umgebung des Handscanners 100 abhängig gemacht werden.
  • Zusätzlich oder alternativ zur Veränderung des Maßstabes der Darstellung bei einer Bewegung kann ein Stillstand der Bewegung des Handscanners 100 (oder ein Unterschreiten eines Schwellwertes der Geschwindigkeit der Bewegung des Handscanners 100) genutzt werden, um eine Sequenz von Standbilder der Kamera 113 mit niedrigem Dynamikumfang, aber unterschiedlicher Belichtungszeit oder Beleuchtungsstärke innerhalb der Sequenz, aufzunehmen und hieraus ein Bild mit hohem Dynamikumfang zu ermitteln.
  • Ferner ist es möglich, dass zu Beginn des Aufnahmevorgangs durch eine definierte Bewegung des Handscanners 100 die Gravitationsrichtung definiert wird. Ein solche definierte Bewegung, die der Benutzer ausführt, kann eine vertikale Aufwärts- und Abwärtsbewegung des Handscanners 100 sein. Alternativ kann die Gravitationsrichtung aus einer Statistik aller Bewegungen während des Aufnahmevorgangs ermittelt werden. Beispielsweise wird aus den Koordinaten der Positionen des Handscanners 100, welche dieser während des Aufnahmevorgangs entlang eines Bewegungspfades durch den Raum einnimmt, eine Ebene gemittelt. Von dieser gemittelten Ebene wird angenommen, dass sie horizontal im Raum liegt, also die Gravitationsrichtung senkrecht hierzu verläuft. Entsprechend kann in diesen Fällen der Neigungsmesser 119 zur Bestimmung der Gravitationsrichtung entfallen.
  • Die Auswertung der Koordinaten der Positionen des Handscanners 100, welche dieser während des Aufnahmevorgangs entlang des Bewegungspfades durch den Raum einnimmt, kann auch dazu genutzt werden, die Art der Szene zu ermitteln und gegebenenfalls unterschiedliche Darstellungen oder Bedienmöglichkeiten anzubieten. So deutet ein Bewegungspfad um ein Zentrum herum (insbesondere mit Ausrichtung des Handscanners 100 nach innen) eine Aufnahme eines einzelnen Objektes O (objektzentrierte Aufnahme) an, während ein Bewegungspfad mit Ausrichtung des Handscanners 100 vom Bewegungspfad nach außen (und insbesondere längeren geraden Abschnitten des Bewegungspfades) auf eine Aufnahme von Räumen deutet. Entsprechend bietet sich an, im Falle der Aufnahme von Räumen (auch) einen Grundriss (Ansicht von oben) als Karte auf den Display 130 darzustellen.
  • Bezugszeichenliste
  • 100
    Handscanner
    102
    Tragestruktur
    102a
    linker Arm
    102b
    rechter Arm
    102c
    unterer Arm
    102r
    Rücken
    104
    Gehäuse
    104g
    Griffteil
    105
    Schutzelement
    106
    Bedienknopf
    107
    Statusleuchte
    111
    erste Kamera
    112
    zweite Kamera
    113
    Farbkamera
    114
    Leuchtdioden
    115
    Abstrahlelement
    116
    Lichtleiter
    118
    Steuereinheit
    119
    Neigungsmesser
    121
    Projektor
    122
    Steuer- und Auswertevorrichtung
    125
    Kabel
    130
    Display
    133
    Marke
    3DP
    dreidimensionale Punktwolke
    O
    Objekt
    VL
    aktuelles Videobild
    X
    Muster
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 6826299 B2 [0002]
    • US 8238611 B2 [0004]
    • DE 102009010465 B3 [0036]

Claims (15)

  1. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung eines Handscanners (100), umfassend einen Handscanner (100) und eine Steuer- und Auswertevorrichtung (122) mit einem Display (130), wobei der Handscanner (100) seine Umgebung aufnimmt und Daten an die Steuer- und Auswertevorrichtung (122) liefert, welche die vom Handscanner (100) gelieferten Daten verarbeitet und daraus 3D-Scans mit einer dreidimensionalen Punktwolke (3DP) erzeugt, wobei eine Kamera (113) ein Videobild (VL) der Umgebung aufnimmt, welches auf einem Display (130) der Steuer- und Auswertevorrichtung (122) dargestellt wird, dadurch gekennzeichnet, dass Bewegungen des Handscanners (100) aufgrund von Gesten des Benutzers die Darstellung des Videobildes (VL) und/oder der dreidimensionalen Punktwolke (3DP) steuern.
  2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der Maßstab der Darstellung des Videobildes (VL) und/oder der dreidimensionalen Punktwolke (3DP) von der Geschwindigkeit und/oder Beschleunigung der Bewegung des Handscanners (100) abhängt.
  3. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, dass bei großen Geschwindigkeiten der Bewegung des Handscanners (100) der Maßstab der Darstellung kleiner ist als bei kleinen Geschwindigkeiten, und/oder dass bei positiven Beschleunigungen der Bewegung des Handscanners (100) der Maßstab der Darstellung verkleinert wird und bei negativen Beschleunigungen vergrößert wird.
  4. Vorrichtung nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass der Maßstab der Darstellung des Videobildes (VL) und/oder der dreidimensionalen Punktwolke (3DP) von der Komponente der Geschwindigkeit und/oder Beschleunigung der Bewegung des Handscanners (100) senkrecht zur Ausrichtung des Handscanners (100) abhängt.
  5. Vorrichtung nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass der Maßstab der Darstellung des Videobildes (VL) und/oder der dreidimensionalen Punktwolke (3DP) von der Komponente der Geschwindigkeit und/oder Beschleunigung der Bewegung des Handscanners (100) parallel zur Ausrichtung des Handscanners (100) abhängt.
  6. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Maßstab der Darstellung des Videobildes (VL) und/oder der dreidimensionalen Punktwolke (3DP) von der Veränderung eines mittleren Abstandes zu Objekten (O) in der Umgebung des Handscanners (100) abhängt.
  7. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei Stillstand der Bewegung des Handscanners (100), oder Unterschreiten eines Schwellwertes der Geschwindigkeit, mehrere Standbilder der Kamera (113) mit niedrigem Dynamikumfang aufgenommen werden, aus denen ein Bild mit hohem Dynamikumfang ermittelt wird.
  8. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in wenigstens einem Modus auf dem Display (130) neben dem Videobild (VL) wenigstens ein benachbarter Teil der dreidimensionalen Punktwolke (3DP) dargestellt wird, welcher sich insbesondere kontinuierlich an das Videobild (VL) anschließt.
  9. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Handscanner (100) mittels wenigstens eines Projektors (121) wenigstens ein Muster (X) auf einem Objekt (O) in der Umgebung des Handscanners (100) erzeugt und mittels wenigstens zweier voneinander beabstandeter Kameras (111, 112) das dem Muster (X) versehene Objekt (O) aufnimmt.
  10. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die das Videobild (VL) aufnehmende Kamera (113) das Objekt (O) im sichtbaren Wellenlängenbereich aufnimmt, während der Projektor (121) das Muster (X) im Infrarot-Bereich erzeugt, und die zwei das Muster (X) aufnehmenden Kameras (111, 112) im Wellenlängenbereich des Musters (X) empfindlich sind.
  11. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass der Projektor (121) das Muster (X) monochromatisch erzeugt.
  12. Vorrichtung nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass der Projektor (121) das Muster (X) mittels eines Lasers erzeugt.
  13. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die relativen Abstände der Kameras (111, 112, 113) und des Projektors (121) durch eine Tragestruktur (102) des Handscanners (100) definiert werden, welche sichtbar ist und eine der Umgebung zugewandte Vorderseite des Handscanners (100) definiert.
  14. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet, dass die Tragestruktur (102) mechanisch und thermisch stabil ist.
  15. Vorrichtung nach Anspruch 14, dadurch gekennzeichnet, dass die Tragestruktur (102) mechanisch und thermisch stabil ist durch Ausbildung aus einem faserverstärkten Kunststoff, insbesondere kohlefaserverstärkten Kunststoff, oder einer faserverstärkten Keramik.
DE202014010357.7U 2014-09-10 2014-09-10 Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten Expired - Lifetime DE202014010357U1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE202014010357.7U DE202014010357U1 (de) 2014-09-10 2014-09-10 Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
DE102015106836.2A DE102015106836B4 (de) 2014-09-10 2015-05-02 Verfahren zur Steuerung einer 3D-Messvorrichtung mittels momentaner Bewegung und Vorrichtung hierzu
DE102015106838.9A DE102015106838B4 (de) 2014-09-10 2015-05-02 Verfahren zur Steuerung einer 3D-Messvorrichtung mittels des Bewegungspfades und Vorrichtung hierzu
DE102015106837.0A DE102015106837B4 (de) 2014-09-10 2015-05-02 Verfahren zur Steuerung einer 3D-Messvorrichtung mittels Gesten und Vorrichtung hierzu

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202014010357.7U DE202014010357U1 (de) 2014-09-10 2014-09-10 Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten

Publications (1)

Publication Number Publication Date
DE202014010357U1 true DE202014010357U1 (de) 2015-12-11

Family

ID=55022053

Family Applications (4)

Application Number Title Priority Date Filing Date
DE202014010357.7U Expired - Lifetime DE202014010357U1 (de) 2014-09-10 2014-09-10 Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
DE102015106837.0A Expired - Fee Related DE102015106837B4 (de) 2014-09-10 2015-05-02 Verfahren zur Steuerung einer 3D-Messvorrichtung mittels Gesten und Vorrichtung hierzu
DE102015106838.9A Expired - Fee Related DE102015106838B4 (de) 2014-09-10 2015-05-02 Verfahren zur Steuerung einer 3D-Messvorrichtung mittels des Bewegungspfades und Vorrichtung hierzu
DE102015106836.2A Active DE102015106836B4 (de) 2014-09-10 2015-05-02 Verfahren zur Steuerung einer 3D-Messvorrichtung mittels momentaner Bewegung und Vorrichtung hierzu

Family Applications After (3)

Application Number Title Priority Date Filing Date
DE102015106837.0A Expired - Fee Related DE102015106837B4 (de) 2014-09-10 2015-05-02 Verfahren zur Steuerung einer 3D-Messvorrichtung mittels Gesten und Vorrichtung hierzu
DE102015106838.9A Expired - Fee Related DE102015106838B4 (de) 2014-09-10 2015-05-02 Verfahren zur Steuerung einer 3D-Messvorrichtung mittels des Bewegungspfades und Vorrichtung hierzu
DE102015106836.2A Active DE102015106836B4 (de) 2014-09-10 2015-05-02 Verfahren zur Steuerung einer 3D-Messvorrichtung mittels momentaner Bewegung und Vorrichtung hierzu

Country Status (1)

Country Link
DE (4) DE202014010357U1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106650542A (zh) * 2016-12-29 2017-05-10 浙江理工大学 多功能手持式物体扫描仪
CN108534672A (zh) * 2018-03-30 2018-09-14 深圳积木易搭科技技术有限公司 一种三维扫描仪

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017107336A1 (de) * 2017-04-05 2018-10-11 Testo SE & Co. KGaA Messgerät und korrespondierendes Messverfahren

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6826299B2 (en) 2000-07-31 2004-11-30 Geodetic Services, Inc. Photogrammetric image correlation and measurement system and method
DE102009010465B3 (de) 2009-02-13 2010-05-27 Faro Technologies, Inc., Lake Mary Laserscanner
US8238611B2 (en) 2006-03-23 2012-08-07 Tyzx, Inc. Enhancing stereo depth measurements with projected texture

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2048557B1 (de) 2007-10-11 2013-03-27 Sick Ag Optoelektronischer Sensor und mobile Vorrichtung sowie Verfahren zur Konfiguration
JP5315891B2 (ja) 2008-09-24 2013-10-16 富士通株式会社 距離測定装置、距離測定方法及び距離測定プログラム
US8878905B2 (en) 2009-06-17 2014-11-04 3Shape A/S Focus scanning apparatus
GB0921461D0 (en) * 2009-12-08 2010-01-20 Qinetiq Ltd Range based sensing
US8491135B2 (en) * 2010-01-04 2013-07-23 Microvision, Inc. Interactive projection with gesture recognition
US8422034B2 (en) 2010-04-21 2013-04-16 Faro Technologies, Inc. Method and apparatus for using gestures to control a laser tracker
DE102010017857B4 (de) * 2010-04-22 2019-08-08 Sick Ag 3D-Sicherheitsvorrichtung und Verfahren zur Absicherung und Bedienung mindestens einer Maschine
WO2012076013A1 (en) * 2010-12-06 2012-06-14 3Shape A/S System with 3d user interface integration
US9686532B2 (en) 2011-04-15 2017-06-20 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurement devices
DE102011119012A1 (de) 2011-11-16 2013-05-16 Carl Zeiss Industrielle Messtechnik Gmbh Vereinfachtes Koordinatenmesssystem für Schulungszwecke
US8886449B2 (en) 2012-01-13 2014-11-11 Qualcomm Incorporated Calibrated hardware sensors for estimating real-world distances
DE102012112322B4 (de) 2012-12-14 2015-11-05 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE102014205640B4 (de) 2014-03-26 2018-06-21 Bertram Martin Thyssen Vermessung mittels mobilem Gerät

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6826299B2 (en) 2000-07-31 2004-11-30 Geodetic Services, Inc. Photogrammetric image correlation and measurement system and method
US8238611B2 (en) 2006-03-23 2012-08-07 Tyzx, Inc. Enhancing stereo depth measurements with projected texture
DE102009010465B3 (de) 2009-02-13 2010-05-27 Faro Technologies, Inc., Lake Mary Laserscanner

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106650542A (zh) * 2016-12-29 2017-05-10 浙江理工大学 多功能手持式物体扫描仪
CN108534672A (zh) * 2018-03-30 2018-09-14 深圳积木易搭科技技术有限公司 一种三维扫描仪

Also Published As

Publication number Publication date
DE102015106838A1 (de) 2016-03-10
DE102015106838B4 (de) 2019-05-09
DE102015106836A1 (de) 2016-03-10
DE102015106836B4 (de) 2019-05-09
DE102015106837A1 (de) 2016-03-10
DE102015106837B4 (de) 2019-05-02

Similar Documents

Publication Publication Date Title
DE102014013677B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und unterteiltem Display
DE102014013678B3 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
DE102012112321B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE102015122842B4 (de) Verfahren zum Kalibrieren einer 3D-Messvorrichtung mittels einer Kalibrierplatte
DE202012104890U1 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102014019671B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels 2D-Kamera
DE69826753T2 (de) Optischer Profilsensor
EP3467432A1 (de) Verfahren zum betreiben einer vorrichtung zum erfassen der dreidimensionalen geometrie von objekten
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
EP2865987B1 (de) Verfahren und Scanner zum berührungslosen Ermitteln der Position und dreidimensionalen Form von Produkten auf einer laufenden Fläche
EP2019961B1 (de) Verfahren zum erzeugen von bildinformationen
DE102009018464A1 (de) Optischer Sensor
DE202014010357U1 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
DE19913853A1 (de) Verfahren und Vorrichtung zum bildhaften Erfassen dreidimensionaler Objekte
DE102018108141A1 (de) Mobile Vorrichtung und Verfahren zum Erfassen eines Objektraums
DE10195135B4 (de) Vorrichtung und Verfahren zur Aufnahme einer dreidimensionalen Figur auf einer zweidimensionalen Oberfläche, die die Herstellung von Kleidungsschnittmustern ermöglichen
DE102014113015B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung, umfassend einen Handscanner mit Tragestruktur
EP3064894B1 (de) 3d-scanvorrichtung und verfahren zum bestimmen einer digitalen 3d-repräsentation einer person
DE102014019669B4 (de) 16Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mit vorgegebenen Bedingungen
EP2697976A1 (de) Vorrichtung zum kalibrieren einer mehrkamera-aufnahmevorrichtung für dreidimensionale bildaufnahme
EP2327043B1 (de) Vorrichtung zur aufnahme von biometrischen daten
DE102014019672B3 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mit Wellenlängenüberprüfung
WO2014114663A1 (de) Optische vorrichtung und verfahren zum bestimmen räumlicher koordinaten von oberflächen makroskopischer objekte durch triangulation zweier zeilenkameras
DE102014019670B3 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels Redundanzen

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R158 Lapse of ip right after 8 years