DE102017215045A1 - Forensische drei-dimensionale messvorrichtung - Google Patents

Forensische drei-dimensionale messvorrichtung Download PDF

Info

Publication number
DE102017215045A1
DE102017215045A1 DE102017215045.9A DE102017215045A DE102017215045A1 DE 102017215045 A1 DE102017215045 A1 DE 102017215045A1 DE 102017215045 A DE102017215045 A DE 102017215045A DE 102017215045 A1 DE102017215045 A1 DE 102017215045A1
Authority
DE
Germany
Prior art keywords
light
camera
image
operable
forensic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102017215045.9A
Other languages
English (en)
Inventor
Matthias Wolke
Denis WOHLFELD
Bernd-Dietmar Becker
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faro Technologies Inc
Original Assignee
Faro Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/669,099 external-priority patent/US10834377B2/en
Application filed by Faro Technologies Inc filed Critical Faro Technologies Inc
Publication of DE102017215045A1 publication Critical patent/DE102017215045A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Offenbarung betrifft ein drei-dimensionales (3D) forensisches Beweissystem. Das System umfasst eine berührungslose Messvorrichtung, die zum Messen eines Abstands von der Vorrichtung zu einer Fläche betreibbar ist. Eine erste Kamera ist betreibbar mit der berührungslosen Messvorrichtung verbunden, wobei die erste Kamera ein Sichtfeld hat. Eine Lichtquelle ist betreibbar mit der ersten Kamera verbunden und zum Emittieren von Licht auf die Fläche innerhalb des Sichtfelds betreibbar. Ein Prozessor ist betreibbar mit der ersten Kamera verbunden, wobei der Prozessor für ein Ausführen von Computeranweisungen betreibbar ist, wenn diese auf dem Prozessor zum Bestimmen von 3D-Koordinaten von mindestens einem Punkt im Sichtfeld auf Basis mindestens eines Teils des Abstands ausgeführt werden, und für ein Zuordnen mindestens eines Farbwertes dem mindestens einen Punkt als Reaktion auf ein Bestimmen einer Interaktion einer vordefinierten Wellenlänge von Licht mit einer Substanz im Sichtfeld ausgeführt werden.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung beansprucht den Nutzen der vorläufigen US-Anmeldung Serien-Nr. 62/380,760, eingereicht am 29. Oktober 2016, die durch Bezugnahme in ihrem gesamten Umfang hierin enthalten ist.
  • STAND DER TECHNIK
  • Der hierin offenbarte Gegenstand bezieht sich auf eine dreidimensionale (3D) Messvorrichtung und genauer auf eine 3D-Messvorrichtung, die zum Erfassen von Bildern und Koordinaten für forensischen Beweis betreibbar ist.
  • Ein 3D-Bildgeber ist eine tragbare Vorrichtung, die einen Projektor aufweist, der Lichtmuster auf eine Fläche eines Objekts projiziert, das abgetastet werden soll. Typischerweise emittiert der Projektor ein codiertes oder uncodiertes Muster. Eine (oder mehrere) Kameras, deren Positionen und Ausrichtung im Verhältnis zum Projektor vorgegeben sind, zeichnen Bilder des Lichtmusters auf der Fläche eines Objekts auf. Die dreidimensionalen Koordinaten von Elementen im Lichtmuster lassen sich mit trigonometrischen Verfahren bestimmen, zum Beispiel durch Epipolargeometrie. Auch andere Typen von berührungslosen Vorrichtungen können zum Messen von 3D-Koordinaten zur Anwendung kommen, wie solche, die mit Laufzeittechniken (z. B. Lasertracker, Laserscanner oder Time-of-Flight-Kameras) zum Messen der Zeit, die Licht zum Ausbreiten auf der Fläche und zurück zur Vorrichtung benötigt, arbeiten.
  • Forensische Lichtquellen werden zum Erkennen von Materialien benutzt, die unter Bedingungen mit sichtbarem Licht nicht ohne Weiteres für das Auge erkennbar sind. Diese Lichtquellen können im Strafvollzug zum Beispiel zum Identifizieren von Beweismitteln an einem Tatort benutzt werden. Normalerweise umfassen forensische Lichtquellen eine Lampe, die das Licht in einzelne Farbbänder filtert, die die Sichtbarkeit der Materialien durch beispielsweise Fluoreszenz, Absorption und indirekte Beleuchtung verstärken. Der Ermittler kann dann den Beweis durch Sammeln von Proben für spätere Analyse und durch die Aufnahme von 2D-Fotografien des Bereichs dokumentieren. Es sollte anerkannt werden, dass die 2D-Fotografien die relativen Positionen zwischen Objekten in dem Umfeld, das untersucht wird, erfassen. Allerdings gestatten 2D-Fotografien nicht ohne Weiteres und zuverlässig eine direkte Messung von Abständen nach der Tat. Zudem können forensische Beweise geringen Kontrast (z. B. ein Bluttropfen auf einer dunklen Fläche) aufweisen und auf Fotografien, die den gesamten Untersuchungsbereich umfassen, unsichtbar sein.
  • Während verfügbare 3D-Bildgeber und forensische Lichtquellen für ihren vorgesehenen Zweck geeignet sind, besteht weiterhin ein Verbesserungsbedarf, insbesondere in Bezug auf den Zugang zu einem System zum Erfassen der dreidimensionalen Koordinaten des Beweises und dessen Positionierung im Verhältnis zur Umgebung.
  • KURZBESCHREIBUNG
  • Gemäß einem Aspekt der Offenbarung wird ein dreidimensionales (3D) forensisches Beweissystem bereitgestellt. Das System umfasst eine berührungslose Vorrichtung, die zum Messen eines Abstands zwischen der Vorrichtung und einer Fläche betreibbar ist. Eine erste Kamera ist betreibbar mit der berührungslosen Vorrichtung verbunden, wobei diese Kamera ein Sichtfeld hat. Eine Lichtquelle ist betreibbar mit der Kamera verbunden und für ein Emittieren von Licht auf die Fläche innerhalb des Sichtfelds betreibbar. Ein Prozessor ist betreibbar mit der ersten Kamera verbunden, wobei der Prozessor zum Ausführen von Computeranweisungen betreibbar ist, wenn diese auf dem Prozessor zum Bestimmen von 3D-Koordinaten von mindestens einem Punkt im Sichtfeld auf Basis mindestens eines Teils des Abstands ausgeführt werden, und für ein Zuordnen mindestens eines Farbwertes dem mindestens einen Punkt als Reaktion auf ein Bestimmen einer Interaktion einer vordefinierten Wellenlänge von Licht mit einer Substanz im Sichtfeld ausgeführt werden.
  • Gemäß einem anderen Aspekt der Offenbarung wird ein forensischer drei-dimensionaler (3D) Bildgeber bereitgestellt. Der Bildgeber umfasst einen Projektor, der für ein Projizieren eines Lichtmusters auf eine Fläche betreibbar ist. Mindestens eine erste Kamera ist in einem vorbestimmten geometrischen Verhältnis mit dem Projektor verbunden, die mindestens eine erste Kamera ist für ein Erfassen eines Bildes des Lichtmusters auf der Fläche betreibbar. Mindestens eine zweite Kamera ist bereitgestellt, die ein Sichtfeld hat, das einen ersten Bereich der Fläche definiert. Eine Lichtquelle ist zum Emittieren von Licht in einen zweiten Bereich der Fläche betreibbar, wobei der zweite Bereich innerhalb des Sichtfelds liegt und das Licht eine vorgegebene Wellenlänge hat. Ein Prozessor ist betreibbar mit der mindestens einen ersten Kamera und der mindestens einen zweiten Kamera verbunden, wobei der Prozessor zum Ausführen von Computeranweisungen betreibbar ist, wenn diese auf dem Prozessor zum Bestimmen von 3D-Koordinaten von mindestens einem Punkt im zweiten Bereich auf Basis mindestens teilweise des Lichtmuster und des Bildes ausgeführt werden, und für ein Zuordnen mindestens eines Farbwertes dem mindestens einen Punkt als Reaktion auf ein Bestimmen von Fluoreszenz oder Absorption von Licht im zweiten Bereich ausgeführt werden.
  • Gemäß einem wieder anderen Aspekt der Offenbarung ist ein Verfahren zum Bestimmen der 3D-Koordinaten von forensischem Beweis bereitgestellt. Das Verfahren umfasst: Bestimmen von 3D-Koordinaten von Punkten auf einer Fläche; Projizieren eines ersten Lichts, das eine erste vorgegebene Wellenlänge hat, auf einen ersten Bereich der Fläche; Erfassen mit mindestens einer ersten Kamera eines ersten Bildes innerhalb eines ersten Sichtfeldes der mindestens einen ersten Kamera, wobei sich das Sichtfeld und der erste Bereich der Fläche überlappen; Bestimmen einer Interaktion einer vordefinierten Wellenlänge des Lichts mit einer Substanz im ersten Bereich eines Teils der ersten Fläche auf Basis des ersten Bildes; Identifizieren der 3D-Koordinaten von mindestens einem Punkt im Teil des ersten Bereichs auf Basis teilweise des Lichtmusters und des ersten Bildes; und Zuordnen eines Farbwertes dem mindestens einen Punkt als Reaktion auf das Bestimmen der Interaktion der vordefinierten Wellenlänge mit der Substanz im ersten Bereich.
  • Gemäß einem wieder anderen Aspekt der Offenbarung ist ein Verfahren zum Registrieren von Bildern mit erfassten 3D-Koordinaten bereitgestellt. Das Verfahren umfasst: Bestimmen von 3D-Koordinaten von Punkten auf einer Fläche; Projizieren eines ersten Lichts, das eine erste vorgegebene Wellenlänge hat, auf einen ersten Bereich der Fläche; Erfassen, mit mindestens einer ersten Kamera, mehrerer Bilder innerhalb eines Sichtfelds der mindestens einen ersten Kamera, wobei sich das Sichtfeld und der erste Bereich der Fläche überlappen; und Registrieren der mehreren Bilder auf Basis mindestens teilweise der 3D- Koordinaten.
  • Diese und andere Vorteile und Merkmale werden anhand der nachfolgenden Beschreibung deutlich, die in Verbindung mit den Zeichnungen zu sehen ist.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Der als die Offenbarung angesehene Gegenstand wird insbesondere hervorgehoben und in den Ansprüchen im Schlussabschnitt der Beschreibung eindeutig beansprucht. Die obigen und weitere Merkmale und Vorteile der Offenbarung gehen aus der folgenden ausführlichen Beschreibung in Verbindung mit den beigefügten Zeichnungen hervor, in denen:
  • 1 eine Ansicht eines forensischen 3D-Bildgeber-Systems in Übereinstimmung mit einer Ausführungsform der Erfindung ist;
  • 2 und 3 schematische Abbildungen der Funktionsweise des Bildgebers nach 1 sind;
  • 4 eine Ansicht eines forensischen 3D-Bildgeber-Systems in Übereinstimmung mit einer anderen Ausführungsform der Erfindung ist;
  • 5 eine Ansicht eines forensischen 3D-Bildgeber-Systems in Übereinstimmung mit einer anderen Ausführungsform der Erfindung ist;
  • 6 und 7 Ansichten eines forensischen 3D-Bildgeber-Systems in Übereinstimmung mit einer anderen Ausführungsform der Erfindung ist;;
  • 8 eine Ansicht eines forensischen 3D-Bildgeber-Systems in Übereinstimmung mit einer anderen Ausführungsform der Erfindung ist;
  • 9 eine Ansicht eines forensischen 3D-Bildgebers, der Koordinaten einer Umgebung in Übereinstimmung mit einer Ausführungsform erfasst, ist;
  • 10 eine Ansicht eines einzelnen Kamerabildes des forensischen 3D-Bildgebers nach 9 in Übereinstimmung mit einer Ausführungsform ist;
  • 11 eine Ansicht einer Folge von Kamera-Frames ist, die mit dem forensischen 3D-Bildgeber nach 9 in Übereinstimmung mit einer Ausführungsform erfasst worden sind;
  • 12 ein Ablaufdiagramm eines Verfahrens zum Betrieb eines forensischen 3D-Bildgebers ist;
  • 13 ein bekannter Bayer-Filter ist, der in Übereinstimmung mit einer Ausführungsform angewandt werden kann; und
  • 1416 schematische Ansichten von Farbkamerafiltern sind, die forensische Filterelemente in Übereinstimmung mit einer Ausführungsform umfassen.
  • Die ausführliche Beschreibung erläutert Ausführungsformen der Offenbarung zusammen mit Vorteilen und Merkmalen beispielhaft unter Bezugnahme auf die Zeichnungen.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Ausführungsformen der Erfindung stellen eine dreidimensionale (3D) Messvorrichtung bereit, die 3D-Koordinatendaten von Beweis erfasst, der Licht einer vorgegebenen Wellenlänge fluoresziert oder absorbiert. Ausführungsformen stellen ein System bereit, mit dem die Fähigkeit zum Erfassen forensischer 3D-Koordinatendaten einem 3D-Bildgeber hinzugefügt wird. Ausführungsformen stellen einem Bediener ein Anzeigen der Lage forensischen Beweises bereit, wenn eine Umgebung abgetastet wird.
  • Es wird zunächst Bezug auf 1 genommen, in der ein forensisches 3D-Bildgebersystem 20 für ein Bestimmen von 3D-Koordinaten auf Flächen in einer Umgebung und die 3D-Koordinaten von Stellen, wo forensischer Beweis gefunden werden kann, gezeigt wird. Wie hierin verwendet, bezieht sich forensischer Beweis auf Materialien, die sichtbar sind, wie durch Fluoreszenz oder Absorption von Licht, wenn sie Licht einer vorgegebenen Wellenlänge ausgesetzt werden. Beispiele für forensische Materialien umfassen, ohne darauf beschränkt zu sein: Haare, Knochen, Zähne, Fingernägel, Körperflüssigkeiten, Bissspuren, Blutergüsse, Schmauchspuren, Blut und schlammige Fußspuren.
  • Das System 20 umfasst einen Bildabtaster 22, der einen Projektor 24, eine erste Kamera 26 und eine zweite Kamera 28 aufweist. In der beispielhaften Ausführungsform sind der Projektor 24 und die Kameras 26, 28 jeweils in einem separaten Arm 30, 32, 34 eines Gehäuses 36 angeordnet. Eine Farbkamera 40 ist mittig auf dem Gehäuse 36 zwischen den Armen 30, 32, 34 angeordnet. In der beispielhaften Ausführungsform hat die Farbkamera 40 ein Sichtfeld, das Bilder einschließlich Farbinformation von der abgetasteten Umgebung abtastet. In einer Ausführungsform kann die Farbkamera 40 benutzt werden, um Farb-(Textur-)Information für Einschließen in das 3D-Bild bereitstellen. Wie bereits erörtert, kann die Farbkamera 40 in einigen Ausführungsformen auch zum Erfassen von Bildern von forensischem Beweis benutzt werden. In einigen Ausführungsformen erfasst die Farbkamera 40 ein Videobild, das zum Aufzeichnen mehrerer 3D-Bilder durch die Anwendung von Videogrammetrie benutzt werden kann. Die Farbkamera 40 wird in einigen Fällen als RGB-Kamera bezeichnet.
  • In der beispielhaften Ausführungsform benutzt die Farbkamera 40 ein Bayer-Filter. Ein Bayer-Filter ist ein Filter, der zwischen einer photosensitiven Anordnung und der Linse der Kamera 40 angeordnet ist. Ein Bayer-Filter hat zwei grüne Pixel, ein rotes Pixel und ein blaues Pixel durch ein „Superpixel”, wie in 13 dargestellt. Wie hierin verwendet, besteht ein Superpixel aus einer 2 × 2 Gruppe von Pixeln. Die einzelnen Pixel des Superpixels werden in einigen Fällen als Subpixel bezeichnet. Wie nachstehend unter Bezugnahme auf 1416 erörtert, können zum Bestimmen des Vorhandenseins von forensischem Beweis bei der Farbkamera 40 andere Filter benutzt werden, die Filter auf der Superpixel-Ebene oder Subpixel-Ebene enthalten.
  • Wie hierin ausführlicher erörtert, projiziert der Projektor 24 ein Lichtmuster auf einer Fläche in der Umgebung. Wie hierin verwendet, definiert der Begriff „Projektor” im Allgemeinen eine Vorrichtung zum Erzeugen eines Musters. Das Erzeugen des Musters kann mithilfe von Ablenkungsverfahren, wie Erzeugen mithilfe von diffraktiven optischen Elementen oder Mikrolinsen (oder Einzellasern) oder durch Schattierungsverfahren, zum Beispiel die Erzeugung mithilfe von Blenden, durchleuchtungsfähige Vorlagen (wie sie in einem Diaprojektor verwendet) und anderen Masken erfolgen. Die Ablenkungsverfahren haben den Vorteil, dass weniger Licht verloren geht und demzufolge eine höhere Intensität verfügbar ist.
  • Die Kameras 26, 28 erfassen Bilder des Musters und sind in bestimmten Fällen fähig, die 3D-Koordinaten von Punkten auf der Fläche durch Anwenden trigonometrischer Grundlagen, zum Beispiel der Epipolargeometrie, zu bestimmen.
  • Es sollte anerkannt werden, dass, während die dargestellten Ausführungsformen die Vorrichtung, die 3D-Koordinaten bestimmt, zeigt und beschreibt, ein Bildabtaster ist, dies Beispielzwecken dient, und die beanspruchte Erfindung soll hierdurch nicht beschränkt sein. In anderen Ausführungsformen können Vorrichtungen, die andere berührungsfreie Mittel zum Messen von 3D-Koordinaten benutzen, ebenfalls zur Anwendung kommen, wie zum Beispiel ein Laserscanner, der die Laufzeittechnik zum Bestimmen des Abstands zur Fläche benutzt.
  • Das System 20 umfasst ferner eine Lichtquelle 42, die zum Emittieren von Licht einer vorgegebenen Wellenlänge betreibbar ist. Die Wellenlänge des Lichts zum Beispiel kann Werte von 400 nm, 415 nm, 455 nm, 515 nm, 532 nm, 555 nm, 575 nm, 600 nm, 630 nm haben, oder es kann die Wellenlänge von ultraviolettem Licht sein. In einer Ausführungsform ist die Lichtquelle 42 eine Laserlichtquelle, eine LED-Lichtquelle oder zum Beispiel eine fasergekoppelte Laserdiode. In einigen Ausführungsformen kann die Anwendung einer fasergekoppelten Laserdiode Vorteile bieten, wie: eine höhere Strahlqualität/erhöhte homogene Ausleuchtung; der Querschnitt des Strahls kann geformt sein (zum Beispiel kann ein flaches Profil für verbesserte Homogenität benutzt werden); und mehrere fasergekoppelte Laserdioden können kombiniert werden. In einer Ausführungsform, bei der mehrere fasergekoppelte Laserdioden kombiniert sind, kann eine Mehrwellenlängen-Lichtquelle mit einer kleinen Größe vorgesehen werden. In einigen Ausführungsformen kann die Lichtquelle 42 einen Filter oder mehrere wechselbare Filter (zum Beispiel auf einem rotierenden mechanischen Element) aufweisen. Die Filter emittieren selektiv Licht einer vorgegebenen Wellenlänge. Die Filter können durch das System 20 automatisch positioniert werden, oder sie lassen sich manuell vom Bediener einsetzen.
  • In der Ausführungsform nach 1 ist die Lichtquelle 42 in einem Gehäuse 44 angeordnet. Das Gehäuse 44 umfasst einen Rahmen 46, der das Gehäuse mit den Armen 30, 32, 34 verbindet. In einer Ausführungsform ist der Rahmen 46 entfernbar mit dem Gehäuse 36 verbunden, wodurch dem Bediener ein Austausch der Lichtquelle 42 gegen eine andere Lichtquelle gestattet wird, die Licht einer anderen Wellenlänge emittiert. Dies erlaubt dem Bediener, das System 20 ein Abtasten verschiedener forensischer Beweisen, die auf unterschiedliche Wellenlängen von Licht ansprechen. In einer anderen Ausführungsform hat die Lichtquelle 42 einen reduzierten Emittanzwinkel im Verhältnis zum 3D-Aufzeichnungs-Frame einschließlich des Projektors 24 und der Kameras 26, 28, 40. Dies hat die Wirkung, dass eine geeignete Lichtleistung je Bereich an die Fläche durch Anwenden einer Lichtquelle mit geringem Stromverbrauch geliefert wird. In einer Ausführungsform beträgt die Leistung der Lichtquelle 5 mW bis 20 mW. Wie hierin ausführlicher erörtert werden wird, ist die Fläche von Licht von der Lichtquelle auf der Fläche, die abgetastet wird, kleiner als der Bereich, der durch das Sichtfeld der Kameras 26, 28.
  • Ein Steuergerät 48 ist für Kommunikation mit dem Projektor 24, den Kameras 26, 28, 40 und der Lichtquelle 42 angeschlossen. Der Anschluss kann ein verdrahteter Anschluss 50 oder eine drahtlose Verbindung sein. Das Steuergerät 48 ist eine geeignete elektronische Vorrichtung mit der Fähigkeit zum Annehmen von Daten und Anweisungen, Ausführen der Anweisungen, um die Daten zu verarbeiten, und Präsentieren der Ergebnisse. Das Steuergerät 48 kann Anweisungen durch eine Benutzer-Schnittstelle 52 akzeptieren oder durch andere Mittel, wie, aber ohne darauf begrenzt zu sein, eine elektronische Datenkarte, Sprachsteuerungsmittel, manuell bedienbare Wähl- und Steuerungsmittel, abgestrahlte Wellenlänge und elektronische oder elektrische Übertragung.
  • Das Steuergerät 48 benutzt Signale, die als Eingabe zu verschiedenen Vorgängen zur Steuerung des Systems 20 dienen. Die digitalen Signale stellen einzelne oder mehrere Daten des Systems 20 dar, einschließlich, aber ohne darauf begrenzt zu sein, von den Kameras 26, 28, 40 erfasster Bilder, Temperaturen, Umgebungslichtpegel, Bedienereingaben über die Benutzer-Schnittstelle 52 und dergleichen.
  • Das Steuergerät 48 ist betreibbar mit einem oder mehreren Komponenten des Systems 20 über Datenübertragungsmedien 50 verbunden. Die Datenübertragungsmedien 50 umfassen, aber ohne darauf begrenzt zu sein, verdrillte Zweidrahtleitungen, Koaxialkabel und Lichtwellenleiter. Die Datenübertragungsmedien 50 umfassen außerdem, aber ohne darauf begrenzt zu sein, drahtlose, Funk- und Infrarot-Signalübertragungssysteme. Das Steuergerät 48 ist so konfiguriert, dass es, über Datenübertragungsmedien 50, Betriebssignale zu diesen Komponenten bereitstellt und Daten von diesen Komponenten empfängt.
  • Im Allgemeinen empfängt das Steuergerät 48 Daten von den Kameras 26, 28, 40, vom Projektor 24 und von der Lichtquelle 42, und erhält bestimmte Anweisungen mit dem Zweck, die 3D-Koordinaten von Punkten auf Flächen, die abgetastet werden, zu bestimmen. Das Steuergerät 48 kann die Betriebsparameter mit vorgegebenen Varianzen vergleichen, und wenn die vorgegebene Varianz überschritten wird, erzeugt es ein Signal, das zur Ausgabe eines Alarms an einen Bediener oder an einen fern aufgestellten Computer über ein Netzwerk benutzt werden kann. Darüber hinaus kann das Signal andere Steuerverfahren einleiten, die den Betrieb des Systems 20 anpassen, wie Ändern des Betriebsstatus der Kameras 26, 28, 40, des Projektors 24 oder der Lichtquelle 42, um einen außerhalb der Varianz liegenden Betriebsparameter zu kompensieren. Wieder andere Steuerverfahren können anzeigen, im Sichtgerät hervorheben oder anderweitig den Bediener benachrichtigen, wenn forensischer Beweis erkannt wird.
  • Die von den Kameras 26, 28, 40 empfangenen Daten können von einer Benutzer-Schnittstelle 52 angezeigt werden. Die Benutzer-Schnittstelle 52 kann eine LED-Anzeige (Leuchtdioden-Anzeige), eine LCD-Anzeige (Flüssigkristall-Anzeige), eine CRT-Anzeige (Kathodenstrahlröhren-Anzeige) oder dergleichen sein. Eine Tastatur kann auch an die Benutzer-Schnittstelle angeschlossen sein, um eine Dateneingabe an das Steuergerät 38 bereitzustellen. In einer Ausführungsform zeigt das Steuergerät 48 in der Benutzer-Schnittstelle 52 eine Punktwolke an, um die erfassten 3D-Koordinaten visuell darzustellen.
  • Zusätzlich zur Verbindung mit einer oder mehreren Komponenten innerhalb des Systems 20 kann das Steuergerät 48 auch mit externen Computernetzwerken wie einem lokalen Netzwerk (LAN) und dem Internet verbunden sein. Ein LAN verbindet einen oder mehrere Ferncomputer miteinander, der bzw. die konfiguriert ist bzw. sind, um mit dem Steuergerät bei Anwenden eines bekannten Computer-Kommunikationsprotokolls, wie TCP/IP (Transmission Control Protocol/Internet Protocol), RS-232, Modbus und dergleichen, zu kommunizieren. Zusätzliche Systeme 20 können auch mit dem LAN verbunden werden, wobei die Steuergeräte 48 in jedem dieser Systeme 20 konfiguriert sind, um Daten an Ferncomputer und andere Systeme 20 zu senden und von diesen zu empfangen. Das LAN ist mit dem Internet verbunden. Diese Verbindung gestattet dem Steuergerät 48 ein Kommunizieren mit dem einen oder den mehreren mit dem Internet verbundenen Ferncomputer bzw. Ferncomputern.
  • Das Steuergerät 48 umfasst einen Prozessor 54, der über einen Datenkommunikationsbus mit einem Direktzugriffspeichergerät (RAM) 56, einem nichtflüchtigen Speichergerät (NVM) 58, einem Nur-Lese-Speichergerät (ROM) 60, einem oder mehreren Ein-/Ausgabe-Steuergeräten und einer LAN-Schnittstelleneinrichtung 62 über einen Datenkommunikationsbus verbunden ist.
  • Die LAN-Schnittstelleneinrichtung 62 sieht eine Kommunikation zwischen dem Steuergerät 48 und einem Netzwerk nach einem vom Netzwerk unterstützten Datenkommunikationsprotokoll vor. Das ROM-Gerät 60 speichert einen Anwendungscode, z. B. Hauptfunktionalitäts-Firmware einschließlich Initialisierungsparametern, und einen Boot-Code für den Prozessor 54. Der Anwendungscode umfasst auch Programmanweisungen, wie in 12 dargestellt, um den Prozessor 54 zu veranlassen, jegliche Steuervorgänge des Systems 20, einschließlich Start- und Stoppvorgängen, Ändern der Betriebsstatus des Projektors 24 und der Lichtquelle 42, Überwachen von vordefinierten Betriebsparametern und Erzeugen von Alarmen auszuführen. Der Anwendungscode erzeugt ein Onboard-Telemetrie-System, das zum Übertragen von Betriebsinformation zwischen dem System 20 und einem oder mehreren Ferncomputern oder empfangenden Stellen benutzt werden kann. Die Information, die zwischen den Ferncomputern und dem Steuergerät 48 auszutauschen ist, umfasst, ohne darauf begrenzt zu sein, 3D-Koordinatendaten und Bilder oder das Erkennen von forensischem Beweis.
  • Das NVM-Gerät 58 ist eine beliebig Form von nichtflüchtigem Speicher, wie ein EPROM-Baustein (löschbarer programmierbarer Nur-Lese-Speicher), ein Diskettenlaufwerk oder dergleichen. Gespeichert im NVM-Gerät 58 sind verschiedene Betriebsparameter für den Anwendungscode. Die verschiedenen Betriebsparameter können entweder lokal, mit Anwenden einer Benutzer-Schnittstelle 52 oder über einen Ferncomputer, oder entfernt über das Internet, mit Anwenden eines Ferncomputers in das NVM-Gerät 58 eingegeben werden. Es wird erkannt werden, dass der Anwendungscode besser im NVM-Gerät 58 als im ROM-Gerät 60 gespeichert werden kann.
  • Das Steuergerät 48 stellt Verfahren zur Betriebssteuerung bereit, die im Anwendungscode realisiert sind, wie in 12 dargestellt. Diese Verfahren sind in den Computeranweisungen enthalten, die, typischerweise in Form von Software, abgefasst sind, um vom Prozessor 54 ausgeführt zu werden. Die Software kann in jeder beliebigen Sprache codiert sein, einschließlich, aber nicht darauf begrenzt, Assemblersprache, VHDL (Verilog Hardware Description Language), VHSIC HDL (Very High Speed IC Hardware Description Language), Fortran (Formula Translation), C, C++, Visual C++, C#, Objective-C, Java, Javascript, ALGOL (Algorithmic Language), BASIC (Beginner's All-purpose Symbolic Instruction Code), ActiveX, HTML (HyperText Markup Language), Python, Ruby und jeder beliebige Kombination oder Ableitung von mindestens einer der vorgenannten Sprachen. Darüber hinaus kann ein Bediener eine vorhandene Software-Anwendung benutzen, wie eine Kalkulationstabelle oder eine Datenbank, und verschiedene Zellen mit den Variablen korrelieren, die in den Algorithmen aufgezählt sind. Des Weiteren kann die Software unabhängig von anderer Software oder abhängig von anderer Software, zum Beispiel in Form von integrierter Software, sein.
  • In einer Ausführungsform umfasst das Steuergerät 48 ferner eine Batterie 64. Die Batterie 64 kann eine elektrochemische Einrichtung sein, die elektrische Energie für das Steuergerät 48 bereitstellt. In einer Ausführungsform kann die Batterie 64 auch Energie für die Kameras 26, 28, 40, den Projektor 24 und die Lichtquelle 42 bereitstellen. In einigen Ausführungsformen kann die Batterie 64 vom Steuergerät getrennt sein (z. B. ein Batteriepack). In einer Ausführungsform kann eine zweite Batterie (nicht abgebildet) im Gehäuse 36 angeordnet sein, um elektrische Energie für die Kameras 26, 28, 40 und den Projektor 24 bereitzustellen. In noch weiteren Ausführungsformen kann die Lichtquelle eine separate Energiequelle (z. B. ein Batteriepack) aufweisen.
  • Es sollte anerkannt werden, dass, während das Steuergerät 48 als vom Gehäuse 36 getrennt dargestellt ist, dies Beispielszwecken dient, und die beanspruchte Erfindung soll hierdurch nicht beschränkt sein. In anderen Ausführungsformen ist das Steuergerät 48 in das Gehäuse 36 integriert.
  • In der dargestellten Ausführungsform sind der Projektor 24 und die Kameras 26, 28 in einer Dreiecksanordnung zueinander beabstandet, wobei die relativen Abstände und Positionen zwischen den Komponenten bekannt sind. Die Dreiecksanordnung ist darüber hinaus vorteilhaft für das Bereitstellen von Information, als die, die bei einer Anordnung von zwei Kameras und einem Projektor in einer geraden Linie oder bei einem System mit einem Projektor und einer einzigen Kamera verfügbar ist. Diese zusätzliche Information wird bei Bezugnahme auf 2 verständlich, in der das Konzept der epipolaren Beschränkungen erläutert wird, und in 3, in der erläutert wird, wie epipolare Beschränkungen mit Vorteil bei der Dreiecksanordnung des Systems 20 angewandt werden. In 2 umfasst ein 3D-Triangulationsinstrument 84 ein Gerät 1 und ein Gerät 2 auf der linken und rechten Seite, jeweils gesehen vom Blickpunkt in 2 aus. Gerät 1 und Gerät 2 können zwei Kameras sein oder Gerät 1 und Gerät 2 können eine Kamera und ein Projektor sein. Jedes der zwei Geräte, ob eine Kamera oder ein Projektor, hat ein perspektivisches Zentrum, O1 und O2, und eine repräsentative Ebene, 86 oder 88. Die perspektivischen Zentren sind durch einen Basislinienabstand B getrennt, der die Länge der Linie 90 ist. Die perspektivischen Zentren O1 und O2 sind Punkte, von denen angesehen wird, dass Lichtstrahlen dadurch laufen, entweder zu oder von einem Punkt auf einer Fläche in dem Bereich der Umgebung, die abgetastet wird. Diese Lichtstrahlen kommen entweder von einem Muster von einem beleuchteten Projektor oder treffen auf eine photosensitive Anordnung auf. Die Platzierung der Bezugsebenen 86, 88 ist in 2 angewandt, die die Bezugsebenen 86, 88 zwischen dem Objektpunkt und den perspektivischen Zentren O1 und O2 zeigt.
  • In 2 ist für die Bezugsebene 86, die zum perspektivischen Zentrum O2 gewinkelt ist, und die Bezugsebene 88, die zum perspektivischen Zentrum O1 gewinkelt ist, eine Linie 90 zwischen den perspektivischen Zentren O1 und O2 gezogen, die die Ebenen 86 und 88 an den epipolaren Punkten E1 bzw. E2 schneiden. Angenommen, ein Punkt UD befindet sich auf der Ebene 86. Wenn das Gerät 1 eine Kamera ist, ist bekannt, dass das Bild auf der Linie 92 liegt. Der Objektpunkt kann beispielsweise einer der Punkte VA, VB, VC oder VD sein. Diese vier Objektpunkte entsprechen jeweils den Punkten WA, WB, WC, WD. auf der Bezugsebene 88 des Geräts 2. Dies gilt unabhängig davon, ob Gerät 2 eine Kamera oder ein Projektor ist. Es gilt auch, dass die vier Punkte auf einer geraden Linie 94 in der Ebene 88 liegen. Diese Linie, die die Schnittlinie der Bezugsebene 88 mit der Ebene von O1-O2-UD ist, wird als die epipolare Linie 92 bezeichnet. Daraus ergibt sich, dass jede epipolare Linie auf der Bezugsebene 88 durch den Epipol E2 verläuft. Genau wie es eine epipolare Linie auf der Bezugsebene von Gerät 2 für jeden Punkt auf der Bezugsebene von Gerät 1 gibt, gibt es auch eine epipolare Linie 96 auf der Bezugsebene von Gerät 1 für jeden Punkt auf der Bezugsebene von Gerät 2.
  • 3 zeigt die epipolaren Beziehungen für einen 3D-Bildgeber 100 entsprechend dem 3D-Bildgeber 84 von 2, in dem zwei Kameras und ein Projektor in einem Dreiecksmuster angeordnet sind. Generell können Gerät 1, Gerät 2 und Gerät 3 jede Kombination von Kameras und Projektoren bilden, solange mindestens eines der Geräte eine Kamera ist. Jedes der drei Geräte 102, 104, 106 hat ein perspektivisches Zentrum O1, O2, O3 und eine Bezugsebene 108, 110 bzw. 112. Jedes Paar von Geräten weist ein Paar von Epipolen auf. Gerät 1 und Gerät 2 haben Epipole E12, E21 auf den Ebenen 108 bzw. 110. Gerät 1 und Gerät 3 haben Epipole E13, E31 auf den Ebenen 108 bzw. 112. Gerät 2 und Gerät 3 haben Epipole E23, E32 auf den Ebenen 110 bzw. 112. Mit anderen Worten hat jede Bezugsebene zwei Epipole. Die Bezugsebene für Gerät 1 weist die Epipole E12 und E13 auf. Die Bezugsebene für Gerät 2 weist die Epipole E21 und E23 auf. Die Bezugsebene für Gerät 3 weist die Epipole E31 und E32 auf.
  • In der Ausführungsform in 3 ist Gerät 3 ein Projektor, Gerät 1 eine erste Kamera und Gerät 2 eine zweite Kamera. Angenommen, dass ein Projektionspunkt P3, ein erster Bildpunkt P1 und ein zweiter Bildpunkt P2 bei einer Messung erhalten werden. Diese Ergebnisse können wie folgt auf Konsistenz geprüft werden.
  • Zum Prüfen der Konsistenz des Bildpunktes P1 die Ebene P3-E31-E13 mit der Bezugsebene 108 kreuzen, um die epipolare Linie 114 zu erhalten. Die Ebene P3-E21-E12 schneiden, um die epipolare Linie 116 zu erhalten. Wenn der Bildpunkt P1 konsequent bestimmt worden ist, wird der festgestellte Bildpunkt P1 im Schnittpunkt der bestimmten epipolaren Linien 114 und 116 liegen.
  • Zum Prüfen der Konsistenz des Bildpunktes P2 die Ebene P3-E32-E23 mit der Bezugsebene 110 kreuzen, um die epipolare Linie 105 zu erhalten. Die Ebene P1-E12-E21 schneiden, um die epipolare Linie 107 zu erhalten. Wenn der Bildpunkt P2 konsequent bestimmt worden ist, wird der festgestellte Bildpunkt P2 im Schnittpunkt der bestimmten epipolaren Linien 107 und 105 liegen.
  • Zum Prüfen der Konsistenz des Projektionspunktes P3 die Ebene P2-E23-E32 mit der Bezugsebene 110 kreuzen, um die epipolare Linie 118 zu erhalten. Die Ebene P1-E13-E31 schneiden, um die epipolare Linie 120 zu erhalten. Wenn der Projektionspunkt P3 konsequent bestimmt worden ist, wird der festgestellte Projektionspunkt P3 im Schnittpunkt der bestimmten epipolaren Linien 118 und 120 liegen.
  • Die Redundanz an Information, die durch Anwenden eines 3D-Bildgebers 100, der eine Dreiecksanordnung von Projektor und Kameras aufweist, bereitgestellt wird, kann zum Reduzieren der Messzeit, Identifizieren von Fehlern und zum automatischen Aktualisieren von Kompensations-/Kalibrierparametern angewandt werden.
  • Nunmehr auf 4 Bezug nehmend, ist eine weitere Ausführungsform des Systems 20 dargestellt. In dieser Ausführungsform weist das Gehäuse 44 ferner eine vierte Kamera 130 auf. In dieser Ausführungsform kann die Kamera 130 einen Photosensor umfassen, der für die Wellenlänge des von der Lichtquelle 42 abgestrahlten Lichts empfindlich ist. In noch einer weiteren Ausführungsform kann die photosensitive Anordnung der Kamera 130 empfindlich für eine Wellenlänge von Licht sein, das vom forensischen Beweis abgestrahlt wird. Zum Beispiel können einige forensische Beweise empfindlich für eine Wellenlänge von fluoreszierendem Licht im sichtbaren Spektrum sein, wenn dies durch UV-Licht abgestrahlt wird. In noch einer weiteren Ausführungsform kann die Kamera 130 Filter aufweisen, die selektiv zwischen der Kamera 130 und der abzutastenden Fläche angeordnet sind. Die Filter filtern oder entfernen Licht einer vorgegebenen Wellenlänge selektiv, so dass es nicht den Photosensor erreicht. Wenn zum Beispiel ein forensischer Beweis mit UV-Licht bestrahlt wird, kann der Filter das UV-Licht blockieren, so dass es nicht von der Kamera abgebildet wird.
  • Nunmehr auf 5 Bezug nehmend, ist eine weitere Ausführungsform des Systems 20 dargestellt. In dieser Ausführungsform weist das Gehäuse 44 mehrere Lichtquellen 132 auf. Jede der Lichtquellen 132 ist für ein selektives Abstrahlen von Licht einer vorgegebenen Wellenlänge betreibbar, wobei jede Lichtquelle 132 Licht unterschiedlicher Wellenlänge emittiert. Es sollte anerkannt werden, dass dies dem Bediener ein Abtasten verschiedener Typen von forensischem Beweis gestattet, ohne das Gehäuse 44 auswechseln zu müssen. In einer Ausführungsform kann eine Wählvorrichtung oder ein Stellglied vorgesehen werden, um dem Bediener ein selektives Aktivieren der Lichtquellen 132 zu ermöglichen.
  • Nunmehr auf 6 und 7 Bezug nehmend, ist eine weitere Ausführungsform des Systems 20 dargestellt. In dieser Ausführungsform ist das Gehäuse 44 durch einen Riemen 134 mit dem Arm 30 verbunden. Das Gehäuse 44 weist in dieser Ausführungsform ein Profil auf, das lang (Höhe) und dünn (Dicke) ist. Die Lichtquelle 42 ist so angeordnet, dass sie das Licht gegen das Ende des Gehäuses 44 richtet, wo es von einer reflektiven Fläche, wie einem Spiegel 136, zurückgestrahlt wird. Eine Öffnung 138 ist vorgesehen, durch die das Licht von der Lichtquelle 44 auf die abzutastende Fläche emittiert werden kann.
  • Nunmehr auf 8 Bezug nehmend, ist eine weitere Ausführungsform des Systems 20 dargestellt. In dieser Ausführungsform ist die Lichtquelle 42 in das Gehäuse 36 integriert. In der dargestellten Ausführungsform ist die Lichtquelle 42 im Arm 30 zwischen der Farbkamera 40 und dem Projektor 24 angeordnet. Es sollte anerkannt werden, dass die Lichtquelle auch in einem der Arme 32, 34 positioniert sein kann. Es sollte ferner anerkannt werden, dass eine Vielzahl von Lichtquellen 42 in das Gehäuse 36 integriert werden kann.
  • Es sollte anerkannt werden, dass, während in 48 das Steuergerät 48 zur besseren Übersichtlichkeit nicht dargestellt ist, und dass das Steuergerät 48, wie mit Bezug auf 1 beschrieben, für Kommunikation angeschlossen werden kann.
  • Nunmehr auf 9 Bezug nehmend, wird der Betrieb des Systems 20 beschrieben. In einer Ausführungsform wird das System 20 zum Abtasten einer Umgebung 140 auf forensischen Beweis, wie Schmauchspwen 142, benutzt. Es sollte anerkannt werden, dass Schmauchspwen 142 normalerweise für den Bediener nicht mit bloßem Auge sichtbar sind, während sie in direkt auf das Material gerichtetem Licht einer Wellenlänge von 455 nm erkennbar sind. Bei Betrieb emittiert der Projektor 24 ein Lichtmuster 144 auf Flächen innerhalb der Umgebung 140. Wie erörtert, wird das Lichtmuster 144 von den Flächen zurückgestrahlt und von den Kameras 26, 28 erfasst. Durch Anwenden der Grundlagen der Trigonometrie (wie z. B. in den Bezugnahmen auf 2 und 3 beschrieben) können die 3D-Koordinaten von Punkten auf den Flächen in der Umgebung bestimmt werden. Diese 3D-Koordinaten von Punkten können dann zusammen aufgezeichnet werden und lassen sich zum Erzeugen einer Punktwolke und von Computermodellen der Umgebung benutzen. Es sollte anerkannt werden, dass sich die Wellenlänge des zum Erzeugen des Lichtmusters 144 benutzten Lichts von der Wellenlänge des von der Lichtquelle 42 emittierten Lichts unterscheidet.
  • Die Lichtquelle 42 emittiert ein Licht 146 einer vorgegebenen Wellenlänge (die sich z. B. von der des Projektors 24 unterscheidet), das für den zu untersuchenden forensischen Beweis geeignet ist. Die Lichtquelle 42 hat einen derart reduzierten Emittanzwinkel, dass der durch das Licht 146 ausgeleuchtete Bereich 148 kleiner ist als das Sichtfeld der Kameras 26, 28 (und daher also innerhalb des durch das Muster 144 ausgeleuchteten Bereichs liegt). In einer Ausführungsform ist die Lichtquelle 42 konfiguriert, um ein Licht zu emittieren, das einen Bereich hat, der einen Radius von ungefähr 15 cm bei einem typischen Arbeitsabstand vom System 20 aufweist. Es sollte anerkannt werden, dass bei Erfassen von Bildern des Materials 142, die 3D-Koordinaten der Fläche lokalisiert sind, wo sich forensischer Beweis 142 befindet.
  • In einigen Ausführungsformen werden die Bilder des Bereichs 148 mit der Farbkamera 40 erfasst. In einigen Ausführungsformen kann ein Filter vor der Farbkamera 40 angeordnet werden, um einen erhöhten Kontrast des abzutastenden forensischen Beweises zu ermöglichen. In einigen Ausführungsformen kann der Filter durch Software realisiert werden, wie zum Beispiel beim Steuergerät 48. Wie hierin ausführlicher erörtert, kann es erwünscht sein, auch Farbinformation über die Umgebung 140 zu erhalten. In diesen Ausführungsformen kann die Farbkamera 40 zwischen einem Erfassen von Farbbildern und gefilterten Bildern wechseln. So kann die Kamera 40 zum Beispiel gefilterte Bilder bei jedem zweiten Frame und Farbbilder bei den verbliebenen Frames erfassen. In noch weiteren Ausführungsformen werden die gefilterten Bilder jeden fünften oder jeden zehnten Frame erfasst.
  • In 10 ist eine vereinfachte Version der Bereiche von einer Fläche dargestellt, die von der Kamera, als Farbkamera 40 oder als Kamera 130, des Systems 20 abgebildet sind, zum Beispiel in 4. Zu Beispielszwecken ist die Fläche 150 als eine ebene Fläche dargestellt, so dass der vom Sichtfeld der Kamera 40, 130 abgedeckte Bereich 152 die Form eines Rechtecks hat. Es sollte anerkannt werden, dass, wenn die Fläche aus einer geformten Fläche oder mehreren Flächen besteht, der Bereich 152 eine komplexere Form aufweisen kann, ohne von den hierin offenbarten Lehren abzuweichen. Die Lichtquelle 42 ist konfiguriert, um Licht auf solche Weise zu emittieren, dass der auf der Fläche 150 ausgeleuchtete Bereich 148 innerhalb des Bereichs 152 (und somit innerhalb des Sichtfelds der Kamera 40, 130) liegt. In der beispielhaften Ausführungsform ist der Bereich 148 mittig innerhalb des Bereichs 152 platziert. Des Weiteren ist in der beispielhaften Ausführungsform der Bereich 148 kreisförmig und hat einen Radius von 15 cm. Wie hierin erörtert, können in einer Ausführungsform, in der das System 20 abwechselnd (natürliche) Farbbilder und forensische Bilder erfasst, der Bereich 152 und der Bereich 148 in separaten Bildframes erfasst und dann kombiniert oder zusammen aufgezeichnet werden.
  • In 11 ist eine Vielzahl von Farbbildframes von den Bereichen 152A152D und forensischen Farbbildframes 148A148D dargestellt, wobei der Bereich sequenziell von den Kameras 40, 130 erfasst worden ist, als das System 20 relativ zur Fläche 150 bewegt wurde. Es sollte anerkannt werden, dass die von den Bereichen 152A152D und den Bereichen 148A148D abgebildeten Farbbilder zusammen mit den 3D-Koordinatendaten aufgezeichnet werden können. Hierdurch ist ein Zuordnen der Farbe zur 3D-Koordinate möglich. Demzufolge wird jeder Punkt der in einer von den durch die Projektion eines Lichtmusters durch den Projektor 24 und Abbilden durch die Kameras 26, 28 in den Bereichen 152A152D aus 3D-Koordinaten erzeugten Punktwolke mindestens einen zugeordneten Farbwert haben, der anhand der in den Bereichen 152A152D abgebildeten Farben bestimmt worden ist. Des Weiteren können bei Punkten der Punktwolke, die positioniert sind, wo die forensische Lichtquelle 42 die Fläche ausleuchtet (z. B. Punkte, die innerhalb der Bereiche 148A148D liegen) einen dem forensischen Beweis zugeordneten Farbwert haben, wie durch Fluoreszenz oder Absorption, die durch das von der Lichtquelle 42 emittierte Licht verursacht sind.
  • Demzufolge können bei mindestens einigen Punkten in der Punktwolke zwei Farbwerte einem Punkt zugeordnet werden, wobei der Punkt sowohl als Teil der Bereiche 152A152D als auch als Teil der Bereiche 148A148D abgebildet wird. Wenn zum Beispiel forensischer Beweis innerhalb des Bereichs 148A bei Punkt 154 liegt, wird der Punkt 154 zuerst abgebildet (Frame 1), damit die natürliche Farbe/Umgebungsfarbe der Fläche (Textur) erhalten wird. Der Punkt 154 wird danach unter forensischem Licht 146 von der Lichtquelle 42 abgebildet (Frame 2). Wenn der Punkt 154 die Stelle des Beweises ist, die Licht 146 fluoresziert oder absorbiert, dann werden die Punkte in der Punktwolke, die der Position (im realen Raum) von Punkt 154 zugeordnet sind, zwei diesen zugeordnete Farbwerte haben.
  • Es sollte anerkannt werden, dass, während für Ausführungsformen hierin das Erfassen von Bildern für die Bereiche 152, 148 als separate oder diskrete Vorgänge beschrieben ist, dies Beispielszwecken dient, und die beanspruchte Erfindung soll hierdurch nicht beschränkt sein. In einigen Ausführungsformen werden die von der Farbkamera 40 erfassten Farbbilder für ein Registrieren der Bildframes und/oder der 3D-Koordinaten relativ zueinander benutzt. Auf diese Weise können 3D-Koordinaten, die in verschiedenen Bildframes erfasst worden sind, zu einem einzelnen Modell oder zur Darstellung der Fläche kombiniert werden. Wo der Bereich 148 klein im Verhältnis zum Bereich 152 ist, so dass der vom forensischen Licht ausgeleuchtete Bereich 148 nicht den Registrierungsvorgang stört, können die Bilder vom Bereich 148 und Bereich 152 in einem einzigen Frame (z. B. gleichzeitig) erfasst werden. In einer Ausführungsform kann die Farbe vom forensischen Licht in der Nachbearbeitung von der natürlichen Farbe/Umgebungsfarbe separiert werden, wie zum Beispiel durch Anwenden eines Farbhistogramms.
  • In einer Ausführungsform, bei der die natürliche Farbe/Umgebungsfarbe und die forensische Farbe im gleichen Bildframe erfasst werden, wird eine spezifische Stelle mehrfach abgebildet werden, wodurch sich beide Farbwerte bestimmen lassen. Zum Beispiel wird der Punkt 154 anfänglich im Bereich 148A abgebildet (Frame 1), damit die forensische Lichtfarbe erhalten wird. Wenn das System 20 bewegt wird, wird der Punkt 154 im Bereich 152B (Frame 2) außerhalb des forensischen Lichts von Bereich 148B positioniert, damit die natürliche Farbe/Umgebungsfarbe erhalten wird. In ähnlicher Weise wird, wenn zusätzliche Bilder erfasst werden, die natürliche Farbe/Umgebungsfarbe erfasst (Frame 3 und Frame 4), da sie innerhalb von Bereich 152C und Bereich 152D positioniert werden. Durch Separation der Farben (z. B. durch eine Farbhistogramm-Analyse) kann die Stelle des forensischen Beweises identifiziert werden. In anderen Ausführungsformen ist der Sichtpunkt zwischen Bereich 148A und Bereich 152C/152D ungefähr identisch (in Raum und Zeit), und deshalb kann angenommen werden, dass die Farbinformation auch gleich ist.
  • Es sollte anerkannt werden, dass dieser Vorgang Vorteile bietet, indem er dem Bediener gestattet, eine Punktwolke und ein 3D-Modell der Umgebung 140 zu erzeugen und die 3D-Koordinaten von forensischem Beweis (z. B. Punkte in der Punktwolke mit zwei Farbwerten) zu haben. Die Möglichkeit, mehrere Farbwerte einer Stelle zuzuordnen (z. B. einen Punkt in der Punktwolke), bietet Vorteile, indem sie gestattet, kleine oder Spuren von Beweisproben verglichen mit einer Einzelfarbwert-Konfiguration stärker hervorzuheben oder visuell zu verstärken. Weitere Vorteile können dadurch erhalten werden, dass die Punktwolke in der Anzeigevorrichtung 52 angezeigt wird, wodurch der Bediener das Vorhandensein von forensischem Beweis visuell in Echtzeit (oder im Wesentlichen in Echtzeit) sehen kann.
  • Durch Hinweisen des Bedieners auf die Stelle des Beweises können zusätzliche Untersuchungen ausgeführt werden, bevor die Umgebung gestört oder kontaminiert ist.
  • Nunmehr auf 12 Bezug nehmend, ist ein Verfahren 200 zum Betreiben des Systems 20 dargestellt. Das Verfahren 200 beginnt im Block 202, wo das Lichtmuster auf mindestens eine Fläche in der Umgebung projiziert wird, die auf forensischen Beweis abgetastet wird. In einer Ausführungsform kann sich das Verfahren 200 dann in zwei parallele Vorgänge 204, 206 gabeln. Es sollte anerkannt werden, dass, obwohl Ausführungsformen hierin die Schritte des Verfahrens 200 in einer bestimmten Reihenfolge beschreiben, dies nur zu Beispielzwecken dient, und die Schritte des Verfahrens 200 in Folge/sequenziell oder parallel ausgeführt werden können.
  • Der erste Vorgang 204 beginnt mit Erfassen eines ersten Bilds des Lichtmusters auf der Fläche in der Umgebung im Block 208. Das Verfahren 200 fährt dann fort zu Block 210, wo, auf Basis mindestens teilweise des ersten Bildes und des Lichtmusters, zum Beispiel nach trigonometrischen Grundlagen und Epipolargeometrie, die hierin mit Bezugnahme auf 2 und 3 beschrieben sind, oder durch Anwenden von Laufzeittechniken, 3D-Koordinaten von Punkten auf der Fläche bestimmt werden.
  • Der zweite Vorgang 206 beginnt mit Erfassen eines Bildes von natürlicher Farbe/Umgebungsfarbe auf der Fläche in Block 212, zum Beispiel mit der Farbkamera 40. Es sollte anerkannt werden, dass sich das Bild von natürlicher Farbe/Umgebungsfarbe und der Bereich der Fläche überlappen, auf die das Lichtmuster projiziert wird. Das Verfahren 200 fährt dann fort mit Block 214, wobei das forensische Licht auf die Fläche projiziert wird, wie zum Beispiel mit der Lichtquelle 42. In einer Ausführungsform wird das forensische Licht innerhalb des Sichtfeldes der Farbkamera 40 projiziert. Das Verfahren 200 fährt dann fort mit Block 216, wobei ein forensisches Bild der durch das forensische Licht ausgeleuchteten Fläche erfasst wird. In einer Ausführungsform, die zwei Kameras (z. B. Kamera 40 und Kamera 130) umfasst, ist zu erkennen, dass das Farbbild von Block 212 und das forensische Bild von Block 216 gleichzeitig erfasst werden können. Des Weiteren können, wie hierin beschrieben, bei einigen Ausführungsformen das forensische Licht und die natürliche Farbe/Umgebungsfarbe in einem einzigen Bild erfasst werden. In Ausführungsformen, bei denen separate Farbbilder und forensische Bilder erfasst werden, werden diese Bilder zusammen in Block 218 aufgezeichnet.
  • Das Verfahren 200 fährt dann fort mit Block 220, wo die 3D-Koordinaten zueinander aufgezeichnet werden. In der beispielhaften Ausführungsform erfolgt das Aufzeichnen unter Anwenden der Bilder, die von der Farbkamera 40 erfasst worden sind, wie zum Beispiel durch Erkennung natürlicher Merkmale. In anderen Ausführungsformen kann das Aufzeichnen durch Anwenden fotogrammetrischer Marker ausgeführt werden. Mit den in einem gemeinsamen Bezugsframe aufgezeichneten 3D-Koordinaten werden die Farbwerte von den Farbbildern (von Block 212) und den forensischen Bildern (von Block 216) den 3D-Koordinaten in Block 222 zugeordnet. Mit anderen Worten: jeder der Punkte in einer von den 3D-Koordinaten erzeugten Punktwolke kann mehrere diesen zugeordnete Werte haben, wobei diese Werte zu einem gemeinsamen Bezugsframe relative Positionswerte (x, y, z), einen ersten Farbwert, der die natürliche Farbe/Umgebungsfarbe dieser Stelle (im echten Raum) darstellt, und eine zweite, die Fluoreszenz oder Absorption dieser Stelle (im echten Raum) darstellende Farbe unter dem forensischen Licht umfassen können.
  • In Ausführungsformen, in denen die Wellenlänge des forensischen Lichts vom Bediener gewählt werden kann (z. B. 5), kann Information über die Wellenlänge des Lichts und über jeden benutzten Filter ebenfalls jedem Punkt zugeordnet werden.
  • Es sollte anerkannt werden, dass, während für Ausführungsformen hierin das Abtasten mit forensischem Licht einer einzigen Wellenläge beschrieben ist, dies Beispielszwecken dient, und die beanspruchte Erfindung soll hierdurch nicht beschränkt sein. In anderen Ausführungsformen (z. B. 5), können mehrere forensische Lichtquellen entweder gleichzeitig oder seriell für das Identifizieren verschiedener Typen von forensischem Beweis benutzt werden. Zum Beispiel können eine Lichtquelle einer Wellenlänge von 455 nm und eine Lichtquelle einer Wellenlänge im ultravioletten Band (190–400 nm) (gleichzeitig oder seriell) zum Identifizieren von Schmauchspuren und Blut benutzt werden. Es sollte anerkannt werden, dass in einer Ausführungsform, die Filter zum Ändern der Wellenlänge des emittierten Lichts benutzt, eine einzige Lichtquelle zum Identifizieren verschiedener Typen von forensischem Beweis durch Wechseln des Filters in serieller Weise benutzt werden kann.
  • Während die hierin beschriebenen Ausführungsformen das Abbilden oder Aufzeichnen von Farben von den von der Kamera 40 erfassten Bildern an die Punkte in der Punktwolke beschreibt, kann in anderen Ausführungsformen die Punktwolke zum Aufzeichnen der Bilder von forensischem Beweis benutzt werden. Es sollte anerkannt werden, dass die Auflösung (z. B. hinsichtlich Pixeln) der Kamera 40 höher sein kann als die der Punktwolke (z. B. hinsichtlich der Punktdichte). Somit kann durch Anwenden der Punktwolke zum Aufzeichnen der Bilder ein zusammengesetztes Bild, das hohe Auflösung der Umgebung aufweist, erzeugt werden, das forensischen Beweis enthält. Ferner kann das System forensischen Beweis in dem zusammengesetzten Bild verstärken, hervorheben oder betonen, um ihn für den Bediener sichtbar zu machen. In einer Ausführungsform werden ein System und ein Verfahren zum Bilden eines zusammengesetzten Bildes bereitgestellt. Das Verfahren umfasst ein Bestimmen von 3D-Koordinaten von Punkten auf der Fläche. Ein erstes Licht einer ersten vorgegebenen Wellenlänge wird auf einen ersten Bereich der Fläche projiziert. Die erste Kamera erfasst mehrere Bilder innerhalb eines Sichtfeldes der ersten Kamera, wobei sich das Sichtfeld und der erste Bereich auf der Fläche überlappen. Die mehreren Bilder werden mindestens teilweise auf Basis der 3D-Koordinaten aufgezeichnet.
  • In noch anderen Ausführungsformen kann die Punktwolke für ein Definieren eines Netzes durch Triangulation benutzt werden. Bei der Triangulation wird ein Netz von Vielecken oder Dreiecken zwischen den Punkten der Punktwolke definiert, um eine Darstellung auf der Fläche zu erzeugen. In dieser Ausführungsform können die von der Kamera 40 erfassen Bilder des forensischen Beweises auf den Vieleckflächen abgebildet werden, um der Fläche eine Textur bereitzustellen.
  • Nunmehr auf 14 Bezug nehmend, ist eine weitere Ausführungsform eines Filters dargestellt, der vor der photosensitiven Anordnung der Kamera 40 anstelle des standardmäßigen Bayer-Filters angeordnet ist. Ein Bayer-Filter, wie in 13 dargestellt, ist ein Standardfilter, der in Farbkameras zur Anwendung kommt, da er empfindlicher für grünes Licht ist, und da angenommen wird, dass er die Physiologie des menschlichen Auges nachahmt. In der Ausführungsform von 14 ist ein Filter 250 bereitgestellt, in dem eines der grünen Pixel in jedem Superpixel 252 durch ein forensisches Filterelement 254 oder „F1” ersetzt ist. Der forensische Filter 254 ist ein Pixelebenen-Filter, der auf eine vorgegebene Wellenlänge von Licht anspricht, die einer Wellenlänge entspricht, die ein optisches Ansprechen von Material von Interesse, wie zum Beispiel Blut oder Schmauchspuren, aktiviert. Der forensische Filter 254 wirkt mit der forensischen Lichtquelle zusammen und ist auf diese abgestimmt. Bei Betrieb, wenn die forensische Lichtquelle Licht emittiert, das vom forensischen Beweismaterial reflektiert wird, wird das reflektierte Licht durch das Pixel auf der Farbkamera, das dem forensischen Filter 254 zugeordnet ist, abgebildet. Es sollte anerkannt werden, dass ein Wechsel des Filters in der Kamera Vorteile bei der Integration der forensischen Erkennung in der Farbkamera bietet, während es der Farbkamera gleichzeitig möglich ist, Nachverfolgung und Färbung der Punktwolke auszuführen.
  • Nunmehr auf 15 Bezug nehmend, ist eine andere Ausführungsform eines Filters 260 dargestellt, der in die Farbkamera 40 integriert und zwischen der photosensitiven Anordnung und der Kameralinse angeordnet ist. Ähnlich wie bei der Ausführungsform in 14 wird der Filter 260 anstelle des Bayer-Filters benutzt In dieser Ausführungsform wechselt jede Reihe 262, 272 von Superpixeln zwischen einem Bayer-Superpixel 262 (z. B. zwei grüne, ein rotes, ein blaues Pixel) und einem Superpixel 264, 266, das ein Subpixel mit forensischen Filterelementen 268, 270 aufweist. In dieser Ausführungsform ist der forensische Filter 268 oder „F1” ansprechend auf oder empfindlich für eine erste Wellenlänge von Licht, und der forensische Filter 270 ist ansprechend auf oder empfindlich für eine zweite Wellenlänge von Licht. Es sollte anerkannt werden, dass die Filter 268, 270 auf zwei verschiedene Wellenlängen von Licht ansprechen, bei denen forensische Beweise erkannt werden können. In einer Ausführungsform wechseln sich die Reihen 262, 272 ab, wobei der forensische Filter 268, 270 in die jeweilige Reihe integriert ist. In der dargestellten Ausführungsform hat die Reihe 262 Superpixel 264, die den forensischen Filter 268 aufweisen, und die Reihe 272 hat Superpixel 266, die den forensischen Filter 270 aufweisen.
  • Bei Betrieb emittiert der Bediener Licht von der forensischen Lichtquelle (entweder gleichzeitig oder seriell), während er einen Bereich von Interesse abtastet. Wenn forensischer Beweis vorhanden ist, kann das vom forensischen Beweis reflektierte Licht von entweder den Pixeln F1 oder den Pixeln F2 erfasst werden. Gleichzeitig mit dem Erfassen des von den Pixeln F1 oder den Pixeln F2 erfasst die Farbkamera 40 auch Farbbilder zum Nachverfolgen und zum Färben der Punktwolke. Es sollte anerkannt werden, dass Vorteile durch Integrieren der forensischen Erkennung für mehrere Typen von Beweis in die Farbkamera bereitgestellt werden, gleichzeitig wie die Farbkamera Nachverfolgen und Färben der Punktwolke ausführen kann.
  • Nunmehr auf 16 Bezug nehmend, ist eine andere Ausführungsform eines Filters 280 dargestellt, der in die Farbkamera 40 integriert und zwischen der photosensitiven Anordnung und der Kameralinse angeordnet ist. Ähnlich wie bei der Ausführungsform in 14 und 15 wird der Filter 280 anstelle des Bayer-Filters benutzt. In dieser Ausführungsform wechselt jede Reihe 282, 284 von Superpixeln zwischen einem Bayer-Superpixel 286 und einem Superpixel 288, 290, die ein forensisches Filterelement 292, 294 aufweisen. Die Farbkamera 40 mit dem Filter 280 funktioniert auf eine ähnliche Weise wie beim Filter 260 in 15, mit der Ausnahme, dass anstatt, dass der forensische Filter 292, 294 auf ein Subpixel ausgerichtet und diesem zugeordnet ist, der forensische Filter 292, 294 auf ein jeweiliges Superpixel (z. B. vier Subpixel) ausgerichtet und diesem zugeordnet. Es sollte anerkannt werden, dass der Filter 280 Vorteile durch Erhöhen der Empfindlichkeit der Abtastvorrichtung 20 bei der Erkennung des Vorhandenseins von forensischem Beweis bereitstellt.
  • Es sollte anerkannt werden, dass, während die Abtastvorrichtung 20 der Ausführungsformen in 1416 als mit einem der Filter 250, 260, 280 versehen beschrieben ist, dies Beispielszwecken dient, und die beanspruchte Erfindung soll hierdurch nicht beschränkt sein. In anderen Ausführungsformen können die Filter so kombiniert sein, wie zum Beispiel durch Abwechseln von Bayer-Superpixeln mit Filtern, denen Subpixel zugeordnet sind (14, 15), und Filtern, denen Superpixel (z. B. 16) zugeordnet sind. In noch anderen Ausführungsformen können zusätzliche forensische Filterelemente, wie zum Beispiel ein drittes, viertes oder fünftes Filterelement, in den Filtern 250, 260, 280 integriert sein, wobei jedes der zusätzlichen Filterelemente auf eine unterschiedliche Wellenlänge von Licht anspricht, die forensischem Beweis zugeordnet ist.
  • Der Begriff „ungefähr” soll den Fehlergrad umfassen, der verbunden ist mit Messungen einer bestimmten Menge auf Basis der zum Zeitpunkt des Einreichens der Anmeldung verfügbaren Ausrüstung. So kann zum Beispiel „ungefähr” einen Bereich von ±8% oder 5%, oder 2% eines vorgegebenen Wertes angeben.
  • Die hierin in verwendete Terminologie dient nur der Beschreibung bestimmter Ausführungsformen, und es ist nicht beabsichtigt, dass sie die Offenbarung beschränkt. Wie hier verwendet, sollen die Singularformen ”ein”, ”eine” und ”der, die, das” auch die Pluralformen einschließen, wenn es der Kontext nicht klar anders anzeigt. Es versteht sich weiterhin, dass die Begriffe ”umfassen” und/oder ”umfassend”, wenn in dieser Beschreibung angewandt, das Vorhandensein der angegebenen Merkmale, Zahlen, Schritte, Operationen, Elemente und/oder Komponenten spezifizieren, aber das Vorhandensein oder Hinzufügen von ein oder mehreren anderen Merkmalen, Zahlen, Schritten, Operationen, Elementen, Komponenten und/oder Gruppen davon nicht ausschließen.
  • Während die Offenbarung detailliert in Verbindung mit nur einer begrenzten Anzahl von Ausführungsformen bereitgestellt ist, versteht es sich, dass sich die Offenbarung nicht auf die offenbarten Ausführungsformen beschränkt. Vielmehr kann die Offenbarung modifiziert werden, um jede Anzahl von Variationen, Änderungen, Substitutionen oder gleichwertige Anordnungen abzudecken, die hierin nicht beschrieben sind, die aber mit dem Geist und dem Umfang der Offenbarung kommensurabel sind. Außerdem, während verschiedene Ausführungsformen der Offenbarung beschrieben worden sind, versteht es sich, dass beispielhafte Ausführungsformen nur einige der beschriebenen beispielhaften Aspekte umfassen können. Dementsprechend sollte die Offenbarung nicht als die vorhergehende Beschreibung angesehen werden, sondern sie ist nur durch den Umfang der beigefügten Ansprüche begrenzt.

Claims (28)

  1. Dreidimensionales (3D) forensisches BeweisSystem, wobei das System Folgendes aufweist: Berührungslos arbeitende Messvorrichtung, die für Messen eines Abstands von der Vorrichtung zu einer Fläche betreibbar ist; eine erste Kamera, die betreibbar mit der berührungslos arbeitenden Messvorrichtung verbunden ist, wobei die erste Kamera ein Sichtfeld aufweist; eine Lichtquelle, die betreibbar mit der ersten Kamera verbunden ist, und die für ein Emittieren von Licht auf die Fläche innerhalb des Sichtfeldes betreibbar ist; und einen Prozessor, der betreibbar mit der ersten Kamera verbunden ist, wobei der Prozessor für ein Ausführen von Computeranweisungen betreibbar ist, wenn diese auf dem Prozessor zum Bestimmen von 3D-Koordinaten von mindestens einem Punkt im Sichtfeld, auf Basis mindestens teilweise des Abstands ausgeführt werden, und für ein Zuordnen mindestens eines Farbwertes dem mindestens einen Punkt als Antwort auf das Bestimmen einer Interaktion zwischen einer vorgegebenen Wellenlänge des Lichts und einer Substanz im Sichtfeld.
  2. System nach Anspruch 1, wobei die Vorrichtung für ein Bestimmen des Abstands auf Basis mindestens teilweise einer Laufzeit des von der Vorrichtung emittierten Lichts betreibbar ist.
  3. System nach Anspruch 1, wobei die Vorrichtung für ein Bestimmen des Abstands mindestens teilweise auf Basis von Trigonometrie betreibbar ist.
  4. System nach Anspruch 3, wobei das System Folgendes aufweist: einen Projektor, der für ein Bereitstellen eines Lichtmusters auf einer Fläche betreibbar ist; und wobei der Prozessor ferner für ein Bestimmen der 3D-Koordinaten auf Basis mindestens teilweise eines ersten Bildes des Lichtmusters auf der Fläche zuständig ist.
  5. System nach Anspruch 4, wobei das erste Bild durch die erste Kamera erfasst wird.
  6. System nach Anspruch 4, ferner aufweisend eine zweite Kamera, die in einem vorgegebenen geometrischen Verhältnis mit dem Projektor verbunden ist, wobei das erste Bild durch die zweite Kamera erfasst wird.
  7. System nach Anspruch 6, ferner aufweisend eine dritte Kamera, die in einem vorgegebenen geometrischen Verhältnis mit dem Projektor verbunden ist, wobei der Prozessor ferner für ein Bestimmen der 3D-Koordinaten auf Basis ferner teilweise eines zweiten Bildes des Lichtmusters auf der Fläche zuständig ist, wobei das zweite Bild durch die dritte Kamera erfasst wird.
  8. System nach Anspruch 4, wobei der Projektor für ein Emittieren des Lichtmusters bei einer Wellenlänge betreibbar ist, die sich von dem von der Lichtquelle emittierten Licht unterscheidet.
  9. System nach Anspruch 1, wobei die Lichtquelle für ein Emittieren des Lichts innerhalb eines Bereichs betreibbar ist, wobei der Bereich kleiner als das Sichtfeld ist.
  10. System nach Anspruch 1, wobei die Interaktion zwischen der vordefinierten Wellenlänge des Lichts und der Substanz eine Absorption, eine Fluoreszenz oder eine Streuung von Licht ist.
  11. System nach Anspruch 1, wobei die erste Kamera eine Linse, eine photosensitive Anordnung und einen zwischen der Linse und der photosensitiven Anordnung angeordneten Filter aufweist, wobei die photosensitive Anordnung mehrere Superpixel hat, wobei jedes der Superpixel mehrere Subpixel aufweist, der Filter mehrere Filterelemente aufweist, wobei jedes Filterelement mindestens einem Subpixel zugeordnet ist, wobei mindestens eines der mehreren Filterelemente auf die vorgegebene Wellenläge anspricht.
  12. System nach Anspruch 11, wobei das mindestens eine der mehreren Filterelemente mehreren Subpixeln zugeordnet ist.
  13. System nach Anspruch 11, wobei das mindestens eine der mehreren Filterelemente ein erstes Filterelement und ein zweites Filterelement aufweist, wobei das erste Filterelement auf die vorgegebene Wellenlänge und das zweite Filterelement auf eine zweite vorgegebene Wellenlänge anspricht.
  14. Forensischer 3D-Bildgeber, aufweisend: einen Projektor, der für ein Projizieren eines Lichtmusters auf einer Fläche betreibbar ist; mindestens eine erste Kamera, die in einem vorgegebenen geometrischen Verhältnis mit dem Projektor verbunden ist, wobei die mindestens eine erste Kamera für ein Erfassen eines Bildes des Lichtmusters auf der Fläche betreibbar ist; mindestens eine zweite Kamera, die ein Sichtfeld hat, das einen ersten Bereich auf der Fläche definiert; eine Lichtquelle, die für ein Emittieren von Licht in einen zweiten Bereich auf die Fläche innerhalb des Sichtfeldes betreibbar ist, wobei das Licht eine vorgegebene Wellenlänge hat; und einen Prozessor, der betreibbar mit mindestens der einen ersten Kamera und mindestens der einen zweiten Kamera verbunden ist, wobei der Prozessor für ein Ausführen von Computeranweisungen betreibbar ist, wenn diese auf dem Prozessor zum Bestimmen von 3D-Koordinaten von mindestens einem Punkt im zweiten Bereich auf Basis mindestens teilweise des Lichtmusters und des Bildes ausgeführt werden, und für ein Zuordnen mindestens eines Farbwertes dem mindestens einen Punkt als Antwort auf das Bestimmen von Fluoreszenz oder Absorption von Licht im zweiten Bereich.
  15. Bildgeber nach Anspruch 14, wobei die Fluoreszenz oder Absorption von Licht von einem zweiten Bild bestimmt wird, das von der mindestens einen zweiten Kamera erfasst worden ist.
  16. Bildgeber nach Anspruch 14, ferner aufweisend eine Anzeigevorrichtung mit einer Anwenderschnittstelle, die betreibbar mit dem Prozessor verbunden ist, wobei der Prozessor ferner für ein Anzeigen von Fluoreszenz oder Absorption von Licht auf der Anzeigevorrichtung betreibbar ist.
  17. Bildgeber nach Anspruch 14, ferner aufweisend mehrere Filter, die beweglich zwischen der mindestens einen zweiten Kamera und dem zweiten Bereich angeordnet ist, wobei jeder der mehreren Filter für ein Filtern einer vorgegebenen Bandbreite von Licht betreibbar ist.
  18. Bildgeber nach Anspruch 14, wobei: der Prozessor ferner für ein Erfassen eines ersten Bildes und eines zweiten Bildes von der mindestens einen Kamera betreibbar ist; der mindestens eine Punkt sich im zweiten Bereich im ersten Bild befindet; und der mindestens eine Punkt sich im ersten Bereich und außerhalb des zweiten Bereichs im zweiten Bild befindet.
  19. Bildgeber nach Anspruch 14, wobei die Lichtquelle mehrere Lichtquellen umfasst, wobei jede der mehrere Lichtquellen für ein Emittieren von Licht unterschiedlicher Wellenlänge betreibbar ist.
  20. Verfahren, umfassend: Bestimmen von 3D-Koordinaten von Punkten auf einer Fläche; Projizieren eines ersten Lichts einer ersten vorgegebenen Wellenlänge auf einen ersten Bereich der Fläche; Erfassen mit mindestens einer ersten Kamera eines ersten Bildes innerhalb eines Sichtfelds der mindestens einen ersten Kamera, wobei das Sichtfeld den ersten Bereich auf der Fläche überlappt; Bestimmen einer Interaktion zwischen einer vorgegebenen Wellenlänge von Licht und einer Substanz im ersten Bereich, wobei ein Teil des ersten Bereichs auf dem ersten Bild basiert; Identifizieren der 3D-Koordinaten von mindestens einem Punkt im Teil des ersten Bereichs auf Basis mindestens teilweise des Lichtmusters und des ersten Bildes; und Zuordnen eines Farbwerts zu dem mindestens einen Punkt als Reaktion auf das Bestimmen der Interaktion zwischen der vorgegebenen Wellenlänge von Licht und der Substanz im ersten Bereich.
  21. Verfahren nach Anspruch 20, wobei das Bestimmen der 3D-Koordinaten mindestens teilweise auf einer Laufzeit von Licht basiert ist.
  22. Verfahren nach Anspruch 20, ferner umfassend: Projizieren eines Lichtmusters auf eine Fläche; und Erfassen mit mindestens einer zweiten Kamera eines zweiten Bildes des Lichtmusters auf der Fläche; wobei das Bestimmen der 3D-Koordinaten ferner mindestens teilweise auf dem zweiten Bild basiert ist.
  23. Verfahren nach Anspruch 22, ferner umfassend Erfassen mit mindestens einer zweiten Kamera eines dritten Bildes des Lichtmusters auf der Fläche, wobei das Bestimmen der 3D-Koordinaten ferner auf dem dritten Bild basiert ist.
  24. Verfahren nach Anspruch 20, wobei das erste Bild auf einer periodischen Basis erfasst wird.
  25. Verfahren nach Anspruch 24, wobei die mindestens eine erste Kamera: Bilder mit einer vorgegebenen Frame-Rate erfasst; und das erste Bild auf einer vorgegebenen periodischen Basis erfasst.
  26. Verfahren nach Anspruch 25, wobei die vorgegebene periodische Basis ein Bild jeden zweiten Frame ist.
  27. Verfahren nach Anspruch 25, wobei die vorgegebene periodische Basis ein Bild jeden fünften Frame ist.
  28. Verfahren nach Anspruch 25, wobei die vorgegebene periodische Basis ein Bild jeden zehnten Frame ist.
DE102017215045.9A 2016-08-29 2017-08-29 Forensische drei-dimensionale messvorrichtung Withdrawn DE102017215045A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662380760P 2016-08-29 2016-08-29
US62/380,760 2016-08-29
US15/669,099 2017-08-04
US15/669,099 US10834377B2 (en) 2016-08-29 2017-08-04 Forensic three-dimensional measurement device

Publications (1)

Publication Number Publication Date
DE102017215045A1 true DE102017215045A1 (de) 2018-03-01

Family

ID=61166851

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017215045.9A Withdrawn DE102017215045A1 (de) 2016-08-29 2017-08-29 Forensische drei-dimensionale messvorrichtung

Country Status (1)

Country Link
DE (1) DE102017215045A1 (de)

Similar Documents

Publication Publication Date Title
EP3467432B1 (de) Verfahren zum betreiben einer vorrichtung zum erfassen der dreidimensionalen geometrie von objekten
DE102012112321B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE69826753T2 (de) Optischer Profilsensor
DE102013017500B3 (de) Verfahren und Vorrichtung zum optischen Abtasten und Vermessen einer Szene
DE102009023896B4 (de) Vorrichtung und Verfahren zum Erfassen einer Pflanze
US10834377B2 (en) Forensic three-dimensional measurement device
DE60202198T2 (de) Vorrichtung und verfahren zur erzeugung von dreidimensionalen positionsdaten aus einem erfassten zweidimensionalen bild
EP3557523B1 (de) Verfahren zur erzeugung eines korrekturmodells einer kamera zur korrektur eines abbildungsfehlers
DE112013004369T5 (de) Laserscanner mit zusätzlicher Erfassungsvorrichtung
DE212010000184U1 (de) System zum Scannen eines menschlichen Körpers
DE102005010390A1 (de) Transparentes Kamerakalibrierungswerkzeug zur Kamerakalibrierung und dessen Kalibrierungsverfahren
EP3575848A1 (de) Analyzer zur dreidimensionalen analyse einer medizinischen probe mittels einer lichtfeldkamera
DE112015002821T5 (de) Beobachtungssystem
DE102017102227A1 (de) Verfahren und Vorrichtung zur automatischen Identifizierung einer interessierenden Stelle in einer Tiefenmessung an einem betrachteten Objekt
DE112018003193T5 (de) Datenverarbeitungseinrichtung, datenverarbeitungsverfahren und programm
DE69628654T2 (de) Messsystem zur bestimmung der globalen modulationsübertragungsfunktion
EP2019961B1 (de) Verfahren zum erzeugen von bildinformationen
DE60204849T2 (de) Verfahren und einrichtung zur lageerfassung der anschlusskontakte elektronischer bauelemente
DE1924253A1 (de) System zum automatischen elektrischen Erkennen von optisch erfassbaren Bildmerkmalen
WO2021105801A1 (de) Verfahren zur digitalen anfärbung von zellen
EP3064894A1 (de) 3d-scanvorrichtung und verfahren zum bestimmen einer digitalen 3d-repräsentation einer person
DE102017215045A1 (de) Forensische drei-dimensionale messvorrichtung
DE102018122816A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Eigenschaft eines Objekts
DE4143193A1 (de) System zur mathematischen erfassung dreidimensionaler oberflaechen

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee