DE102013105929A1 - Handgerät zur Quantifizierung von Komponentenmerkmalen - Google Patents

Handgerät zur Quantifizierung von Komponentenmerkmalen Download PDF

Info

Publication number
DE102013105929A1
DE102013105929A1 DE102013105929.5A DE102013105929A DE102013105929A1 DE 102013105929 A1 DE102013105929 A1 DE 102013105929A1 DE 102013105929 A DE102013105929 A DE 102013105929A DE 102013105929 A1 DE102013105929 A1 DE 102013105929A1
Authority
DE
Germany
Prior art keywords
light
sensor
pattern
measure
fov
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102013105929.5A
Other languages
English (en)
Inventor
Michael C. Moed
Carl W. Gerst III
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cognex Corp
Original Assignee
Cognex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cognex Corp filed Critical Cognex Corp
Publication of DE102013105929A1 publication Critical patent/DE102013105929A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K2007/10524Hand-held scanners
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • Geometry (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Handgerät und Verfahren für die Verwendung des Geräts, wobei das Gerät einen Sensor umfasst, der Licht aus dem Inneren eines Sichtfelds (FOV) empfangt, um eine Vielzahl von aufeinanderfolgenden Bildern des FOV zu erzeugen, sowie eine strukturierte Lichtquelle, die steuerbar ist, so dass sie eine Vielzahl von Lichtmustern erzeugt, wobei die Lichtquelle so angeordnet ist, dass sie mindestens eines der vielzähligen Lichtmuster in das FOV projiziert, wo zumindest ein Teil des projizierten Lichtmusters von einem in dem FOV befindlichen Objekt reflektiert und von dem Sensor und einem Prozessor aufgefangen wird, um Bilder des FOV zu erhalten, wobei der Prozessor programmiert ist, die strukturelle Lichtquelle so zu steuern, dass sie ein Lichtmuster in das FOV projiziert, das projizierte Lichtmuster in zumindest einem der erzeugten Bilder zu lokalisieren, Unregelmäßigkeiten in den projizierten Lichtmustern zu lokalisieren und die Unregelmäßigkeiten dazu zu verwenden, das mindestens eine Maß des Objekts im FOV zu messen.

Description

  • QUERBEZUG AUF VERWANDTE ANWENDUNGEN
    • Entfällt
  • ANGABEN ZU STAATLICH GEFÖRDERTER FORSCHUNG UND ENTWICKLUNG
    • Entfällt
  • HINTERGRUND DER ERFINDUNG
  • Die Erfindung betrifft Handgeräte, die Lichtmuster auf ein Objekt in einem Sensorsichtfeld (FOV) projizieren, das zu quantifizierende Objektmerkmale aufweist, zweidimensionale Bilder des FOV einschließlich der von dem Objekt reflektierten Muster aufnehmen und die Muster in den Bildern dazu verwenden, die Objektmerkmale zu quantifizieren.
  • Handgeräte, die ein Lichtmuster auf ein Objekt, das ein zu messendes Maßmerkmal aufweist, in einem Sensorsichtfeld (FOV) projizieren, die ein zweidimensionales Bild des FOV einschließlich des von dem Objekt reflektierten Musters aufnehmen und dieses Muster dazu verwenden, das zu messende Maß zu identifizieren, sind bekannt. Ein Problem mit bekannten Geräten dieser Art liegt darin, dass der Benutzer des Geräts das Gerät so positionieren muss, dass das projizierte Muster gegenüber dem zu messenden Merkmal auf ganz bestimme Weise ausgerichtet ist. So muss das Gerät, wenn die Dicke eines Objekts mittels eines projizierten Linienmusters gemessen werden soll, von dem Gerätenutzer so gehandhabt werden, dass das Linienmuster senkrecht zur Dicke des gemessenen Objekts liegt. Ist das Gerät nicht korrekt ausgerichtet, wird die Dickenmessung ungenau.
  • Wenngleich das Ausrichten eines Linienmusters zu einem Objektmerkmal ein simpler Vorgang zu sein scheint, kann es zumindest in manchen Fällen vorkommen, dass die physischen Beschränkungen einer Umgebung, in der eine Messung vorgenommen werden soll, eine präzise Ausrichtung eines Handgeräts gegenüber dem Merkmal erschweren. Wenn des Weiteren mehrere Maße gemessen werden müssen, kann die für ein präzises manuelles Ausrichten des Geräts gegenüber dem Objekt benötigte Zeit zum Erfassen jedes Maßes beschwerlich sein.
  • KURZBESCHREIBUNG DER ERFINDUNG
  • Das Folgende repräsentiert eine vereinfachte Zusammenfassung der Erfindung, um ein grundlegendes Verständnis für einige Aspekte der Erfindung zu vermitteln. Diese Zusammenfassung ist keine umfassende Übersicht über die Erfindung. Sie soll weder dazu dienen, Schlüssel- oder entscheidende Elemente der Erfindung zu identifizieren, noch den Geltungsbereich der Erfindung eingrenzen. Ihr einziger Zweck liegt darin, einige Konzepte der Erfindung in vereinfachter Form als Einleitung für die nachfolgende detailliertere Beschreibung darzustellen.
  • Die vorliegende Erfindung umfasst ein Handgerät, das programmiert ist, eine Reihe von aufeinanderfolgenden Bildern eines Objekts mit mindestens einem Element aufzunehmen, das zumindest ein zu quantifizierendes Merkmal aufweist, wobei während der Belichtung verschiedene Lichtmuster in das Sichtfeld eines Kamerasensors projiziert werden, um die Bilder aufzunehmen, und wobei zumindest eine Teilmenge der projizierten Muster in Abhängigkeit von der Analyse vorheriger Muster in vorherigen Bilden ausgewählt werden, um zu einer vergleichsweise genaueren Quantifizierung der zu quantifizierenden Merkmale zu führen. So kann das Gerät, wenn als Merkmal ein Maß ermittelt werden soll, eine erstes Lichtmuster auf ein Objekt projizieren, wenn ein erstes Bild aufgenommen wird, einen Wert für das aus dem projizierten Muster in dem ersten Bild zu messende Maß berechnen, ein zweites Lichtmuster projizieren, während ein zweites Bild aufgenommen wird, das Maß anhand des projizierten Musters im zweiten Bild errechnen und dann nachfolgende Lichtmuster auswählen, die projiziert werden wenn nachfolgende Bilder aufgenommen werden, wobei die nachfolgenden Lichtmuster in Abhängigkeit von den mittels des ersten und zweiten Lichtmusters errechneten Maßen ausgewählt werden und so dass eine aus den nachfolgenden Mustern resultierende Maßberechnung vergleichsweise genauer ist als die vorhergehenden Maße. Andere Objektmerkmale können auf ähnliche Art quantifiziert werden, indem nacheinander verschiedene Lichtmuster ausgewählt werden, um in das Sensor-FOV projiziert zu werden, während Bilder in sinnvoller Weise aufgenommen werden.
  • Gemäß den obigen Ausführungen umfassen zumindest einige Ausführungsformen ein Handgerät zum Feststellen von mindestens einem Maß eines Objekts, wobei das Gerät Folgendes umfasst: eine Handgerätgehäusestruktur, einen in der Gehäusestruktur angebrachten Sensor, wobei der Sensor Licht aus dem Inneren eines Sensorsichtfelds (FOV) empfängt, um eine Vielzahl von aufeinanderfolgenden Bildern des Sensor-FOV zu erzeugen, eine strukturierte Lichtquelle, die so gesteuert werden kann, dass sie eine Vielzahl von Lichtmustern erzeugt, wobei die strukturierte Lichtquelle zur gemeinsamen Bewegung mit dem Sensor an dem Gehäuse angebracht und dazu angeordnet ist, um zumindest eines der vielzähligen Lichtmuster in das Sensor-FOV zu projizieren, wo zumindest ein Teil des projizierten Lichtmusters von einem in dem Sensor-FOV befindlichen Objekt reflektiert und von dem Sensor aufgefangen wird, und einen Prozessor, der mit dem Sensor verbunden ist, um von dem Sensor erzeugte Bilder des Sensor-FOV zu empfangen, wobei der Prozessor programmiert ist, die strukturierte Lichtquelle zu steuern, so dass diese ein Lichtmuster in das Sensor-FOV projiziert, das projizierte Lichtmuster in zumindest einem der erzeugten Bilder zu lokalisieren, Unregelmäßigkeiten in dem projizierten Lichtmuster zu lokalisieren und die Unregelmäßigkeiten dazu zu verwenden, das mindestens eine Maß des Objekts im Sensor-FOV zu messen.
  • In einigen Ausführungsformen ist der Prozessor programmiert, verschiedene projizierte Lichtmuster in mindestens einem ersten und einem zweiten der aufeinanderfolgenden Bilder zu identifizieren und Unregelmäßigkeiten in jedem der ersten und zweiten Bilder zu identifizieren. In einigen Fällen ist der Prozessor programmiert, das zumindest eine Maß des Objekts zu identifizieren, indem er die Unregelmäßigkeiten in jedem er ersten und zweiten Lichtmuster verwendet, und eines der identifizierten Maße als das zumindest eine Maß auszuwählen. In eineigen Ausführungsformen ist der Prozessor programmiert, zumindest eines der von der Lichtquelle in das FOV projizierten Lichtmuster in Abhängigkeit von dem identifizierten, mindestens einen Maß, das zumindest einer Teilmenge der vorherigen Bilder zugeordnet ist, auszuwählen.
  • In einigen Ausführungsformen ist der Prozessor programmiert, ein erstes projiziertes Lichtmuster in einem ersten der aufeinanderfolgenden Bilder zu identifizieren, Unregelmäßigkeiten in dem ersten identifizierten Lichtmuster zu identifizieren und die Unregelmäßigkeiten in dem ersten Lichtmuster dazu zu verwenden, eine erste Instanz des mindestens einen Maßes des Objekts zu identifizieren, ein zweites projiziertes Lichtmuster in einem zweiten der aufeinanderfolgenden Bilder zu identifizieren, Unregelmäßigkeiten in dem zweiten identifizierten Lichtmuster zu identifizieren und die Unregelmäßigkeiten in dem zweiten Lichtmuster dazu zu verwenden, eine zweite Instanz des mindestens einen Maßes des Objekts zu identifizieren, die erste und die zweite Instanz des mindestens einen Maßes des Objekts zu vergleichen und ein drittes Lichtmuster zum Projizieren in das FOV auszuwählen, wenn der Sensor Licht aufnimmt, um durch Vergleichen der ersten und zweiten Instanzen des mindestens einen Maßes ein drittes Bild zu erzeugen. In manchen Fällen ist der Prozessor des Weiteren programmiert, das dritte projizierte Lichtmuster in dem dritten Bild zu identifizieren, Unregelmäßigkeiten in dem dritten identifizierten Lichtmuster zu identifizieren und die Unregelmäßigkeiten in dem dritten Lichtmuster dazu zu verwenden, eine dritte Instanz des mindestens einen Maßes des Objekts zu identifizieren und ein viertes Lichtmuster zum Projizieren in das FOV auszuwählen, wenn der Sensor Licht aufnimmt, um durch Vergleichen der dritten Instanz des mindestens einen Maßes mit zumindest einer der ersten und zweiten Instanzen des mindestens einen Maßes ein viertes Bild zu erzeugen.
  • In einigen Ausführungsformen ist der Prozessor des Weiteren programmiert, projizierte Lichtmuster in zumindest einer Teilmenge der Vielzahl von erzeugten Bildern zu identifizieren, Unregelmäßigkeiten in jedem der identifizierten projizierten Lichtmuster zu identifizieren und die Unregelmäßigkeiten dazu zu verwenden, eine separate Instanz des zumindest einen Maßes des Objekts für jede Teilmenge der Vielzahl von erzeugten Bildern zu identifizieren. In einigen Ausführungsformen wählt der Prozessor die kürzeste der separaten Instanzen des mindestens einen Maßes als das zumindest eine Maß aus. In einigen Ausführungsformen ist der Prozessor programmiert, durchgehend aufeinanderfolgende Bilder unter Verwendung verschiedener Lichtmuster aufzunehmen, bis der Prozessor das mindestens eine Maß des Objekts identifiziert.
  • In einigen Ausführungsformen ist der Prozessor des Weiteren programmiert, die projizierten Lichtmuster mit den Lichtmustern in den aufgenommenen Bildern zu vergleichen, um eine Entfernung zwischen dem Sensor und der Fläche des Objekts, von dem das Licht reflektiert wird, zu identifizieren und die identifizierte Entfernung als Teil einer Berechnung zum Identifizieren des mindestens einen Maßes zu verwenden. In einigen Ausführungsformen wird zumindest eines der projizierten Lichtmuster ausgewählt, um eine grobe Schätzung der Entfernung zwischen dem Sensor und der Fläche des Objekts, von dem Licht reflektiert wird, zu erzeugen und eines der nachfolgenden projizierten Lichtmuster wird ausgewählt, um eine präzisere Messung der Entfernung zwischen dem Sensor und der Fläche des Objekts, von dem das Licht reflektiert wird, zu erzeugen.
  • In einigen Fällen ist der Prozessor des Weiteren programmiert, maschinenlesbare Codekandidaten in den aufgenommenen Bildern zu identifizieren und zu versuchen, identifizierte Codekandidaten zu dekodieren. In manchen Fällen umfasst das Gerät des Weiteren einen von einem Benutzer auswählbaren Aktivator, der mit dem Prozessor verbunden ist, um die Lichtquelle, den Sensor und den Prozessor so zu steuern, dass diese Lichtmuster projizieren, Bilder des FOV aufnehmen und die aufgenommenen Bilder verarbeiten. In einigen Ausführungsformen umfasst die strukturierte Lichtquelle einen Digital Light Processing(DLP)-Projektor.
  • In einigen Fällen verwendet der Prozessor einen DLP-Messtechnikprozess zum Identifizieren des mindestens einen Maßmerkmals. In einigen Ausführungsformen ist der Prozessor des Weiteren programmiert, maschinenlesbare Codekandidaten in den aufgenommenen Bildern zu identifizieren und zu versuchen, die Codekandidaten zu dekodieren, und wobei die strukturierte Lichtquelle einen Digital Light Processing(DLP)-Projektor umfasst, wobei der DLP-Projektor von dem Prozessor gesteuert wird, so dass er die Lichtmuster in den Bildern erzeugt und außerdem Licht erzeugt, um Codekandidaten innerhalb des FOV zu beleuchten.
  • Andere Ausführungsformen umfassen ein Handgerät zum Bestimmen von zumindest einem Maß eines Objekts, wobei das Gerät Folgendes umfasst: eine Handgerätgehäusestruktur, einen in der Gehäusestruktur angebrachten Sensor, wobei der Sensor Licht aus dem Inneren eines Sensorsichtfelds (FOV) empfängt, um Bilder des Sensor-FOV zu erzeugen, einen Beleuchter, der zur gemeinsamen Bewegung mit dem Sensor an dem Gehäuse angebracht und dazu angeordnet ist, um eine Vielzahl von verschiedenen Lichtmustern in das Sensor-FOV zu projizieren, wo zumindest ein Teil des projizierten Lichtmusters von einem in dem Sensor-FOV befindlichen Objekt reflektiert und von dem Sensor aufgefangen wird, und einen Prozessor, der mit dem Sensor verbunden ist, um Bilder des Sensor-FOV zu empfangen, und der mit dem Beleuchter verbunden ist, um die Auswahl eines ersten projizierten Lichtmusters zu steuern, wobei der Prozessor programmiert ist, das erste projizierte Lichtmuster in einem ersten aufgenommenen Bild zu lokalisieren, das erste projizierte Lichtmuster zu prüfen, um ein zweites Lichtmuster zu identifizieren, das möglicherweise besser für das Lokalisieren von Unregelmäßigkeiten geeignet ist, die dazu dienen, das mindestens eine Maß des Objekts im Sensor-FOV zu identifizieren, den Beleuchter zu steuern, so dass er das zweite Lichtmuster in das Sensor-FOV projiziert, während ein zweites Bild aufgenommen wird, das zweite Lichtmuster in dem zweiten Bild zu lokalisieren, Unregelmäßigkeiten in dem zweiten Muster zu lokalisieren und die Unregelmäßigkeiten in dem zweiten Lichtmuster dazu zu verwenden, das mindestens eine Maß des Objekts im Sensor-FOV zu messen.
  • In manchen Fällen ist der Beleuchter ein Digital Light Processing(DLP)-Projektor. In manchen Fällen projiziert der Projektor Muster in das FOV und der Prozessor identifiziert Unregelmäßigkeiten, indem er die projizierten Muster mit den in den aufgenommenen Bildern identifizierten Muster vergleicht.
  • Wiederum andere Ausführungsformen umfassen ein Verfahren zur Verwendung mit einem Handgerät zum Feststellen von mindestens einem Maß eines Objekts, wobei das Handgerät einen Bildsensor mit einem Sichtfeld (FOV) und einen Beleuchter umfasst, der an einem Handgerätgehäuse angebracht ist, so dass der Sensor und der Beleuchter als eine Einheit gehandhabt werden, wobei das Verfahren die folgenden Schritte umfasst: Verwenden eines Prozessors in dem Handgerät zum Durchführen der Schritte Projizieren eines ersten Lichtmusters in das Sensor-FOV, während sich ein Objekt in dem Sensor-FOV befindet, Aufnehmen eines Bilds des Sensor-FOV, Lokalisieren des ersten projizierten Lichtmusters in einem ersten aufgenommenen Bild, Prüfen des ersten projizierten Lichtmusters, um ein zweites Lichtmuster zu identifizieren, das möglicherweise besser geeignet ist, um Unregelmäßigkeiten zu lokalisieren, die zum Identifizieren von mindestens einem Maß eines Objekts in dem Sensor-FOV dienen, Steuern des Beleuchters, so dass dieser das zweite Lichtmuster in das Sensor-FOV projiziert, während ein zweites Bild aufgenommen wird, Lokalisieren des zweiten Lichtmusters in dem zweiten Bild, Lokalisieren von Unregelmäßigkeiten in dem identifizierten zweiten Lichtmuster, und Verwenden der Unregelmäßigkeiten in dem identifizierten zweiten Lichtmuster zum Messen des mindestens einen Maßes des Objekts im Sensor-FOV.
  • Die nachfolgende Beschreibung und die angehängte Zeichnung legen bestimmte illustrative Aspekte der vorliegenden Erfindung detailliert dar. Diese Aspekte zeigen jedoch nur einige wenige der zahlreichen Wege auf, in denen die Prinzipien der Erfindung umgesetzt werden können, und die vorliegende Erfindung soll all diese Aspekte und deren Äquivalente umfassen. Andere Vorteile und neuartige Merkmale der vorliegenden Erfindung werden sich aus der folgenden detaillierten Beschreibung der Erfindung ergeben, wenn diese im Kontext mit der Zeichnung betrachtet wird.
  • KURZBRESCHREIBUNG DER VERSCHIEDENEN ANSICHTEN DER ZEICHNUNG
  • Die Erfindung wird im Folgenden unter Bezugnahme auf die begleitende Zeichnung beschrieben, wobei gleiche Bezugszeichen gleiche Elemente bezeichnen.
  • 1 ist ein schematisches Diagramm, das ein Teilehandhabungssystem darstellt, in dem ein Handgerät dargestellt ist, das verschiedene Verfahren gemäß zumindest einigen Aspekten der vorliegenden Erfindung durchführt;
  • 2 ist eine vergrößerte perspektivische Ansicht des Handgeräts aus 1;
  • 3 ist ein schematisches Diagramm, das verschiedene Komponenten des Handgeräts aus 2 darstellt;
  • 4 ist ein Schema, das ein exemplarisches Bild eines kubischen Objekts mit einem ersten Linienlichtmuster auf dem Objekt zeigt, welches Muster von der Sensoranordnung aus 3 erzeugt werden kann;
  • 5 ist ein Flussdiagramm, das ein Verfahren zeigt, welches von den Komponenten aus 3 durchgeführt werden kann, um durch Prüfung projizierter Lichtmuster in einer Reihe von Bildern ein Maß eines kubischen Objekts festzustellen;
  • 6 gleicht 4, zeigt allerdings ein zweites Lichtmuster auf dem kubischen Objekt innerhalb eines Bildes;
  • 7 gleicht 4, zeigt allerdings ein drittes Lichtmuster auf dem kubischen Objekt innerhalb eines Bildes;
  • 8 gleicht 4, zeigt allerdings ein viertes Lichtmuster auf dem kubischen Objekt innerhalb eines Bildes;
  • 9 gleicht 4, zeigt allerdings ein fünftes Lichtmuster auf dem kubischen Objekt innerhalb eines Bildes;
  • 10 gleicht 4, zeigt allerdings ein mehrzeiliges Lichtmuster auf dem kubischen Objekt innerhalb eines Bildes;
  • 11 gleicht 4, zeigt allerdings ein weiteres Lichtmuster auf dem kubischen Objekt innerhalb eines Bildes; und
  • 12 gleicht 4, zeigt allerdings ein anderes Lichtmuster auf dem kubischen Objekt innerhalb eines Bildes;
  • 13 gleicht 4, zeigt allerdings ein Lichtmuster, bei dem die Auswirkungen der verkippten Position eines Sensors gegenüber Objektflächen in dem Bild übertrieben dargestellt wurden, um diese Erklärung zu vereinfachen;
  • 14 gleicht 13, zeigt allerdings übertriebene Auswirkungen, wenn während der Bildaufnahme ein anderes Lichtmuster auf ein Objekt projiziert wird; und
  • 15 ist ein Flussdiagramm, das ein Verfahren illustriert, welches von den Komponenten aus 3 zum Abbilden und Dekodieren eines maschinenlesbaren Codes auf einem Objekt zur Identifikation und Dekodierung von Codekandidaten in einem Bild durchgeführt werden kann, das zumindest einigen Aspekten der vorliegenden Erfindung entspricht.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • Mit Bezug auf die Zeichnung, in der gleiche Referenzzeichen ähnlichen Elementen in den verschiedenen Ansichten entsprechen, und insbesondere mit Bezug auf 1 wird die vorliegende Erfindung im Kontext einer beispielhaften Materialhandhabungsanordnung 10 beschrieben, die eine Transferstraße 40 zum Bewegen von kubischen Objekten wie Boxen oder dergleichen 42a, 42b und 42c durch eine Arbeitsstation umfasst. Jedes Objekt ist mit einem maschinenlesbaren Code (z. B. einem Barcode, einem zweidimensionalen Matrixcode etc.) markiert, wobei die Codes in 1 durch die Nummern 44a, 44b und 44c identifiziert sind, die auf mindestens eine der Flächen des Objekts aufgebracht sind. In 1 ist Code 44b auf die exemplarische Fläche 52 von Objekt 42b aufgebracht. Sowie die Objekte 42a, 42b, 42c etc. zu der Station bewegt werden, werden die Betriebsmittel an der Station dazu eingesetzt, die Codes auf den Objekten zu lesen, um die Objekte zu identifizieren. Außerdem werden die Betriebsmittel der Station dazu eingesetzt, Objekte abzubilden und Objektmaße festzustellen. Falls die Objekte zur Auslieferung auf Lastwägen geladen werden müssen, kann eine Software die Objektmaße dazu verwenden, eine effiziente Ladefolge und Anordnung zu planen.
  • Das System 10 umfasst einen Computer 32, der mit einer Mensch-Maschine-Schnittstelle einschließlich eines Flachbildschirms 26 und einer Eingabevorrichtung 30 einschließlich einer Tastatur verbunden ist. Andere Eingabevorrichtungen und Schnittstellenvorrichtungen sind denkbar. Der Computer 32 ist außerdem mit einem drahtlosen Zugriffspunkt 33 verbunden. Obwohl nicht dargestellt, kann das System 10 auch einen oder mehrere mit dem Computer 32 verbundene Objektpositionssensoren umfassen, um bestimmte Positionen der Objekte 42a, 42b und 42c zu identifizieren, während diese die dargestellte Station passieren, so dass an der Station erfasste Objektmerkmale mit bestimmten Objekten und Objektpositionen in Beziehung gesetzt werden können.
  • Noch immer mit Bezug auf 1 umfasst das System 10 ein exemplarisches elektronisches Handgerät 12, das dazu verwendet werden kann, verschiedene Verfahren durchzuführen, die zumindest einigen Aspekten der vorliegenden Erfindung entsprechen. Auch mit Bezug auf 2 und 3 umfasst das exemplarische Handgerät 12 eine Gerätegehäusestruktur 13, die üblicherweise aus einem stoßfesten Material wie Plastik, Fiberglas etc. gebildet ist. Die Struktur 13 bildet ein ergonomisches Griffstück 14 sowie ein Laufstück 16 aus, das von einem oberen Ende des Griffstücks 14 ausgeht wie der Lauf einer Pistole von dem Griff einer Pistole. Das Handgerät 12 umfasst außerdem einen Aktivierungsknopf 18, eine Objektiv-Unteranordnung 20, eine strukturierte Lichtquelle 22, eine Stromquelle 24, eine Sensoranordnung 25, einen Transceiver 26, eine Speichereinrichtung 27, eine Feedbackanordnung 28 und einen Mikroprozessor 29, die jeweils entweder auf oder innerhalb der Gerätgehäusestruktur 13 angebracht sind.
  • Der Mikroprozessor 29 ist jeweils mit dem Aktivierungsknopf 18, der Lichtquelle 22, der Stromquelle 24, der Sensoranordnung 25, dem Transceiver 26, der Speichereinrichtung 27 und der Feedbackanordnung 28 verbunden, um diese jeweils zu steuern und die hiernach beschriebenen Verfahren zu erleichtern. Zu diesem Zweck ist der Mikroprozessor 29 mit der Speichereinrichtung 27 verbunden, die Softwareprogramme speichert, welche von dem Prozessor 29 ausgeführt werden, um verschiedene Prozesse durchzuführen. Außerdem kann die Speichereinrichtung 27 dazu verwendet werden, von der Sensoranordnung 25 erzeugte Bilder zumindest zeitweise zu speichern und auch um die Ergebnisse der verschiedenen Berechnungen zu speichern, die während der Bildverarbeitung ablaufen. Der Aktivierungsknopf 18 ist mit dem Prozessor 29 verbunden, um es einem Gerätnutzer zu ermöglichen, den Betrieb des Geräts 12 durch Drücken des Knopfs 18 zu steuern. Die Stromquelle 24 ist mit dem Mikroprozessor 29 verbunden, um diesem Strom zuzuführen. In zumindest einigen Ausführungsformen kann die Stromquelle 24 eine Batterie umfassen. In anderen Ausführungsformen kann die Stromquelle 24 Komponenten umfassen, die einen Anschluss des Mikroprozessors 29 per Kabel an eine externe Stromquelle ermöglichen.
  • Noch immer mit Bezug auf 2 und 3 kann die Feedbackanordnung 28 verschiedene Formen annehmen und stellt im Allgemeinen Feedback für einen Gerätnutzer bereit. Wie in 2 gezeigt, kann die Feedbackanordnung 28 zum Beispiel eine oder mehrere LEDs umfassen, die an einer Ober- oder Seitenwand des Laufstücks 16, generell in der direkten Sichtlinie einer das Gerät 12 benutzenden Person, angebracht sind. In zumindest einigen Ausführungsformen können die LEDs 28 verschiedene Farben aufweisen, um verschiedene Stadien der von dem Mikroprozessor 29 durchgeführten Prozesse anzuzeigen. Eine gelbe LED kann zum Beispiel die Aktivierung des Geräts 12 zum Aufnehmen von Bildern eines Objekts anzeigen und dass ein durchzuführender Prozess noch nicht abgeschlossen ist, während eine grüne LED einen beendeten Prozess anzeigt. Eine rote LED kann anzeigen, dass ein Prozess eine Zeit überschritten hat, ohne erfolgreich beendet worden zu sein. Wenn der durchzuführende Prozess das Messen eines Objektmaßes umfasst und das Gerät 12 für die Abbildung des Objekts nicht korrekt positioniert ist, so dass der Prozessor 29 innerhalb einer Timeout-Zeit kein verlässliches Maß erzeugen kann, so kann eine leuchtende rote LED einem Benutzer anzeigen, dass das Gerät 12 neu positioniert werden sollte. Eine leuchtende grüne LED kann anzeigen, dass das Maß berechnet wurde.
  • Obwohl nicht gezeigt, kann die Feedbackanordnung 28 in anderen Ausführungsformen einen an dem Laufstück 16 angebrachten kleinen Displaybildschirm aufweisen, der ein Prozessfeedback für einen Benutzer bereitstellt. Außerdem kann die Anordnung 28 eine Audioeinrichtung, wie zum Beispiel einen Piepser, Lautsprecher etc. zum Bereitstellen eines Prozessfeedbacks aufweisen. In wieder anderen Ausführungsformen können die von der Feedbackanordnung 28 ausgeführten Funktionen vom Prozessor 29 durchgeführte Funktionen umfassen, um diese erweitert oder durch diese ersetzt werden. Wenn das Display 26 an der dargestellten Transferstraße in 1 direkt im Blick eines Gerätnutzers positioniert ist, kann der Prozessor 29 zum Beispiel Feedbackinformationen oder Informationen (z. B. ein erfolgreich gemessenes Maß) übermitteln, von denen Feedbackinformationen über den Transceiver 26 und den Zugriffspunkt 33 an den Computer 32 weitergeleitet werden können, und der Computer 32 kann programmiert sein, dem Benutzer das Feedback über das Display 26 anzuzeigen. In einem anderen Beispiel kann der Prozessor 29 programmiert sein, die Lichtquelle 22 so zu steuern, dass diese über die Fläche eines gerade abgebildeten Objekts ein Feedback bereitstellt, indem sie verschiedenfarbige Lichter projiziert, um so den Prozessstatus anzuzeigen, oder indem sie Worte wie zum Beispiel „Messung beendet” oder „Gerät neu positionieren” etc. projiziert. Darüber hinaus kann der Prozessor 29, nachdem ein oder mehrere Maße berechnet wurden, die Lichtquelle 22 so steuern, dass sie das Maß auf das gerade abgebildete Objekt projiziert und dort anzeigt (so kann z. B. ein Doppelpfeil mit dem damit räumlich verbundenen Maß auf ein Objekt projiziert sein).
  • Noch immer mit Bezug auf 2 und 3 umfasst die Sensoranordnung 25 in zumindest einigen Ausführungsformen eine zweidimensionale Bilderzeugungsanordnung, zum Beispiel eine CCD- oder CMOS-Bilderzeugungsanordnung, wie sie im Codelesebereich wohlbekannt sind. Die Anordnung 25 kann innerhalb des Laufstücks 16 angebracht sein, wobei die Objektiv-Unteranordnung 20 optisch mit ihr ausgerichtet ist, um Licht in einem Sichtfeld 50 der Objektiv-Unteranordnung 20 auf die Sensoranordnung 25 zu fokussieren. Die Anordnung 25 bündelt das licht, das die Anordnung schneidet und erzeugt Bilder von im Sichtfeld 50 befindlichen Objekten.
  • Mit Bezug auf 1, 2 und 3 veranlasst der Prozessor 29 die Anordnung 25, im Allgemeinen, wenn der Aktivierungsknopf 18 gedrückt wird, Licht zu bündeln und eine Vielzahl von aufeinanderfolgenden Bildern zu erzeugen, wodurch eine Reihe von Bildern erstellt wird, die von dem Prozessor 29 geprüft werden, um verschiedene Funktionen auszuführen.
  • Nochmals mit Bezug auf 2 und 3 ist die strukturierte Lichtquelle 22 eine Lichtquelle, die so gesteuert werden kann, dass sie eine Vielzahl von Lichtmustern innerhalb des Sensorsichtfelds 50 projiziert. In zumindest einigen Ausführungsformen umfasst die Lichtquelle 22 einen Digital Light Processing(DLP)-Projektor, der gesteuert werden kann, im Wesentlichen jedes beliebige Lichtmuster in das FOV 50 zu projizieren. So kann ein Muster, das von der Lichtquelle 22 erzeugt werden kann, eine einzelne gerade Linie umfassen, die das Sichtfeld 50 in ein obere und eine untere Hälfte teilt. Andere Beispiele für projizierte Muster können andere einzelne Linien umfassen, die das Sichtfeld 50 anders teilen, wie zum Beispiel horizontale Linien, die höher oder tiefer liegen als eine Mittellinie im Sichtfeld 50, vertikale Linien, die das Sichtfeld 50 entweder gleichmäßig oder ungleichmäßig aufteilen, oder gewinkelte Linien, die das Sichtfeld 50 teilen. Komplexere Beispiele für projizierte Muster können eine Vielzahl von Linien, die ein Explosionsmuster formen, eine Punktmatrix oder einförmige Muster anderer geometrischer Figuren wie Quadrate, Rechtecke, Ovale etc. umfassen. Weitere Lichtmuster können runde, zielscheibenartige Muster, eine rechtwinkliges oder quadratisches, zielscheibenartiges Muster, dreieckige Muster etc. umfassen.
  • Das von der Quelle 22 projizierte Lichtmuster hat eine Wellenlänge, die von einer Sensoranordnung 25 wahrgenommen und unterschieden werden kann. Wenn die Anordnung 25 Licht aus einem Sichtfeld 50 erhält, während die Quelle 22 ein strukturiertes Lichtmuster erzeugt, erscheint das Muster oder zumindest ein Teil des Musters somit in dem von der Sensoranordnung 25 erzeugten Bild. Obwohl nicht gezeigt, ist es zumindest in einigen Ausführungsformen denkbar, dass die Lichtquelle Lichtmuster mit einer spezifischen Wellenlänge oder mit Wellenlängen in einem bekannten Bereich erzeugt und dass ein Filter verwendet wird, um das Lichtmuster von dem restlichen Licht im Sichtfeld des Sensors zu trennen, so dass der Prozessor das Muster von anderem Licht unterscheiden kann.
  • Die Merkmale der Muster in einem aufgenommenen Bild werden von der Geometrie des Objekts oder der Objekte im Sensorsichtfeld 50 gegenüber der Sensoranordnung beeinflusst. Wenn die Lichtquelle 22, mit Bezug auf 4, zum Beispiel ein Linienlichtmuster 62a auf die Fläche 52 eines Objekts 42b projiziert und die Linie sich über Kanten 51, 53 des Objekts hinaus erstreckt, treten an den Kanten des Objekts Unregelmäßigkeiten in der Linie auf (siehe in 4, dass das Muster 62a an Kantenunregelmäßigkeiten 51 und 52 abbricht). Aus diesem Grund können Kanten eines Objekts in einem Bild identifiziert werden, indem ein projiziertes Lichtmuster in dem Bild untersucht und Musterunregelmäßigkeiten identifiziert werden. Im Fall eines kubischen Objekts wie einer Box, bei dem zwei Kanten des Objekts identifiziert werden können, kann der Mikroprozessor 29 die Positionen der Kanten in einem aufgenommenen Bild dazu verwenden, ein Maß zwischen den zwei Kanten und damit eine Länge, Breite oder Höhe des Objekts zu berechnen. In 4 kann das Maß W1 zwischen den Unregelmäßigkeiten 51 und 53 berechnet werden.
  • Es wurde erkannt, dass, wenn ein einfaches Lichtmuster unter Verwendung eines Handgeräts wie dem in 2 dargestellten Gerät 12 auf ein Objekt projiziert wird, ein Gerätnutzer das Gerät 12 in vielen Fällen nicht korrekt auf das zu bemessende Objekt ausrichten wird, so dass ein mittels des projizierten Musters in dem aufgenommenen Bild errechnetes Maß keinen akkuraten Messwert liefern wird. Siehe diesbezüglich wieder 4, wo exemplarisch die kubische Box 42b in einem von der Sensoranordnung 25 erzeugten Bild 66a dargestellt ist, wobei die Schachtel 42b jeweils eine Oberfläche 52 sowie Vorder- und Seitenflächen 56 und 60 umfasst. In diesem einfachen Beispiel wird angenommen, dass das Gerät 12 dazu verwendet werden soll, ein Breitenmaß W0 über die Breite der Oberfläche 52 (siehe 4) zu messen. Um die Breite eines kubischen Objekts akkurat zu messen, sollte das kürzeste Maß zwischen den die Breite definierenden Kanten gemessen werden. In 4 ist das Muster 62a offensichtlich nicht korrekt ausgerichtet, so dass der Teil des Musters, der die Fläche 52 schneidet, parallel zum Breitenmaß W0 verläuft und der Ergebniswert W1 das Maß W0 somit nicht akkurat wiedergeben wird, falls das Maß W1 zwischen den Unregelmäßigkeiten S1 und S3 gemessen wird.
  • Das projizierte Lichtmuster 62a umfasst ein einzelnes Lichtmuster, welches das Lichtfeld 50 (siehe wiederum 2) und somit das Bild 66a in eine obere und eine untere Hälfte teilt. Wie gezeigt, umfasst die Schachtel 42b eine Oberfläche 52 sowie Seitenflächen 56 und 60. Das Muster 62a ist zumindest teilweise quer auf der Oberfläche 52 und an der Seitenfläche 60 hinunter sichtbar. Unregelmäßigkeiten 51 und 52 treten im Muster 62a an den gegenüberliegenden Kanten der Oberfläche 52 auf.
  • In Anerkennung der hohen Wahrscheinlichkeit von Fehlern, wie dem mit Bezug auf 4 oben beschriebenen, wurde das Gerät 12 entwickelt, in dem der Prozessor 29 die Lichtquelle oder den Projektor 22 so steuert, dass dieser während einer Reihe von aufeinanderfolgenden Abbildungsprozessen in schneller Folge verschiedene Lichtmuster projiziert, wobei die Lichtmuster so gewählt sind, dass zumindest eines der Lichtmuster zu einem Bild führt, in dem das Muster dazu verwendet werden kann, ein Maß eines kubischen Objekts unabhängig von der Ausrichtung des Geräts 12 bezüglich der Fläche des abgebildeten Objekts verhältnismäßig akkurat festzustellen.
  • In zumindest einigen Ausführungsformen ist der Prozessor 29 programmiert, die Ergebnisse der Maßmessungen aus einer ersten Teilmenge von Bildern einschließlich einer ersten Teilmenge von projizierten Lichtmustern zu verwenden, um nachfolgend projizierte Lichtmuster auszuwählen, die mit verhältnismäßig größerer Wahrscheinlichkeit akkurate Maßmessungen liefern. So wird, wiederum in Bezug auf 4, zum Messen des Breitenmaßes W0 idealerweise das kürzeste Maß zwischen gegenüberliegenden Kanten der Fläche 52 gemessen. Ebenso mit Bezug zu 6, wenn zwei separate Linienmuster 62a und 62b verwendet werden, um eine Maßmessung zu erzeugen und Muster 62a ein kürzeres Maß liefert als Muster 62b, gibt Muster 62a offensichtlich ein genaueres Bild des Maßes W0 wieder als Muster 62b und diese Information kann dazu verwendet werden, ein nächstes projiziertes Lichtmuster zu wählen. Der Prozessor 29 ist deshalb programmiert, auf sinnvolle Weise verschiedene Lichtmuster auszuwählen, um nach dem kürzesten Breitenmaß zu suchen.
  • Da Sensor- und Prozessorgeschwindigkeiten in letzter Zeit gestiegen sind und weiter zunehmen werden, sollte, ausgehend von einer zumindest einigermaßen intelligenten Ausrichtung des Geräts 12 auf eine zu messende Fläche (z. B. Fläche 52 in 4), ein gesamter Bemessungsvorgang im Wesentlichen nur einen Bruchteil einer Sekunde dauern, während eine Reihe von Bildern nacheinander aufgenommen werden. Außerdem sollte jegliche unbeabsichtigte Bewegung des Geräts 12, die den Messberechnungsvorgang beeinträchtigen könnte, irrelevant sein, da der Prozess extrem schnell von statten geht. Darüber umfasst das Lichtmuster zumindest in einigen Ausführungsformen mehrere simultane Linien, so dass Informationen, wie zum Beispiel wahrgenommene Entfernungen zwischen dem bekannten Muster der Linien und die Winkeln zwischen den Linien, mit einer Norm verglichen werden und es dem Prozessor somit ermöglicht wird, akkurate Messdaten zu erzeugen.
  • In vielen Anwendungsbereichen gibt es einen Schwellengenauigkeitswert, der eingehalten werden muss, wobei dieser Schwellenwert unter dem Wert absoluter Genauigkeit liegt. So kann eine akzeptable Genauigkeit in einigen Anwendungsbereichen erreicht werden, sobald Veränderungen in den aufeinanderfolgenden Breitenmaßmessungen weniger als einen Zentimeter betragen. Nachdem eine akzeptable Genauigkeit erreicht ist, kann der Prozessor 29 den Abbildungsprozess stoppen, das Messergebnis über den Transceiver 26 und den Zugrisspunkt 33 an den Computer 32 übermitteln und über die Feedbackeinrichtung 28 oder auf andere unterstützte Art und Weise die erfolgreiche Messung anzeigen.
  • In dem nachfolgend beschriebenen beispielhaften Verfahren wird angenommen, dass der Prozessor 29 programmiert ist, einen Prozess auszuführen, um die Breite W0 der Fläche 52 des in 4 gezeigten Objekts 42b zu ermitteln, wenn der Aktivierungsknopf (siehe wiederum 2) gedrückt wird. Es wird außerdem angenommen, dass das Schwellenniveau oder der Schwellenwert, der die erforderliche Genauigkeit angibt, bei einem Zentimeter liegt, was heißt, dass der Prozess enden sollte, sobald die Breitengenauigkeit innerhalb eines Zentimeters der tatsächlichen Breite W0 liegt.
  • Mit Bezug auf 5 ist nun ein Verfahren 100 zum Messen des Maßes W0 dargestellt, das von dem Mikroprozessor 29 und den anderen, mit Bezug auf 3 oben beschriebenen Komponenten ausgeführt werden kann. Falls Höhen- und Längenmaße des Objekts 52b gemessen werden sollen, würde das Verfahren 100 für jedes dieser Maße wiederholt. Ebenso mit Bezug auf 1 bis 4 steuert der Prozessor 29 in Block 102 die Lichtquelle 22 an, so dass diese ein erstes Zielmuster erzeugt, das in das Sensorsichtfeld 50 projiziert wird. In Block 104 erhält der Prozessor 29 ein Bild eines Objekts 42b (siehe 1), das sich im Sichtfeld 50 des Sensors befindet. Wie in 4 gezeigt, umfasst ein beispielhaftes erstes Bild 66a das Objekt 42b und das projizierte Muster 62a erscheint in dem Bild.
  • Noch immer mit Bezug auf 1 bis 5 identifiziert der Prozessor 29 in Block 106 das erste Muster 62a in dem erhaltenen Bild. In Block 108 identifiziert der Prozessor 29 Unregelmäßigkeiten in dem ersten Muster in dem erhaltenen Bild 66a. In 4 sind die Unregelmäßigkeiten mit den Nummern 51 und 53 gekennzeichnet und treten an den gegenüberliegenden Kanten der Fläche 52 auf. In Block 110 identifiziert der Prozessor 29 Entfernungen zwischen der Sensoranordnung 25 und der Fläche 52 des Objekts 42a, welches das Lichtmuster 62a an den Maßen 51 und 53 reflektiert.
  • Das Feststellen der Abstände zwischen Sensor und Fläche kann durch die Untersuchung der Merkmale des Musters 62a an den benachbarten Unregelmäßigkeiten 51 und 53 auf der Fläche 52 erfolgen. Diesbezüglich ist bekannt, dass sich das Lichtmuster auch im Fall eines strukturierten Lichtmusters verändert, sobald sich die Entfernung, entlang derer sich das Lichtmuster bewegt, und in Abhängigkeit von dem Winkel eines Handgeräts zu der Fläche, auf die das Muster projiziert ist, zunimmt. So wird ein Linienmuster mit steigender Entfernung des Sensors von der Fläche dicker. Ebenso verändert sich der Winkel zwischen zwei projizierten Linien, wenn sich der Winkel zwischen einem Handgerät und der angeleuchteten Fläche verändert. Indem man die Dicke des Teils des Musters auf der Fläche 52 mit der Dicke des projizierten Musters vergleicht und indem man den projizierten Winkel zwischen zwei Linien mit dem sichtbaren Muster vergleicht, kann somit eine Entfernung zwischen Sensor und Fläche und ein Winkel des Geräts zur Fläche ermittelt werden. In einem weiteren Beispiel verändern sich die Maße zwischen parallelen Linien eines Musters in Abhängigkeit von der Entfernung, wobei alle anderen Umstände unverändert bleiben, und somit kann eine Entfernung zwischen Sensor und Fläche ermittelt werden, indem ein Maß zwischen Linien gemessen und mit einer Tabelle verglichen wird, die Maße und Entfernungen in Beziehung setzt. In einem weiteren Beispiel kann eine Linie oder ein Linienmuster in einem Winkel in ein Sensor-FOV projiziert und die Position der Linie in einem resultierenden Bild dazu verwendet werden, die Entfernung zwischen Sensor und Fläche zu messen, da die Position eines geneigten Lichtmusters in einem aufgenommenen Bild eine Maßgabe für die Entfernung ist. Andere Wege zum Ermitteln einer Entfernung zwischen Sensor und Fläche und eines Winkels des Geräts zur Fläche, die aus dem Stand der Technik bekannt sind, einschließlich eines Triangulierungsverfahrens, sind denkbar und können in zumindest einigen Ausführungsformen der vorliegenden Erfindung angewendet werden.
  • In einigen Fällen ist denkbar, dass das Gerät 12 bezüglich einer reflektierenden Fläche geneigt ist, so dass ein Ende des Teils des projizierten Musters auf einer Fläche näher an dem Sensor liegt als ein anderes Ende des Teils des projizierten Musters auf der Fläche. In diesem Fall kann es zum Feststellen der Entfernung zwischen Sensor und Fläche nötig sein, zwei oder mehr Entfernungen zu ermitteln, wie zum Beispiel die Entfernungen zwischen Sensor und Fläche an gegenüberliegenden Enden des Teils eines projizierten Musters auf der Fläche 52. Hierbei würden zwei separate Verfahren zur Identifikation der Entfernung zwischen Sensor und Fläche vom Prozessor 29 durchgeführt, also jeweils ein Verfahren für die Unregelmäßigkeiten 51 und 53.
  • In Block 112 verwendet der Prozessor 29 die Unregelmäßigkeiten und den/die Entfernungswert(e) zwischen Sensor und Fläche, um eine erste Instanz des in 4 als W1 identifizierten Objektmaßes zu berechnen. Hierbei weicht die erste Instanz W1 des Objektmaßes, obwohl sie dem tatsächlichen Breitenmaß W0 ähnlich ist, aufgrund der Fehlausrichtung des Musters 62a gegenüber der Fläche 52 ab.
  • Noch immer mit Bezug auf 1 bis 5 steuert der Prozessor 29 die Lichtquelle 22 in Block 114 an, so dass diese ein nächstes Lichtmuster in das Sensor-FOV 50 projiziert. Auch in Bezug auf 6 ist ein nächstes Bild 66b projiziert, welches das erste Lichtmuster 62a als Strich-Punkt-Linie und das nächste Lichtmuster 62b zeigt, wobei ersichtlich ist, dass das nächste Lichtmuster 62b, wie von Pfeil 80 angezeigt, von dem ersten Lichtmuster 62a ausgehend gegen den Uhrzeigersinn gedreht ist. Auch wenn eine erste Drehung gegen den Urzeigersinn gezeigt ist, unterliegt die erste Drehrichtung schlicht der Wahl des Planers. In anderen Ausführungsformen kann die erste Drehung im Uhrzeigersinn erfolgen. Der Grad der ersten Drehung 80 unterliegt ebenfalls der Wahl des Planers, sollte jedoch groß genug sein, um mit Wahrscheinlichkeit zu einer Ungleichheit der Maße W1 und W2 zu führen (siehe wiederum 4 und 6). Im vorliegenden Beispiel soll angenommen werden, dass der Gerätnutzer das Gerät 15 zumindest annähernd so positioniert, dass das projizierte Muster auf das zu messenden Maß ausgerichtet ist, weshalb die erste Drehung 80 nicht zu weit ausfallen sollte. In Block 116 erhält der Prozessor 29 das zweite, in 6 gezeigte Bild 66b. In Block 118 identifiziert der Prozessor 29 das nächste Muster 62b in dem erhaltenen Bild 66b. In Block 120 identifiziert der Prozessor 29 Musterunregelmäßigkeiten, die wie dargestellt bei 55 und 57 auftreten. In Block 122 identifiziert der Prozessor 29 die Entfernungen zwischen dem Sensor 25 und den Abschnitten auf der Fläche 52, welche die Lichtmuster 62b an den Unregelmäßigkeiten 55 und 57 reflektieren.
  • Noch immer mit Bezug auf 1 bis 3, 4 und 5 verwendet der Prozessor 29 in Block 124 die Unregelmäßigkeiten und die Entfernungen zwischen Sensor und Fläche, um die nächste Instanz W2 des Objektmaßes zu berechnen. Falls sich die nächste Instanz des Objektmaßes in Block 126 nicht innerhalb eines erforderlichen Toleranzwerts befindet, geht die Steuerung auf Block 132 über, wo der Prozessor 29 in Abhängigkeit von den vorherigen Instanzen des Objektmaßes ein nächstes Lichtmuster auswählt. In zumindest einigen Ausführungsformen ist es denkbar, dass beim ersten Durchgang durch Block 126 angenommen wird, dass die nächste Instanz eines Objektmaßes nicht innerhalb der erforderlichen Toleranz liegen wird, so dass die Steuerung beim ersten Durchgang durch Block 126 immer auf Block 132 übergeht. Die Annahme, dass die Toleranzanforderung nicht erfüllt wird, liegt darin begründet, dass zwei Linien keine ausreichenden Informationen liefern werden, um festzustellen, ob ein gemessenes Maß nahe der kürzesten Distanz zwischen gegenüberliegenden Kanten einer Objektfläche 52 liegt. Im besten Fall können zwei Linien dazu verwendet werden, erste und zweite Instanzen eines Objektmaßes zu erzeugen, wobei eine Instanz kürzer ist als die andere Instanz und verwendet werden kann, um ein nächstes projiziertes Lichtmuster auszuwählen, das mit größerer Wahrscheinlichkeit optimal ist. Die Idee hierbei ist, dass das System bei dem Versuch, ein Maß W0 zu identifizieren, ein minimales Breitenmaß zu identifizieren versucht. Sobald drei Lichtmusterlängen festgelegt wurden, bei denen ein mittleres Lichtmuster kürzer ist als die beiden anderen Lichtmuster, kann das System nach einer minimalen Länge suchen, indem es ein nächstes, zwischen den kürzesten beiden der drei Linienmuster liegendes Linienmuster auswählt, bis die Toleranzanforderung (d. h. eine verhältnismäßig minimale Veränderung in der Musterlänge zwischen zwei aufeinanderfolgenden Linienmustern) erfüllt ist. Andere Suchtechniken zum Identifizieren des minimalen Breitenmaßes sind denkbar.
  • Mit Bezug auf 4 und 6 soll im vorliegenden Beispiel erkannt werden, dass die nächste Instanz W2 des Objektmaßes größer ist als die erste Instanz W1 des Objektmaßes. Als allgemeine Regel für kubische Objekte wie eine Box deutet eine Steigerung in einem berechneten Breitenmaß bei der Verwundung eines nächsten Lichtmusters auf eine Drehung des Musters in die falsche Richtung hin. In dem in 4 und 6 gezeigten Beispiel wurde das Muster 62b, das ausgehend von Muster 62a in die Richtung gegen den Uhrzeigersinn gedreht wurde, somit wahrscheinlich in die falsche Richtung gedreht. Aus diesem Grund identifiziert der Prozessor 29 im dargestellten Beispiel in Block 132 ein in 7 gezeigtes drittes Lichtmuster 62c als das Lichtmuster, das als nächstes von der Lichtquelle 22 zu erzeugen ist, wobei das dritte Muster 62c ausgehend vom zweiten Lichtmuster 62b (siehe Punkt-Strich-Linie in 7) in einer Richtung mit dem Uhrzeigersinn wie von Pfeil 82 angezeigt gedreht wird. Hierbei wird das Muster 62c in die Richtung des Uhrzeigersinns über den Winkel des in 4 gezeigten ersten oder ursprünglichen Lichtmusters 62a hinaus gedreht, wobei der Drehungsgrad 82 wiederum der Wahl des Planers unterliegt. Im dargestellten Beispiel beträgt die Drehung 82 etwa 30 Grad. Nach Block 132 geht die Kontrolle wieder auf Block 114 über, wo das oben beschriebene Verfahren über Block 126 wiederholt wird.
  • Erneut mit Bezug auf 5 würden die relativen Längen W1 und W2 darauf hindeuten, dass die erste Drehung 80 in die richtige Richtung erfolgt sein könnte, wenn die zweite Instanz W2 des Objektmaßes kürzer wäre als die erste Instanz W1, anstatt länger, wie in 4 und 6 dargestellt. In diesem Fall würde der Prozessor 29 in Block 132 ein nächstes oder drittes Muster auswählen, das weiter mit dem Uhrzeigersinn gedreht ist, um nach dem Breitenmaß W0 zu suchen.
  • Nach wie vor mit Bezug auf 1 bis 3, 5 und 7 stellt der Prozessor 29 in Block 126 fest, ob ein für das Muster 62c berechnetes Objektmaß W3 im erforderlichen Toleranzwert liegt oder nicht. Hierbei kann das Feststellen in Block 126 ein Vergleichen des Maßes W3 mit den in 4 und 6 gezeigten vorherigen Maßen W1 und W2 umfassen sowie das Erkennen, dass das Maß W3 geringer ist als die beiden Maße W1 und W2. Die Tatsache, dass Maß W3 geringer ist als die Maße W1 und W2 bedeutet, dass das Muster 62c für das Identifizieren des Breitenmaßes W0 besser ausgerichtet ist. Da das Maß W3 kleiner ist als das Maß W1, ist es allerdings möglich, dass eine weitere Drehung des projizierten Musters im Uhrzeigersinn in einem noch kürzeren Breitenmaßwert resultieren könnte.
  • Da das Maß W3 kleiner ist als die anderen Maße W1 und W2, springt der Prozess wieder von Entscheidungsblock 126 auf Block 132, wo der Prozessor 29 in Abhängigkeit von den vorherigen Maßwerten W1 bis W3 ein nächstes Lichtmuster auswählt. Im vorliegenden Beispiel handelt es sich um das in 8 gezeigte vierte Muster 62d, das ausgehend vom als Punkt-Strich-Linie dargestellten dritten Muster 62c wie vom Pfeil 84 angezeigt im Uhrzeigersinn weiter gedreht ist. Wenn das Verfahren nun wieder durch Block 126 läuft, stellt der Prozessor 29 fest, dass das Maß W4 größer ist als das Maß W3 und dass somit ein Muster, das einen Winkel zwischen den Mustern 62a und 62d bildet, zu einer genaueren Maßberechnung führend wird.
  • Dieser Kreislaufprozess durch die Blöcke 114 zu Block 126 und dann zu Block 132 in 5 setzt sich fort, indem der Prozessor 29 verschiedene Lichtmuster auswählt, bis die Bedingung in Block 126 erfüllt wird. So kann die Toleranzanforderung erfüllt sein, sobald zum Beispiel mindestens ein berechnetes, einem in einem Winkel zwischen zwei anderen Linienmustern projizierten Linienmuster entsprechendes Breitenmaß, das kürzer ist als den beiden anderen Linienmustern entsprechenden Breitenmaße, erkannt wird und die Veränderung der berechneten Breitenmaße zwischen aufeinanderfolgenden Messungen geringer ist als ein Zentimeter. Ein exemplarisches, verhältnismäßig optimales Lichtmuster 62e, das ein letztes Lichtmuster in der Suchsequenz darstellen kann, ist in einem Bild 66e in 9 gezeigt, wo das Maß W5 eine einigermaßen genaue Repräsentation des Maßes W0 (siehe wieder 4) darstellen sollte (z. B. mit einem Zentimeter im vorliegenden Beispiel). Sobald eine Instanz eines Objektmaßes innerhalb der erforderlichen Toleranzvorgaben liegt, geht die Steuerung von Block 126 auf Block 128 über, wo der Prozessor 29 das Objektmaß mittels Transceiver 26 an den Computer 32 zur Speicherung und eventuell Anzeige über das Display 26 weiterleitet.
  • Wieder mit Bezug auf 5 zeigt der Prozessor 29 in Block 129 über die Feedbackanordnung 28 an, dass das Maß W0 erfolgreich gemessen wurde. So kann der Prozessor 29 eine der LEDs 28 aufleuchten lassen oder dem Computer 32 ein Signal senden, so dass dieser über einen Bildschirem 26 anzeigt, dass die Maßmessung erfolgreich war. In einem anderen Beispiel kann der Prozessor 29 die Lichtquelle 22 ansteuern, so dass diese einen Doppelpfeil auf das Muster 62e in 9 projiziert, wobei der Maßwert W5 dem Pfeil räumlich zugeordnet ist. Nach Block 129 geht die Steuerung auf Block 130 über, wo der in 5 gezeigte Prozess für ein nächstes Maß des Objekts wiederholt wird. Als Nächstes kann der Gerätnutzer zum Beispiel das Gerät 12 zu einer der Seitenflächen des Objekts 42b bewegen und eine Maßmessung dieser Seitenflächen nehmen. Zumindest in einigen Fällen kann der Prozessor 29 oder Computer 32 genommene Maße und noch benötigte Maße verfolgen und den Gerätnutzer anleiten, indem er die als Nächstes zu nehmende Messung anzeigt und indem er schließlich anzeigt, dass alle benötigten Messungen genommen wurden.
  • Während im Vorhergehenden verhältnismäßig einfache Lichtmuster beschrieben wurden, sind in anderen Ausführungsformen komplexere Lichtmuster denkbar. Siehe zum Beispiel das in 10 gezeigte Bild 66f, das ein vergleichsweise komplexes Lichtmuster 62f zeigt, welches eine Anordnung von fünf Linien L1 bis L5 zeigt, die einen zentralen Schnittpunkt haben und von dort in beide Richtungen in unterschiedlichen Winkeln ausstrahlen. Wenn das Muster 62f verwendet wird, kann der Prozessor 29 hierbei zunächst programmiert sein, zu identifizieren, dass nur die Linien L1 bis L4, welche das Breitenmaß definieren, die gegenüberliegenden Kanten der Fläche 52 schneiden, indem er identifiziert, dass die Unregelmäßigkeiten an den gegenüberliegenden Enden dieser Linien gemeinsam gerade Kanten der Fläche 52 definieren. Die Linie L5 weist an den Kanten der Fläche 52 Unregelmäßigkeiten auf, die nicht auf einer Linie mit den Unregelmäßigkeiten der Linien L1 bis L4 liegen und Linie L5 kann daher verworfen werden. Als Nächstes berechnet der Prozessor 29 die Maße W1 bis W4 für jede der Linien L1 bis L4. Der Prozessor 29 vergleicht die Maße W1 bis W4 der projizierten Linien, identifiziert das Kürzeste der vier Maße und identifiziert die beiden projizierten Linien, die den Maßen entsprechen, die das kürzeste Maß umreißen. Im dargestellten Beispiel entspricht das kürzeste Maß W2 der Musterlinie L2, die von den Linien L1 und L3 umrissen ist, die längere Maße haben. Der Prozessor 29 setzt das Verfahren fort, indem er eine oder mehrere Linien mit Winkeln derart projiziert, dass die Linien zwischen den Linien L1 und L3 erscheinen, bis eine Schwellenanforderung erfüllt ist (siehe Muster 62g in Bild 66g mit Breitenmaß W5 in 11).
  • Wiederum mit Bezug auf 10 kann der Prozessor 29 in einem anderen beispielhaften System programmiert sein, ein projiziertes Muster dazu zu verwenden, gegenüberliegende Kanten 69 und 71 einer Fläche 52 zu identifizieren und ein nachfolgendes projiziertes Muster zu erzeugen, das allgemein senkrecht zu den identifizierten Kanten 69 und 71 verläuft und das für eine letzte Maßberechnung verwendet wird. So könnten die Kanten 69 und 71 anhand der Positionen der Unregelmäßigkeiten in den projizierten Linien L1 bis L4 identifiziert werden und daraufhin kann ein vergleichsweise optimales Linienmuster (siehe 62g in 11), das allgemein senkrecht zu den Kanten verläuft, für eine letzte Maßberechnung erzeugt werden.
  • Während die oben beschriebenen Beispiele im Kontext eines Systems dargestellt sind, das versucht, immer nur ein einzelnes Maß eines kubischen Objekts zu identifizieren, soll erkannt werden, dass der Prozessor 29 in anderen, komplexeren Ausführungsformen programmiert sein kann, unter Verwendung desselben Bildsatzes die Identifikation von mehr als einem Objektmaß zur gleichen Zeit zu versuchen. Siehe zu diesem Zweck 12, in der ein weiteres beispielhaftes Bild 66h gezeigt ist, einschließlich eines projizierten Lichtmusters 62h, das acht separate Linien umfasst, die von einem Mittelpunkt in beide Richtungen nach außen verlaufen. Hierbei können vier der Linien dazu verwendet werden, vier separate Breitenmaße W1 bis W4 zu berechnen, während die anderen vier Linien verwendet werden können, separate Höhenmaße H1 bis H4 zu berechnen. Sobald die ersten Höhen- und Breitenmaße berechnet sind, kann der Prozessor 29 diese Berechnungen dazu verwenden, ein oder mehrere zusätzliche Lichtmuster zu identifizieren, die Höhen- und Breitenmaße erzeugen sollten, die vergleichsweise genauer sind als jene, die unter Verwendung des Musters 62h möglich sind. Danach kann der Prozessor 29 die Lichtquelle 22 ansteuern, so dass diese die zusätzlichen Lichtmuster erzeugt, und nach Maßen suchen, bis ausreichend genaue Maße identifiziert sind (z. B. Maße, welche die Schwellenanforderungen erfüllen). Obwohl es hier nicht gezeigt oder in Detail beschrieben ist, soll erkannt werden, dass zumindest in einigen Ausführungsformen auch das in 12 gezeigte dritte Maß zur gleichen Zeit wie die anderen beiden Maße in ähnlicher Weise wie der oben beschriebenen berechnet werden kann.
  • Außer der Projektion von Lichtmustern, die in Abhängigkeit von den mit vorherigen Lichtmustern verbundenen Ergebnissen ausgewählt werden, um genaue Maßmessungen zu erhalten, sind weitere Prozesse denkbar, die eine intelligente, schrittweise Projektion nutzen. So ist es zum Beispiel möglich, dass ein projiziertes Lichtmuster zu einer größeren relativen Distanzverzerrung zwischen Sensor und Fläche führt als andere Muster, die besser für die Identifikation von Kantenunregelmäßigkeiten geeignet sind. Nachdem Kantenunregelmäßigkeiten mittels eines ersten Lichtmusters identifiziert wurden, kann in diesem Fall ein nachfolgendes Lichtmuster verwendet werden, um die Entfernungen zwischen Sensor und Fläche an den Unregelmäßigkeiten zu identifizieren. Siehe zum Beispiel 13, in der ein projiziertes Muster 62i in einem Bild 66i erscheint, in dem die Auswirkungen der Entfernungen zwischen Sensor und Fläche übertrieben wurden, um ein Muster klar darzustellen, das im linken Bereich der Fläche 52 breiter ist als im rechten Bereich (die Entfernung zwischen Sensor und Fläche ist z. B. im linken Bereich größer als die Entfernung im rechten Bereich). Während eine verhältnismäßig breite Linie wie in 13 verwendet werden kann, um Entfernungen zwischen Sensor und Fläche in einer ersten Teilmenge von Bildern während eines Maßnehmungsprozesses zu identifizieren, kann ein dünneres Linienmuster 62j wie in Bild 66j von 14 in einer späteren Teilmenge von Bildern verwendet werden, was zu größerer Genauigkeit führt.
  • Bei zumindest einigen Ausführungsformen kann das Gerät 12 in zusätzlicher Funktion als Barcode-, Matrixcode- oder sonstige Art von Codeleser dienen. Wiederum in Bezug auf 1, 2 und 3 kann die Lichtquelle 22 zu diesem Zweck so gesteuert werden, dass sie das gesamte Sensor-FOV 50 oder einen Teil des FOV erhellt, um einen Codekandidaten 44b zu beleuchten, während der Sensor 25 ein Bild für das Dekodieren aufnimmt. Das Aufnehmen eines Bilds eines Codes und das Dekodieren kann ein Verfahren umfassen, das separat und unabhängig von dem oben beschriebenen Maßnehmungsprozess durchzuführen ist oder sequenziell oder simultan mit dem obigen Prozess abläuft. Wenn es simultan stattfindet, wiederum mit Bezug zu 4, während des Maßnehmungsprozesses aus 5 durchgeführt wird, würde der Prozessor 29 ein aufgenommenes Bild 66a nach Codekandidaten absuchen (z. B. Bildartefakte mit Merkmalen, die üblicherweise einen maschinenlesbaren Code kennzeichnen). Eine Suche nach Codekandidaten könnte eine Reihe von Bildern umfassen, wobei die Quelle 22 dahingehend gesteuert wird, dass sie jene Bereiche intensiv beleuchtet, in denen in vorhergehenden Bildern Codekandidaten enthalten waren, was zu hochqualitativen Kandidatenbildern führt. Der Prozessor 29 ist bei diesen Ausführungsformen programmiert, eine Dekodierung der identifizierten Codekandidaten zu versuchen.
  • In Bezug auf 15 ist ein beispielhaftes Verfahren 140 zum Identifizieren und zum Versuch des Dekodierens von Kandidaten dargestellt. In Block 142 drückt ein Gerätnutzer den Knopf 18 (siehe 1 bis 3), wobei der Gerätnutzer das Gerät 12 auf die Fläche eines Objekts richtet, die einen Code 44b umfasst, worauf das Gerät 12 ein Bild eines Sensor-FOV 50 aufnimmt. In Block 144 identifiziert der Prozessor 29 Codekandidaten in dem aufgenommenen Bild. In Block 146 versucht der Prozessor 29, alle Codekandidaten zu dekodieren und in Block 148 werden die Ergebnisse gespeichert (z. B. an den Computer 32 zur Speicherung übertragen) und/oder gemeldet. Es kann auch eine Statusanzeige mittels Feedbackvorrichtungen 28 vorgesehen sein (siehe 2 und 3). Nach Block 148 geht die Steuerung wieder auf Block 142 über, wo der Prozess fortgesetzt wird.
  • Obwohl das System und die Verfahren wie oben dargestellt in Verbindung mit einfachen kubischen Objekten mit flachen Flächen und einfachen geometrischen Formen beschrieben sind, soll erkannt werden, dass die erfinderischen Konzepte und Aspekte für das Messen von Maßen und anderen Objektmerkmalen von Objekten mit anderen geometrischen Formen angewandt werden können. So können zum Beispiel Zylindermaße oder Kugelmaße akkurat gemessen werden, indem ein Prozessor vorgesehen ist, der die projizierten Muster schrittweise verändert, um nach einem optimalen Muster zum Messen der Merkmale oder Maße dieser Formen zu suchen.
  • Außerdem ist es denkbar, dass der Prozessor 29 in der Lage ist, zusätzlich eine Bildanalyse durchzuführen und in Abhängigkeit von den Ergebnissen der Bildanalyse automatisch verschiedene projizierte Muster auszuwählen. So kann der Prozessor 29 zum Beispiel programmiert sein, automatisch die Form eines Objekts in einem Bild zu erkennen und abhängig von der identifizierten Form verschiedene projizierte Lichtmuster anzuwenden, um Maße zu berechnen.
  • Es kann zum Beispiel der Fall sein, dass unter Verwendung eines spezifischen Systems zu bemessende Objekte nur eine von zwei allgemeinen Formen aufweisen, einschließlich kubisch und zylindrisch. Ein Gerät 12 kann programmiert sein, zunächst ein Lichtmuster zu verwenden, das dafür optimiert ist, die allgemeine Form eine abgebildeten Objekts entweder as kubisch oder zylindrisch zu identifizieren und danach verschiedene untergeordnete Lichtmuster für das Bemessen zu verwenden, wobei die untergeordneten Lichtmuster für die identifizierte allgemeine Form spezifisch sind.
  • Während das Gerät und die Verfahren wie oben beschrieben im Kontext eines Systems für das Messen von Objektmaßen dargelegt sind, soll erkannt werden, dass das Gerät und ähnliche Verfahren dazu verwendet werden könnten, jedes beliebige aus einer Vielzahl verschiedener Objektmerkmale und Eigenschaften zu quantifizieren. So können zum Beispiel Winkel zwischen Objektflächen, Krümmungen von Flächen, allgemeine Formen etc. unter Verwendung von schrittweisen und sinnvoll ausgewählten sequentiellen projizierten Lichtmustern und per Bildanalyse quantifiziert werden.
  • Eine oder mehrere spezifische Ausführungsformen der vorliegenden Erfindung werden im unten Folgenden beschrieben. Es soll verstanden werden, dass bei der Entwicklung jedweder solcher tatsächlichen Umsetzung, wie z. B. im Zuge eines Ingenieurs- oder Entwicklungsprojekts, zahlreiche umsetzungsspezifische Entscheidungen getroffen werden müssen, um die spezifischen Ziele des Entwicklers zu erreichen, wie zum Beispiel die Einhaltung systembezogener und geschäftsbezogener Rahmenbedingungen, die sich von einer zur anderen Umsetzung unterscheiden können. Des Weiteren soll verstanden werden, dass ein solcher Entwicklungsaufwand komplex und zeitintensiv sein kann, jedoch für einen durchschnittlichen Fachmann, dem diese Offenbarung zur Verfügung steht, eine Routineunternehmung in Sachen Design, Fabrikation und Bau darstellen würde.
  • Das oben Beschriebene umfasst Beispiele der vorliegenden Erfindung. Es ist natürlich nicht möglich, jede denkbare Kombination der Komponenten oder Methodologien zum Zweck der Beschreibung der vorliegenden Erfindung darzulegen, doch der durchschnittliche Fachmann mag erkennen, dass weitere Kombinationen und Umsetzungen der vorliegenden Erfindung möglich sind. Dementsprechend ist die vorliegende Erfindung darauf ausgelegt, alle diese Veränderungen, Modifizierungen und Variationen zu umfassen, die in den Geist und Umfang der begleitenden Ansprüche fallen.
  • Um der Öffentlichkeit den Umfang dieser Erfindung nahezubringen, werden folgende Ansprüche aufgestellt:

Claims (20)

  1. Handgerät zum Bestimmen von zumindest einem Maß eines Objekts, wobei das Gerät Folgendes umfasst: eine Handgerätgehäusestruktur; einen in der Gehäusestruktur angeordneten Sensor, wobei der Sensor Licht aus dem Inneren eines Sensorsichtfelds (FOV) empfängt, um eine Vielzahl von aufeinanderfolgenden Bildern des Sensor-FOV zu erzeugen; eine strukturierte Lichtquelle, die so gesteuert werden kann, dass sie eine Vielzahl von Lichtmustern erzeugt, wobei die strukturierte Lichtquelle zur gemeinsamen Bewegung mit dem Sensor an dem Gehäuse angebracht ist und dazu angeordnet ist, um zumindest eines der vielzähligen Lichtmuster in das Sensor-FOV zu projizieren, wo zumindest ein Teil des projizierten Lichtmusters von einem in dem Sensor-FOV befindlichen Objekt reflektiert und von dem Sensor aufgefangen wird; und einen Prozessor, der mit dem Sensor verbunden ist, um von dem Sensor erzeugte Bilder des Sensor-FOV zu empfangen, wobei der Prozessor programmiert ist, die strukturierte Lichtquelle zu steuern, so dass diese ein Lichtmuster in das Sensor-FOV projiziert, das projizierte Lichtmuster in zumindest einem der erzeugten Bilder zu lokalisieren, Unregelmäßigkeiten in dem projizierten Lichtmuster zu lokalisieren und die Unregelmäßigkeiten dazu zu verwenden, das mindestens eine Maß des Objekts im Sensor-FOV zu messen.
  2. Handgerät nach Anspruch 1, wobei der Prozessor programmiert ist, verschiedene projizierte Lichtmuster in mindestens einem ersten und einem zweiten der aufeinanderfolgenden Bilder zu identifizieren und Unregelmäßigkeiten in jedem der ersten und zweiten Bilder zu identifizieren.
  3. Handgerät nach Anspruch 2, wobei der Prozessor programmiert ist, das zumindest eine Maß des Objekts zu identifizieren, indem er die Unregelmäßigkeiten in jedem der ersten und zweiten Lichtmuster verwendet, und eines der identifizierten Maße als das zumindest eine Maß auszuwählen.
  4. Handgerät nach einem der Ansprüche 1 bis 3, wobei der Prozessor programmiert ist, zumindest eines der von der Lichtquelle in das FOV projizierten Lichtmuster in Abhängigkeit von dem identifizierten, mindestens einen Maß, das zumindest einer Teilmenge der vorherigen Bilder zugeordnet ist, auszuwählen.
  5. Handgerät nach einem der Ansprüche 1 bis 4, wobei der Prozessor programmiert ist, ein erstes projiziertes Lichtmuster in einem ersten der aufeinanderfolgenden Bilder zu identifizieren, Unregelmäßigkeiten in dem ersten identifizierten Lichtmuster zu identifizieren und die Unregelmäßigkeiten in dem ersten Lichtmuster dazu zu verwenden, eine erste Instanz des mindestens einen Maßes des Objekts zu identifizieren, ein zweites projiziertes Lichtmuster in einem zweiten der aufeinanderfolgenden Bilder zu identifizieren, Unregelmäßigkeiten in dem zweiten identifizierten Lichtmuster zu identifizieren und die Unregelmäßigkeiten in dem zweiten Lichtmuster dazu zu verwenden, eine zweite Instanz des mindestens einen Maßes des Objekts zu identifizieren, die erste und die zweite Instanz des mindestens einen Maßes des Objekts zu vergleichen und ein drittes Lichtmuster zum Projizieren in das FOV auszuwählen, wenn der Sensor Licht aufnimmt, um durch Vergleichen der ersten und zweiten Instanzen des mindestens einen Maßes ein drittes Bild zu erzeugen.
  6. Handgerät nach Anspruch 5, wobei der Prozessor des Weiteren programmiert ist, das dritte projizierte Lichtmuster in dem dritten Bild zu identifizieren, Unregelmäßigkeiten in dem dritten identifizierten Lichtmuster zu identifizieren und die Unregelmäßigkeiten in dem dritten Lichtmuster dazu zu verwenden, eine dritte Instanz des mindestens einen Maßes des Objekts zu identifizieren und ein viertes Lichtmuster zum Projizieren in das FOV auszuwählen, wenn der Sensor Licht aufnimmt, um durch Vergleichen der dritten Instanz des mindestens einen Maßes mit zumindest einer der ersten und zweiten Instanzen des mindestens einen Maßes ein viertes Bild zu erzeugen.
  7. Handgerät nach einem der Ansprüche 1 bis 6, wobei der Prozessor des Weiteren programmiert ist, projizierte Lichtmuster in zumindest einer Teilmenge der Vielzahl von erzeugten Bilder zu identifizieren, Unregelmäßigkeiten in jedem der identifizierten projizierten Lichtmuster zu identifizieren und die Unregelmäßigkeiten dazu zu verwenden, eine separate Instanz des zumindest einen Maßes des Objekts für jede Teilmenge der Vielzahl von erzeugten Bildern zu identifizieren.
  8. Handgerät nach Anspruch 7, wobei der Prozessor die kürzeste der separaten Instanzen des mindestens einen Maßes als das zumindest eine Maß auswählt.
  9. Handgerät nach einem der Ansprüche 1 bis 8, wobei der Prozessor programmiert ist, durchgehend aufeinanderfolgende Bilder unter Verwendung verschiedener Lichtmuster aufzunehmen, bis der Prozessor das mindestens eine Maß des Objekts identifiziert.
  10. Handgerät nach einem der Ansprüche 1 bis 9, wobei der Prozessor des Weiteren programmiert ist, die projizierten Lichtmuster mit den Lichtmustern in den aufgenommenen Bildern zu vergleichen, um eine Entfernung zwischen dem Sensor und der Fläche des Objekts, von dem das Licht reflektiert wird, zu identifizieren und die identifizierte Entfernung als Teil einer Berechnung zum Identifizieren des mindestens einen Maßes zu verwenden.
  11. Handgerät nach einem der Ansprüche 1 bis 10, wobei zumindest eines der projizierten Lichtmuster ausgewählt ist, um eine grobe Schätzung der Entfernung zwischen dem Sensor und der Fläche des Objekts, von dem Licht reflektiert wird, zu erzeugen und eines der nachfolgenden projizierten Lichtmuster ausgewählt ist, um eine präzisere Messung der Entfernung zwischen dem Sensor und der Fläche des Objekts, von dem das Licht reflektiert wird, zu erzeugen.
  12. Handgerät nach einem der Ansprüche 1 bis 11, wobei der Prozessor des Weiteren programmiert ist, maschinenlesbare Codekandidaten in den aufgenommenen Bildern zu identifizieren und zu versuchen, identifizierte Codekandidaten zu dekodieren.
  13. Handgerät nach einem der Ansprüche 1 bis 12, das des Weiteren einen von einem Benutzer auswählbaren Aktivator umfasst, der mit dem Prozessor verbunden ist, um die Lichtquelle, den Sensor und den Prozessor so zu steuern, dass diese Lichtmuster projizieren, Bilder des FOV aufnehmen und die aufgenommenen Bilder verarbeiten.
  14. Handgerät nach einem der Ansprüche 1 bis 13, wobei die strukturierte Lichtquelle einen Digital Light Processing(DLP)-Projektor umfasst.
  15. Handgerät nach Anspruch 14, wobei der Prozessor einen DLP-Messtechnikprozess zum Identifizieren des mindestens einen Maßmerkmals verwendet.
  16. Handgerät nach Anspruch 14, wobei der Prozessor des Weiteren programmiert ist, maschinenlesbare Codekandidaten in den aufgenommenen Bildern zu identifizieren und zu versuchen, die Codekandidaten zu dekodieren, und wobei die strukturierte Lichtquelle einen Digital Light Processing(DLP)-Projektor umfasst, wobei der DLP-Projektor von dem Prozessor gesteuert wird, so dass er die Lichtmuster in den Bildern erzeugt und außerdem Licht erzeugt, um Codekandidaten innerhalb des FOV zu beleuchten.
  17. Handgerät zum Bestimmen von zumindest einem Maß eines Objekts, wobei das Gerät Folgendes umfasst: eine Handgerätgehäusestruktur; einen in der Gehäusestruktur angeordneten Sensor, wobei der Sensor Licht aus dem Inneren eines Sensorsichtfelds (FOV) empfängt, um Bilder des Sensor-FOV zu erzeugen; einen Beleuchter, der zur gemeinsamen Bewegung mit dem Sensor an dem Gehäuse angebracht und dazu angeordnet ist, um eine Vielzahl von verschiedenen Lichtmustern in das Sensor-FOV zu projizieren, wo zumindest ein Teil des projizierten Lichtmusters von einem in dem Sensor-FOV befindlichen Objekt reflektiert und von dem Sensor aufgefangen wird; und einen Prozessor, der mit dem Sensor verbunden ist, um Bilder des Sensor-FOV zu empfangen, und der mit dem Beleuchter verbunden ist, um die Auswahl eines ersten projizierten Lichtmusters zu steuern, wobei der Prozessor programmiert ist, das erste projizierte Lichtmuster in einem ersten aufgenommenen Bild zu lokalisieren, das erste projizierte Lichtmuster zu prüfen, um ein zweites Lichtmuster zu identifizieren, das möglicherweise besser für das Lokalisieren von Unregelmäßigkeiten geeignet ist, die dazu dienen, das mindestens eine Maß des Objekts im Sensor-FOV zu identifizieren, den Beleuchter zu steuern, so dass er das zweite Lichtmuster in das Sensor-FOV projiziert, während ein zweites Bild aufgenommen wird, das zweite Lichtmuster in dem zweiten Bild zu lokalisieren, Unregelmäßigkeiten in dem zweiten Muster zu lokalisieren und die Unregelmäßigkeiten in dem zweiten Lichtmuster dazu zu verwenden, das mindestens eine Maß des Objekts im Sensor-FOV zu messen.
  18. Handgerät nach Anspruch 17, wobei der Beleuchter ein Digital Light Processing(DLP)-Projektor ist.
  19. Handgerät nach Anspruch 17 oder 18, wobei der Projektor Muster in das FOV projiziert und der Prozessor Unregelmäßigkeiten identifiziert, indem er die projizierten Muster mit den in den aufgenommenen Bildern identifizierten Muster vergleicht.
  20. Verfahren zur Verwendung mit einem Handgerät zum Feststellen von mindestens einem Maß eines Objekts, wobei das Handgerät einen Bildsensor mit einem Sichtfeld (FOV) und einen Beleuchter umfasst, der an einem Handgerätgehäuse angeordnet ist, so dass der Sensor und der Beleuchter als eine Einheit gehandhabt werden, wobei das Verfahren die folgenden Schritte umfasst: Verwenden eines Prozessors in dem Handgerät zum Durchführen der folgenden Schritte: Projizieren eines ersten Lichtmusters in das Sensor-FOV, während sich ein Objekt in dem Sensor-FOV befindet; Aufnehmen eines Bilds des Sensor-FOV; Lokalisieren des ersten projizierten Lichtmusters in einem ersten aufgenommenen Bild; Prüfen des ersten projizierten Lichtmusters, um ein zweites Lichtmuster zu identifizieren, das möglicherweise besser geeignet ist, um Unregelmäßigkeiten zu lokalisieren, die zum Identifizieren von mindestens einem Maß eines Objekts in dem Sensor-FOV dienen; Steuern des Beleuchters, so dass dieser das zweite Lichtmuster in das Sensor-FOV projiziert, während ein zweites Bild aufgenommen wird; Lokalisieren des zweiten Lichtmusters in dem zweiten Bild; Lokalisieren von Unregelmäßigkeiten in dem identifizierten zweiten Lichtmuster; und Verwenden der Unregelmäßigkeiten in dem identifizierten zweiten Lichtmuster zum Messen des mindestens einen Maßes des Objekts im Sensor-FOV.
DE102013105929.5A 2012-07-17 2013-06-07 Handgerät zur Quantifizierung von Komponentenmerkmalen Pending DE102013105929A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/550,658 US9286530B2 (en) 2012-07-17 2012-07-17 Handheld apparatus for quantifying component features
US13/550,658 2012-07-17

Publications (1)

Publication Number Publication Date
DE102013105929A1 true DE102013105929A1 (de) 2014-01-23

Family

ID=49879991

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013105929.5A Pending DE102013105929A1 (de) 2012-07-17 2013-06-07 Handgerät zur Quantifizierung von Komponentenmerkmalen

Country Status (3)

Country Link
US (2) US9286530B2 (de)
CN (1) CN103544461B (de)
DE (1) DE102013105929A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021205659A1 (de) 2021-06-03 2022-12-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Verfahren zum Prüfen von Bauteiloberflächen auf Fehler und/oder Bestimmen von Eigenschaften von Bauteilbeschichtungen

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8908995B2 (en) 2009-01-12 2014-12-09 Intermec Ip Corp. Semi-automatic dimensioning with imager on a portable device
US9779546B2 (en) 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US10007858B2 (en) 2012-05-15 2018-06-26 Honeywell International Inc. Terminals and methods for dimensioning objects
WO2014006832A1 (ja) * 2012-07-02 2014-01-09 パナソニック株式会社 サイズ測定装置及びサイズ測定方法
US9286530B2 (en) 2012-07-17 2016-03-15 Cognex Corporation Handheld apparatus for quantifying component features
US10321127B2 (en) 2012-08-20 2019-06-11 Intermec Ip Corp. Volume dimensioning system calibration systems and methods
US9939259B2 (en) 2012-10-04 2018-04-10 Hand Held Products, Inc. Measuring object dimensions using mobile computer
US20140104413A1 (en) 2012-10-16 2014-04-17 Hand Held Products, Inc. Integrated dimensioning and weighing system
US9080856B2 (en) 2013-03-13 2015-07-14 Intermec Ip Corp. Systems and methods for enhancing dimensioning, for example volume dimensioning
US10228452B2 (en) 2013-06-07 2019-03-12 Hand Held Products, Inc. Method of error correction for 3D imaging device
US9464885B2 (en) 2013-08-30 2016-10-11 Hand Held Products, Inc. System and method for package dimensioning
USD727905S1 (en) * 2014-04-17 2015-04-28 Faro Technologies, Inc. Laser scanning device
US9823059B2 (en) 2014-08-06 2017-11-21 Hand Held Products, Inc. Dimensioning system with guided alignment
CN105387807A (zh) * 2014-09-04 2016-03-09 富泰华工业(深圳)有限公司 测量物体高度的系统及方法
US10810715B2 (en) 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
US9779276B2 (en) 2014-10-10 2017-10-03 Hand Held Products, Inc. Depth sensor based auto-focus system for an indicia scanner
US10775165B2 (en) 2014-10-10 2020-09-15 Hand Held Products, Inc. Methods for improving the accuracy of dimensioning-system measurements
US9752864B2 (en) 2014-10-21 2017-09-05 Hand Held Products, Inc. Handheld dimensioning system with feedback
US9897434B2 (en) * 2014-10-21 2018-02-20 Hand Held Products, Inc. Handheld dimensioning system with measurement-conformance feedback
US9762793B2 (en) * 2014-10-21 2017-09-12 Hand Held Products, Inc. System and method for dimensioning
US10060729B2 (en) 2014-10-21 2018-08-28 Hand Held Products, Inc. Handheld dimensioner with data-quality indication
US9557166B2 (en) 2014-10-21 2017-01-31 Hand Held Products, Inc. Dimensioning system with multipath interference mitigation
DE102015201290A1 (de) * 2015-01-26 2016-07-28 Prüftechnik Dieter Busch AG Positionieren zweier Körper mittels eines Ausrichtsystems mit einer Datenbrille
US10066933B2 (en) * 2015-05-04 2018-09-04 Facebook, Inc. Camera depth mapping using structured light patterns
US9786101B2 (en) 2015-05-19 2017-10-10 Hand Held Products, Inc. Evaluating image values
US10785393B2 (en) * 2015-05-22 2020-09-22 Facebook, Inc. Methods and devices for selective flash illumination
US10066982B2 (en) 2015-06-16 2018-09-04 Hand Held Products, Inc. Calibrating a volume dimensioner
US20160377414A1 (en) 2015-06-23 2016-12-29 Hand Held Products, Inc. Optical pattern projector
US9857167B2 (en) 2015-06-23 2018-01-02 Hand Held Products, Inc. Dual-projector three-dimensional scanner
US9835486B2 (en) 2015-07-07 2017-12-05 Hand Held Products, Inc. Mobile dimensioner apparatus for use in commerce
EP3118576B1 (de) 2015-07-15 2018-09-12 Hand Held Products, Inc. Mobile dimensionierungsvorrichtung mit dynamischer nist-standardkonformer genauigkeit
US10094650B2 (en) * 2015-07-16 2018-10-09 Hand Held Products, Inc. Dimensioning and imaging items
US20170017301A1 (en) 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
WO2017039585A1 (en) * 2015-08-28 2017-03-09 Hewlett-Packard Development Company, L.P. Primer compositions
US10249030B2 (en) 2015-10-30 2019-04-02 Hand Held Products, Inc. Image transformation for indicia reading
US10225544B2 (en) 2015-11-19 2019-03-05 Hand Held Products, Inc. High resolution dot pattern
US10025314B2 (en) 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
TW201727416A (zh) * 2016-01-27 2017-08-01 Hon Hai Prec Ind Co Ltd 人工標記組合以及進行電腦視覺定位的系統和方法
USD804482S1 (en) * 2016-03-15 2017-12-05 Symbol Technologies, Llc Data capture device
CN107289877A (zh) * 2016-04-08 2017-10-24 杭州先临三维科技股份有限公司 一种多测量模式的三维测量系统
US10339352B2 (en) 2016-06-03 2019-07-02 Hand Held Products, Inc. Wearable metrological apparatus
US9940721B2 (en) 2016-06-10 2018-04-10 Hand Held Products, Inc. Scene change detection in a dimensioner
US10163216B2 (en) 2016-06-15 2018-12-25 Hand Held Products, Inc. Automatic mode switching in a volume dimensioner
US10317194B2 (en) * 2016-08-12 2019-06-11 Symbol Technologies, Llc Arrangement for, and method of, remotely dimensioning generally planar, target surfaces of objects
US10909708B2 (en) 2016-12-09 2021-02-02 Hand Held Products, Inc. Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements
US11047672B2 (en) 2017-03-28 2021-06-29 Hand Held Products, Inc. System for optically dimensioning
US10839539B2 (en) * 2017-05-31 2020-11-17 Google Llc System and method for active stereo depth sensing
US10733748B2 (en) 2017-07-24 2020-08-04 Hand Held Products, Inc. Dual-pattern optical 3D dimensioning
US10466356B2 (en) * 2017-07-28 2019-11-05 Nishith Rastogi Methods and systems of cuboidal container dimension measurement with transmitter and receiver devices
US10584962B2 (en) 2018-05-01 2020-03-10 Hand Held Products, Inc System and method for validating physical-item security
JP6699872B2 (ja) * 2018-09-10 2020-05-27 Necプラットフォームズ株式会社 荷物計測装置、荷物受付システム、荷物計測方法、及びプログラム
US10896516B1 (en) * 2018-10-02 2021-01-19 Facebook Technologies, Llc Low-power depth sensing using dynamic illumination
US10937183B2 (en) 2019-01-28 2021-03-02 Cognex Corporation Object dimensioning system and method
JP6923574B2 (ja) * 2019-02-01 2021-08-18 ファナック株式会社 3次元形状計測システムおよび3次元形状計測方法
US11639846B2 (en) 2019-09-27 2023-05-02 Honeywell International Inc. Dual-pattern optical 3D dimensioning
US11350024B1 (en) * 2021-03-04 2022-05-31 Amazon Technologies, Inc. High speed continuously adaptive focus and deblur

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6369899B1 (en) * 1999-04-07 2002-04-09 Minolta Co., Ltd. Camera with projector for selectively projecting pattern lights
US20100222684A1 (en) * 2009-02-27 2010-09-02 Body Surface Translations, Inc. Estimating Physical Parameters Using Three Dimensional Representations
DE112009001652T5 (de) * 2008-07-08 2012-01-12 Chiaro Technologies, Inc. Mehrkanal-Erfassung
US20120105868A1 (en) * 2010-10-29 2012-05-03 Canon Kabushiki Kaisha Measurement device and measurement method

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5309222A (en) * 1991-07-16 1994-05-03 Mitsubishi Denki Kabushiki Kaisha Surface undulation inspection apparatus
US5870191A (en) 1996-02-12 1999-02-09 Massachusetts Institute Of Technology Apparatus and methods for surface contour measurement
US6078251A (en) 1996-03-27 2000-06-20 Intermec Ip Corporation Integrated multi-meter and wireless communication link
US6298176B2 (en) 1997-10-17 2001-10-02 Welch Allyn Data Collection, Inc. Symbol-controlled image data reading system
US6336587B1 (en) 1998-10-19 2002-01-08 Symbol Technologies, Inc. Optical code reader for producing video displays and measuring physical parameters of objects
US6593587B2 (en) 2000-03-10 2003-07-15 Perceptron, Inc. Non-contact measurement device for quickly and accurately obtaining dimensional measurement data
US7310431B2 (en) 2002-04-10 2007-12-18 Canesta, Inc. Optical methods for remotely measuring objects
DE10321886A1 (de) 2003-05-07 2004-12-02 Universität Stuttgart Robuster interferometrischer Sensor und Verfahren zur Objektabtastung
US7182465B2 (en) 2004-02-25 2007-02-27 The University Of North Carolina Methods, systems, and computer program products for imperceptibly embedding structured light patterns in projected color images for display on planar and non-planar surfaces
US7963448B2 (en) 2004-12-22 2011-06-21 Cognex Technology And Investment Corporation Hand held machine vision method and apparatus
JP4709571B2 (ja) 2005-04-05 2011-06-22 国立大学法人広島大学 視覚情報処理システム及びその視覚情報処理方法
JP4730836B2 (ja) * 2005-09-15 2011-07-20 Jfeスチール株式会社 面歪の測定装置及び方法
CA2528791A1 (en) 2005-12-01 2007-06-01 Peirong Jia Full-field three-dimensional measurement method
KR101408959B1 (ko) 2006-03-14 2014-07-02 프라임센스 엘티디. 삼차원 감지를 위한 깊이 가변 광 필드
AU2007300379A1 (en) * 2006-09-27 2008-04-03 Georgia Tech Research Corporation Systems and methods for the measurement of surfaces
US7256899B1 (en) 2006-10-04 2007-08-14 Ivan Faul Wireless methods and systems for three-dimensional non-contact shape sensing
US8090194B2 (en) 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging
US20080156619A1 (en) * 2006-12-01 2008-07-03 Mehul Patel Range finder
JP2010513952A (ja) 2006-12-15 2010-04-30 ハンド ヘルド プロダクツ インコーポレーティッド 変形可能なレンズ要素よりなる装置、および方法
US7514702B2 (en) 2007-01-31 2009-04-07 Symbol Technologies, Inc. Compact scan engine
EP2122300A1 (de) * 2007-02-09 2009-11-25 TeZet Technik AG Messvorrichtung und verfahren zur ermittlung geometrischer eigenschaften von profilen
US8384997B2 (en) 2008-01-21 2013-02-26 Primesense Ltd Optical pattern projection
GB2458927B (en) 2008-04-02 2012-11-14 Eykona Technologies Ltd 3D Imaging system
US8479996B2 (en) 2008-11-07 2013-07-09 Symbol Technologies, Inc. Identification of non-barcoded products
EP2391905B1 (de) * 2009-01-27 2019-11-20 Xyz Interactive Technologies Inc. Verfahren und vorrichtung zur ortung, orientierung und/oder positionierung einzelner und/oder mehrerer vorrichtungen
US8439265B2 (en) 2009-06-16 2013-05-14 Intel Corporation Camera applications in a handheld device
WO2011011193A1 (en) 2009-07-21 2011-01-27 Dimensional Photonics International, Inc. Integrated display in a hand-held three-dimensional metrology system
US9582889B2 (en) 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
JP5588310B2 (ja) 2009-11-15 2014-09-10 プライムセンス リミテッド ビームモニタ付き光学プロジェクタ
GB0921461D0 (en) * 2009-12-08 2010-01-20 Qinetiq Ltd Range based sensing
US8134719B2 (en) * 2010-03-19 2012-03-13 Carestream Health, Inc. 3-D imaging using telecentric defocus
WO2012011044A1 (en) 2010-07-20 2012-01-26 Primesense Ltd. Interactive reality augmentation for natural interaction
US9286530B2 (en) 2012-07-17 2016-03-15 Cognex Corporation Handheld apparatus for quantifying component features

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6369899B1 (en) * 1999-04-07 2002-04-09 Minolta Co., Ltd. Camera with projector for selectively projecting pattern lights
DE112009001652T5 (de) * 2008-07-08 2012-01-12 Chiaro Technologies, Inc. Mehrkanal-Erfassung
US20100222684A1 (en) * 2009-02-27 2010-09-02 Body Surface Translations, Inc. Estimating Physical Parameters Using Three Dimensional Representations
US20120105868A1 (en) * 2010-10-29 2012-05-03 Canon Kabushiki Kaisha Measurement device and measurement method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021205659A1 (de) 2021-06-03 2022-12-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Verfahren zum Prüfen von Bauteiloberflächen auf Fehler und/oder Bestimmen von Eigenschaften von Bauteilbeschichtungen
DE102021205659B4 (de) 2021-06-03 2023-08-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Verfahren zum Prüfen von Bauteiloberflächen auf Fehler und/oder Bestimmen von Eigenschaften von Bauteilbeschichtungen

Also Published As

Publication number Publication date
US20140021259A1 (en) 2014-01-23
US9803975B2 (en) 2017-10-31
US9286530B2 (en) 2016-03-15
US20170023353A1 (en) 2017-01-26
CN103544461B (zh) 2016-10-26
CN103544461A (zh) 2014-01-29

Similar Documents

Publication Publication Date Title
DE102013105929A1 (de) Handgerät zur Quantifizierung von Komponentenmerkmalen
DE112014001459B4 (de) Verfahren zur Ermittlung dreidimensionaler Koordinaten auf einer Oberfläche eines Objekts
EP3557523B1 (de) Verfahren zur erzeugung eines korrekturmodells einer kamera zur korrektur eines abbildungsfehlers
DE69732666T2 (de) Vorrichtung zur raumkoordinatenbestimmung und verfahren zu deren kalibrierung
DE112014005911T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
DE112014001483T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
DE102012112322A1 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE102012112321A1 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE102016118562A1 (de) Dreidimensionales bildgerät, das eine dichroitische kamera umfasst
DE102017216552B4 (de) Messvorrichtung für dreidimensionale gestalt
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE102009030644B4 (de) Berührungslose Erfassungseinrichtung
DE102017215334A1 (de) Verfahren, Computerprogrammprodukt und Messsystem zum Betrieb mindestens eines Triangulations-Laserscanners zur Identifizierung von Oberflächeneigenschaften eines zu vermessenden Werkstücks
DE112010002174T5 (de) Verfahren und vorrichtung für ein praktisches 3d-sehsystem
DE102010040518A1 (de) Bildaufnahmegerät, Bilddarstellungsverfahren und Aufnahmemedium sowie darauf aufgenommenes Bilddarstellungsprogramm
DE102014106482A1 (de) Automatisierte boroskopische Messung beim Sondenpräzisionstest
DE102009032771A1 (de) Messeinrichtung und Verfahren zum dreidimensionalen optischen Vermessen von Objekten
DE102013112040A1 (de) System und Verfahren zum Auffinden von sattelpunktartigen Strukturen in einem Bild und Bestimmen von Informationen daraus
DE102018217789A1 (de) Form-Messvorrichtung
DE102018103129B4 (de) Vorrichtung und Verfahren zum Erzeugen eines Betriebsprogramms eines Inspektionssystems
EP3900330B1 (de) Aufbau und vermessung eines aufbaus zur kalibrierung einer kamera
DE102022116156A1 (de) Verfahren zum erkennen und korrigieren einer fokusabweichung einer linse mit variablem fokus für anwendungen mit festem fokus
EP2916258A1 (de) 2D-Barcode-Scanner
DE102014202977A1 (de) Bestimmung von Koordinaten eines Werkstücks unter Verwendung eines Koordinatenmessgeräts

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication