DE102014107143B4 - System and method for measuring the displacement of an object surface - Google Patents
System and method for measuring the displacement of an object surface Download PDFInfo
- Publication number
- DE102014107143B4 DE102014107143B4 DE102014107143.3A DE102014107143A DE102014107143B4 DE 102014107143 B4 DE102014107143 B4 DE 102014107143B4 DE 102014107143 A DE102014107143 A DE 102014107143A DE 102014107143 B4 DE102014107143 B4 DE 102014107143B4
- Authority
- DE
- Germany
- Prior art keywords
- image
- height
- laser line
- pixel
- grayscale
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000006073 displacement reaction Methods 0.000 title claims abstract description 60
- 238000000034 method Methods 0.000 title claims description 129
- 238000012937 correction Methods 0.000 claims abstract description 27
- 230000008569 process Effects 0.000 description 82
- 230000006870 function Effects 0.000 description 49
- 238000005259 measurement Methods 0.000 description 39
- 238000010586 diagram Methods 0.000 description 23
- 238000012545 processing Methods 0.000 description 22
- 230000008859 change Effects 0.000 description 17
- 238000001514 detection method Methods 0.000 description 10
- 238000011143 downstream manufacturing Methods 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 8
- 230000004044 response Effects 0.000 description 8
- 230000026676 system process Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 238000012952 Resampling Methods 0.000 description 5
- 230000007717 exclusion Effects 0.000 description 5
- 101100116570 Caenorhabditis elegans cup-2 gene Proteins 0.000 description 4
- 101100116572 Drosophila melanogaster Der-1 gene Proteins 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 230000001154 acute effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000003908 quality control method Methods 0.000 description 2
- 238000010845 search algorithm Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241001136792 Alle Species 0.000 description 1
- 241001295925 Gegenes Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000000053 physical method Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- YLJREFDVOIBQDA-UHFFFAOYSA-N tacrine Chemical compound C1=CC=C2C(N)=C(CCCC3)C3=NC2=C1 YLJREFDVOIBQDA-UHFFFAOYSA-N 0.000 description 1
- 229960001685 tacrine Drugs 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/06—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
- G01B11/0608—Height gauges
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/026—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2518—Projection by scanning of the object
- G01B11/2522—Projection by scanning of the object the position of the object changing and being recorded
-
- G06T5/77—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B15/00—Systems controlled by a computer
- G05B15/02—Systems controlled by a computer electric
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20072—Graph-based image processing
Abstract
System zur Messung der Verschiebung einer Objektoberfläche (144), umfassend:
- einen Verschiebungssensor (110), der eine Linie (156) auf die Objektoberfläche (144) projiziert und Licht von der projizierten Linie (156) auf einem Imager (164) so empfängt, dass Laserlinienpositionsdaten (1210C) und Laserlinienintensitätsdaten (1220C) definiert werden; und
- einen Visionssystemprozessor (180), der so aufgebaut und angeordnet ist, dass er ein Höhenbild (1010) aus den Laserlinienpositionsdaten (1210C), ein Graustufenbild (1110) aus den Laserlinienpositionsdaten (1210C) und den Laserlinienintensitätsdaten (1220C), und eine Schätzung eines senkrechten Graustufenbildgradienten erzeugt, wobei der Graustufenbildgradient dazu verwendet wird, um einen Höhenkorrekturfaktor zu berechnen, der bei jedem Pixel des Höhenbildes (1010) angewandt wird.
A system for measuring the displacement of an object surface (144) comprising:
- a displacement sensor (110) projecting a line (156) onto the object surface (144) and receiving light from the projected line (156) on an imager (164) to define laser line position data (1210C) and laser line intensity data (1220C) ; and
- a vision system processor (180) constructed and arranged to generate a height image (1010) from the laser line position data (1210C), a gray scale image (1110) from the laser line position data (1210C) and the laser line intensity data (1220C), and an estimate of a vertical grayscale image gradients, the grayscale image gradient being used to calculate a height correction factor to be applied to each pixel of the height image (1010).
Description
GEBIET DER ERFINDUNGFIELD OF THE INVENTION
Diese Erfindung betrifft Maschinenvisionssysteme, die verwendet werden, um die Verschiebung einer abgebildeten Objektoberfläche in drei Dimensionen (3D) festzulegen.This invention relates to machine vision systems used to determine the displacement of an imaged object surface in three dimensions (3D).
HINTERGRUND DER ERFINDUNGBACKGROUND OF THE INVENTION
Bei Herstellungs- und Montageprozessen ist es oft wünschenswert, einige oder alle Objektoberflächen mit einem hohen Grad an Genauigkeit zu messen und eine Abbildung der Gesamtverschiebung oder „Profil“ (z. B. Höhe in der physikalischen Z-Koordinatenrichtung) mit Bezug auf verschiedene Lagen an der Objektoberfläche zu erstellen. Dieses Profil kann mithilfe eines Maschinenvisionssystems (hier auch „Visionssystem“ genannt) in Form eines Laserverschiebungssensors (auch Laserstrahl „Profiler“ genannt) festgelegt werden. Ein Laserverschiebungssensor erfasst und definiert das (dreidimensionale) Profil einer gescannten Objektoberfläche mithilfe eines planaren Vorhangs, der durch optische Ausbreitung eines Laserstrahls in einem „Fächer“ quer zum Ausbreitungsweg gebildet wird. Bei einer herkömmlichen Anordnung ist die Visionssystemkameravorrichtung so ausgerichtet, dass sie die Strahlenebene von ausserhalb der Ebene erblickt. Diese Anordnung erfasst das Profil der projizierten Linie (die sich z. B. entlang der physikalischen X-Achse erstreckt) auf der Objektoberfläche, die entsprechend der Grundlinie (das heißt der relative Abstand entlang der Y-Achse) zwischen der Strahlen(Fächer)ebene und der Kamera bewirkt, dass die abgebildete Linie als Variation in der Richtung der Bild-Y-Achse als eine Funktion der physikalischen Z-Achsenhöhe des abgebildeten Punktes (entlang der Bild-X-Achse) erscheint. Bei einer typischen Anordnung schneidet die optische Achse der Kamera die Laserebene in einem spitzen Winkel, und die wohlbekannte Scheimpflug-Konfiguration der Laserebene, Kameralinse und des Kameralinsensensors kann eingesetzt werden, um ein Bild zu formen, bei dem die Laserstrahlenabweichung sich durch den interessierenden Bereich im Brennpunkt befindet trotz der sich ändernden Entfernung von der Kamera. Diese Abweichung stellt das Höhenprofil der Oberfläche dar. Laserverschiebungssensoren sind in einem weiten Bereich von Prüfungs- und Herstellungsvorgängen nützlich, bei denen der Anwender Oberflächendetails eines gescannten Objekts durch Triangulation messen und charakterisieren möchte. Eine Ausführungsform des Laserverschiebungssensors verwendet eine Visionssystemkamera mit einer Linsenanordnung und einem Abbildungssensor (oder „Imager“), der auf einem SSD- oder CMOS-Design basieren kann. Der Imager definiert ein vorher bestimmtes Feld von Graustufen- oder Farbwahrnehmungspixeln auf einer Bildebene, die fokussiertes Licht von einer abgebildeten Szene durch eine Linse empfängt.In manufacturing and assembly processes, it is often desirable to measure some or all of the object surfaces with a high degree of accuracy and map the overall displacement or "profile" (e.g., height in the physical Z coordinate direction) with respect to various locations to create the object surface. This profile can be defined with the help of a machine vision system (also called “vision system” here) in the form of a laser displacement sensor (also called laser beam “profiler”). A laser displacement sensor detects and defines the (three-dimensional) profile of a scanned object surface with the help of a planar curtain, which is formed by the optical propagation of a laser beam in a "fan" across the propagation path. In a conventional arrangement, the vision system camera device is oriented in such a way that it sees the beam plane from outside the plane. This arrangement captures the profile of the projected line (which extends e.g. along the physical X-axis) on the object surface, corresponding to the baseline (i.e. the relative distance along the Y-axis) between the rays (fan) plane and the camera causes the imaged line to appear as a variation in the direction of the image Y-axis as a function of the Z-axis physical height of the imaged point (along the image X-axis). In a typical arrangement, the optical axis of the camera intersects the laser plane at an acute angle and the well-known Scheimpflug configuration of the laser plane, camera lens and camera lens sensor can be used to form an image in which the laser beam deviation travels through the area of interest in the The focus is in spite of the changing distance from the camera. This deviation represents the elevation profile of the surface. Laser displacement sensors are useful in a wide range of inspection and manufacturing operations where the user wishes to triangulate and characterize surface details of a scanned object. One embodiment of the laser displacement sensor uses a vision system camera with a lens assembly and an imaging sensor (or "imager") that may be based on an SSD or CMOS design. The imager defines a predetermined field of grayscale or perceived color pixels on an image plane that receives focused light from an imaged scene through a lens.
Bei einer typischen Anordnung sind der Verschiebungssensor und/oder das Objekt in relativer Bewegung (normalerweise in Richtung der physikalischen Y-Koordinate), so dass die Objektoberfläche durch die Kamera gescannt wird und eine Abfolge von Bildern der Laserlinie bei gewünschten räumlichen Intervallen erfasst wird - typischerweise in Verbindung mit einem Encoder oder einer anderen Bewegungsmessungsvorrichtung (oder alternativ in zeitbasierten Intervallen). Jede dieser einzelnen Profillinien wird typischerweise von einem einzelnen, erfassten Bild eines größeren Blickfeldes, das bekanntermaßen die projizierte Linie enthält, abgeleitet. Diese Linien beschreiben zusammen die Oberfläche des abgebildeten Objektes. Das Sichtfeld wird durch eine Arbeitsdistanz charakterisiert - das heißt, die Oberfläche des Objektes sollte sich zwischen einer maximalen und einer minimalen Höhe befinden, um die Profilinformationen näherungsweise zu erfassen. Innerhalb dieser Arbeitsentfernung können sich die Größe und Form der Linie aufgrund einer Vielzahl von Faktoren ändern, einschließlich der Ausrichtung und des Reflexionsvermögens der Oberfläche, die gescannt werden soll, der sich ändernden Dicke der Laserebene (die Linie ist typischerweise an einer „Taille“ bei einer etwa mittleren Tiefe vom Sensor am schmalsten und breiter sowohl am als auch weiter weg vom Sensor) und der sich ändernden Menge von Vergrößerung und perspektivischer Verkürzung im Kamerasystem als eine Funktion der Höhe. Diese Änderung bei Liniengröße/-Geometrie stellt eine von mehreren Herausforderungen beim Erhalt einer genauen Messung einer Oberfläche bei einer gewünschten Scangeschwindigkeit dar.In a typical arrangement, the displacement sensor and / or the object are in relative motion (usually in the direction of the physical Y coordinate) so that the object surface is scanned by the camera and a sequence of images of the laser line is captured at desired spatial intervals - typically in conjunction with an encoder or other motion measuring device (or alternatively at time-based intervals). Each of these individual profile lines is typically derived from a single captured image of a larger field of view known to include the projected line. These lines together describe the surface of the object shown. The field of view is characterized by a working distance - that is, the surface of the object should be between a maximum and a minimum height in order to approximately capture the profile information. Within this working distance, the size and shape of the line can change due to a variety of factors including the orientation and reflectivity of the surface to be scanned, the changing thickness of the laser plane (the line is typically at a "waist" at a about mean depth from the sensor narrowest and wider both at and further away from the sensor) and the changing amount of magnification and perspective foreshortening in the camera system as a function of the height. This change in line size / geometry presents one of several challenges in obtaining an accurate measurement of a surface at a desired scan speed.
Bei der Messung eines Objektoberflächenprofils ist es manchmal wünschenswert, gleichzeitig ein Graustufenbild des Objektes zu erzeugen. Während solche Graustufenbilder einen Blick auf das Objekt liefern können, können Graustufenbilder unterschiedliche Charakteristika aufweisen, die einen nutzbringenden Vergleich zwischen diesem und dem abgeleiteten Objektoberflächenprofil verhindern können. Beispielsweise können das Graustufenbild und andere erzeugte Bilder unterschiedliche Pixelabstufungen aufweisen. Wenn diesbezüglich ein Objekt im physikalischen Raum weiter von der Kamera weg ist, z. B. bei einer geringeren Höhe, dann kann ein Pixel breiter erscheinen und mehr physikalischen Raum bedecken als ein Objekt, das sich näher bei der Kamera befindet. Dieser Effekt kann eine Verzerrung im resultierenden Graustufenbild verursachen und einen Vergleich zwischen dem Graustufenbild und anderen Bildern, die während des Prozess erzeugt wurden, verhindern oder schwierig machen. Deshalb ist es wünschenswert, dass die Graustufenbilder einheitliche Pixelabstufungen aufweisen, sowohl innerhalb eines einzelnen Graustufenbildes als auch in getrennten Graustufenbildern.When measuring an object surface profile, it is sometimes desirable to simultaneously generate a grayscale image of the object. While such grayscale images can provide a view of the object, grayscale images can have different characteristics that can prevent a useful comparison between this and the derived object surface profile. For example, the grayscale image and other generated images can have different pixel gradations. In this regard, if an object in physical space is further away from the camera, e.g. B. at a lower height, then a pixel can appear wider and cover more physical space than an object that is closer to the camera. This effect can cause a distortion in the resulting grayscale image and a comparison between the grayscale image and other images taken during the process prevent or make them difficult. It is therefore desirable that the grayscale images have uniform pixel gradations, both within a single grayscale image and in separate grayscale images.
Oft erfordern Maschinenvisionsanwendungen den Einsatz von Abbildungskomponenten höchster Qualität. In letzter Zeit haben sich die Kosten von Abbildungsgeräten, wie etwa Kameras, erhöht. Als Folge davon werden die Marktteilnehmer gezwungen sein entweder die ständig steigenden Kosten für Komponenten höchster Qualität zu tragen oder sich mit niederer Qualität von Abbildungsgeräten zu geringeren Kosten zufrieden zu geben. Solche Geräte mit geringerer Qualität schließen oft Defekte oder Unregelmäßigkeiten ein, die diese weniger wünschenswert für den Einsatz als Geräte mit höherer Qualität machen. Der Einsatz von solchen Geräten geringerer Qualität kann möglicherweise die Ergebnisse von Maschinenvisionsanwendungen verschlechtern. Insbesondere können Sensoren oft eines oder mehrere schlechte Messelemente enthalten. Schlechte Messelemente können „klemmen“, indem sie überhaupt nicht sichtbar auf Beleuchtung reagieren, sondern einen in etwa konstanten Wert anzeigen. Andere schlechte Messelemente können auf Beleuchtung reagieren, wobei sich aber einer oder mehre Reaktionsparameter, wie etwa Versatz, Verstärkung, Nichtlinearität oder Rauschpegel wesentlich von der Sollreaktion der „guten“ Elemente unterscheiden.Machine vision applications often require the use of imaging components of the highest quality. Recently, the cost of imaging devices such as cameras has increased. As a result, market participants will either be forced to bear the ever increasing costs for components of the highest quality or be satisfied with lower quality imaging devices at lower costs. Such lower quality devices often include defects or imperfections that make them less desirable for use than higher quality devices. The use of such lower quality devices can potentially degrade the results of machine vision applications. In particular, sensors can often contain one or more bad measuring elements. Bad measuring elements can “jam” because they do not react visibly at all to the lighting, but rather display an approximately constant value. Other bad measuring elements can react to lighting, but one or more reaction parameters such as offset, gain, non-linearity or noise level differ significantly from the target reaction of the "good" elements.
Ähnliche Vorrichtungen und Verfahren zum Vermessen einer dreidimensionalen Objektoberfläche mittels Linientriangulation sind in der
ZUSAMMENFASSUNG DER ERFINDUNGSUMMARY OF THE INVENTION
Die oben beschriebenen Probleme sind gelöst mit einem erfindungsgemäßen System nach Anspruch 1 und einem erfindungsgemäßen Verfahren nach Anspruch 11. Diese Erfindung überwindet die Nachteile des Standes der Technik in einem Ausführungsbeispiel, bei dem ein Laserverschiebungssensorsystem und entsprechende Verfahren zum Scannen des Höhenprofils einer Objektoberfläche vorgesehen sind, die den Scandurchlauf, die Verarbeitungsgeschwindigkeit, die Effizienz und die Vielseitigkeit des Systems verbessern. Bei einem nicht von den Ansprüchen erfassten Ausführungsbeispiel projiziert ein Verschiebungssensor eine Linie auf die Objektoberfläche und empfängt Licht von der projizierten Linie auf einem Imager so, dass eine Vielzahl von Verschiebungswerten in einer Höhenrichtung definiert wird. Ein Visionssystemprozessor arbeitet an Reihen von Imagerpixeln, um eine Laserlinienmitte festzulegen, oder ganz allgemein, die Position der Laserlinie und/oder von speziellen Teilen der Linie (z. B. die Stopp- und Startpunkte der Liniendicke) in Spalten von Imagerpixeln in jeder von einer Vielzahl von interessierenden Bereichen. Reihen in Zonen ausserhalb dieser interessierenden Bereiche werden typischerweise nicht erfasst und/oder verarbeitet, so dass die Gesamtgeschwindigkeit der Bilderfassung und -Verarbeitung der Linie erhöht wird. Jeder interessierende Bereich definiert eine Vielzahl von Reihen, die den erwarteten Lagen der projizierten Linie auf der Objektoberfläche entsprechen. Ein Höhenbild wird aus den Lagen der projizierten Laserlinie bei jedem gescannten Bild erzeugt, wenn sich das Objekt relativ zum Imagersichtfeld bewegt. Ein GUI kann eingesetzt werden, um die Bereiche bilden, in denen der Benutzer numerische (physikalische Einheit) oder grafische Grenzen für jeden Bereich betritt. Bei weiteren Ausführungsformen verwendet das System Linienbreite, -Intensität und -Lage, um Graustufeninformationen (z. B. entlang jeder Laserlinie des Scannens) oder volle Graustufenbilder mit der Imager- und Laserbeleuchtung zu erzeugen. Die Graustufenbilderdaten und Höhenbilderdaten können in Verbindung miteinander verwendet werden, um Korrekturfaktoren zu erzeugen, die falsche Höhenmessungen, verursacht durch Kontrast, kompensieren können. Beispielsweise können auch Imagerpixel an den Prozessor in „binärer“ Weise durch Vergleich jeder Pixelintensität („Intensität“ wird definiert als einschliesslich, aber nicht beschränkt auf einen Spannungswert) in jeder Spalte des Imager direkt zu einer Referenzintensität übertragen werden. Die Pixel, die der Referenzintensität entsprechen oder diese übertreffen, werden mit einem logischen Wert
Bei einem nicht von den Ansprüchen erfassten Ausführungsbeispiel schliesst ein System und Verfahren zur Messung der Verschiebung einer Objektoberfläche einen Verschiebungssensor ein, der eine Linie auf die Objektoberfläche projiziert und Licht von der projizierten Linie so auf einem Imager empfängt, dass eine Vielzahl von Verschiebungswerten in einer Höhenrichtung definiert wird. Ein Visionssystemprozessor arbeitet, um Reihen von Imagerpixeln zu verarbeiten, um eine Position der projizierten Linie in Spalten der Imagerpixel ausschliesslich in jeder einer Vielzahl von interessierenden Bereichen festzulegen. Jeder der interessierenden Bereiche definiert jeweils eine Vielzahl von Reihen von Imagerpixeln, die erwarteten Lagen der projizierten Linie auf der Objektoberfläche entspricht. Eine Lage der Position der projizierten Linie in jeder der Spalten entspricht einem physikalischen Verschiebungswert auf der Objektoberfläche. Beispielsweise sind das Objekt und der Verschiebungssensor in relativer Bewegung und eine Vielzahl der erfassten Bilder wird auf der projizierten Linie erfasst. Die erfassten Bilder definieren eine Gesamthöhe der Objektoberfläche. Ein grafisches Benutzerinterface (GUI) ist wirksam mit dem Visionssystemprozessor verbunden. Es versetzt einen Benutzer in die Lage, Grenzen jedes der interessierenden Bereiche zu betreten. Das GUI liefert Eingaben für numerische, physikalische Einheiten der Grenzen. Beispielsweise kann das GUI ein erfasstes Bild des Objekts mit der darin enthaltenen projizierten Linie zeigen. Dieses GUI ist so aufgebaut und angeordnet, dass es grafische Positionierung der Grenzen durch den Benutzer ermöglicht. Das erfasste Bild ist im GUI beweglich, um einen Bereich von Verschiebungen der projizierten Linie während eines Scanningvorganges festzustellen. Beispielsweise befindet sich die Position der projizierten Linie annähernd in der Mitte entlang der Spaltenrichtung. Bei einigen Ausführungsbeispielen analysiert ein Messprozess erfasste Bilddaten bei jeder der Vielzahl der interessierenden Bereiche, um Informationen zum Einsatz in einer nachgelagerten Verarbeitungsaufgabe zu erzeugen. Die Informationen, die in der nachgelagerten Verarbeitungsaufgabe eingesetzt werden, werden aus einer Kombination von analysierten erfassten Daten aus einer Vielzahl von interessierenden Bereichen erzeugt. Die nachgelagerte Verarbeitungsaufgabe kann Informationen aus mindestens einem einzelnen erfassten Bild des Objekts (eine Scheibe), einer Vielzahl von erfassten Bildern des Objektes (einer Gruppe von Scheiben) und allen erfassten Bildern, die dem Objekt entsprechen (ein Gesamthöhenbild), einsetzen. Die nachgelagerte Verarbeitungsaufgabe kann eine Visionssystemaufgabe oder -Tool mit maßgeschneidertem oder konventionellem Design umfassen. Die Visionssystemaufgabe oder -Tool kann mindestens eines der folgenden umfassen: Registrierung, Prüfung, Ausrichtung und Mustervergleich. Andere Aufgaben/Tools können Glätten, Durchschnittsbildung, andere Bildverarbeitungsvorgänge usw. einschließen, die beispielsweise in einer Gruppe von Scheiben durchgeführt werden kann. Beispielsweise schließt die nachgelagerte Verarbeitungsaufgabe eine Entscheidungsfindungsaufgabe ein. Diese Entscheidungsfindungsaufgabe kann so aufgebaut und angeordnet sein, dass sie mindestens einen der folgenden Prozesse ausführt: Objektzurückweisung, Linienkontrolle oder Alarm. Der Messprozess kann einen einzelnen Scanvorgang des Objektes oder eine vorher festgelegte Anzahl von Scanvorgängen in einer Gruppe verwenden (wie etwa bei Glättungs-, Durchschnittbildungs- oder anderen Bildverarbeitungsprozessen).In an embodiment not covered by the claims, a system and method for measuring the displacement of an object surface includes a displacement sensor that projects a line onto the object surface and receives light from the projected line on an imager such that a plurality of displacement values in a height direction is defined. A vision system processor operates to process rows of imager pixels to determine a position of the projected line in columns of the imager pixels to be determined exclusively in each of a large number of areas of interest. Each of the regions of interest defines a plurality of rows of imager pixels, which correspond to the expected positions of the projected line on the object surface. A position of the position of the projected line in each of the columns corresponds to a physical displacement value on the object surface. For example, the object and the displacement sensor are in relative motion and a large number of the captured images are captured on the projected line. The captured images define a total height of the object surface. A graphical user interface (GUI) is operatively connected to the vision system processor. It enables a user to enter the boundaries of any of the areas of interest. The GUI provides inputs for numerical, physical units of the limits. For example, the GUI can show a captured image of the object with the projected line contained therein. This GUI is designed and arranged to allow the user to graphically position the boundaries. The captured image can be moved in the GUI in order to determine a range of displacements of the projected line during a scanning process. For example, the position of the projected line is approximately halfway along the column direction. In some embodiments, a measurement process analyzes captured image data at each of the plurality of areas of interest to generate information for use in a downstream processing task. The information that is used in the downstream processing task is generated from a combination of analyzed recorded data from a large number of areas of interest. The downstream processing task can use information from at least a single captured image of the object (a slice), a plurality of captured images of the object (a group of slices) and all captured images that correspond to the object (an overall height image). The downstream processing task may include a vision system task or tool with a bespoke or conventional design. The vision system task or tool can include at least one of the following: registration, review, alignment, and pattern matching. Other tasks / tools can include smoothing, averaging, other image processing operations, etc. that can be performed on a group of slices, for example. For example, the downstream processing task includes a decision making task. This decision-making task can be structured and arranged to perform at least one of the following processes: object rejection, line control, or alarm. The measurement process can use a single scan of the object or a predetermined number of scans in a group (such as smoothing, averaging, or other image processing processes).
Bei einer anderen nicht von den Ansprüchen erfassten Ausführungsform schließt ein System und Verfahren zur Messung von Verschiebung einer Objektoberfläche einen Verschiebungssensor ein, der eine Linie auf eine Objektoberfläche projiziert und Licht von der projizierten Linie so auf einem Imager empfängt, dass eine Vielzahl von Verschiebungswerten in einer Höhenrichtung definiert wird. Ein Visionssystemprozessor arbeitet, um Reihen von Imagerpixeln zu verarbeiten, um eine Lage der projizierten Linie in Spalten der Imagerpixeln festzulegen. Der Visionssystemprozessor ist so aufgebaut und angeordnet, dass er aus der Lage der projizierten Linie ein Höhenbild der Objektoberfläche erzeugt. Auch ist der Visionssystemprozessor so aufgebaut und angeordnet, dass er aus den Intensitätswerten der projizierten Linie ein Graustufenbild der Objektoberfläche erzeugt. Der Visionssystemprozessor ist so aufgebaut und angeordnet, dass er Messungen im Graustufenbild einsetzt, um Korrekturfaktoren zu berechnen und auf das Höhenbild anzuwenden, so dass Fehler beim Höhenbild kompensiert werden. Die Fehler können falsche Höhenauslesungen im Höhenbild umfassen, so wie sie bei einem Kontrastwechsel auf der Oberfläche auftreten - zum Beispiel, wo ein gedrucktes Zeichen oder Symbol in einer kontrastierenden Stufe oder Farbe vorgesehen ist. Beispielsweise verwendet ein Messprozess (a) Messungen von Daten aus dem Höhenbild, um Messungen des Graustufenbildes zu formen oder (b) Messungen des Graustufenbildes, um Messungen des Höhenbilds zu formen. Auch kann ein Entscheidungsfindungsprozess vorgesehen sein, der Entscheidungen aufgrund des Messprozesses erzeugt.In another embodiment not covered by the claims, a system and method for measuring displacement of an object surface includes a displacement sensor that projects a line onto an object surface and receives light from the projected line on an imager so that a plurality of displacement values in a Height direction is defined. A vision system processor operates to process rows of imager pixels to determine a location of the projected line in columns of the imager pixels. The vision system processor is constructed and arranged in such a way that it generates a height image of the object surface from the position of the projected line. The vision system processor is also constructed and arranged in such a way that it generates a grayscale image of the object surface from the intensity values of the projected line. The vision system processor is constructed and arranged to use measurements in the grayscale image to calculate correction factors and apply them to the height image so that errors in the height image are compensated for. The errors may include incorrect height readings in the height image, such as those that occur with a contrast change on the surface - for example where a printed character or symbol is provided in a contrasting level or color. For example, a measurement process uses (a) measurements of data from the height image to shape measurements of the grayscale image, or (b) measurements of the grayscale image to shape measurements of the height image. A decision-making process can also be provided that generates decisions based on the measurement process.
Bei einem weiteren nicht von den Ansprüchen erfassten Ausführungsbeispiel umfasst ein System zur Messung der Verschiebung einer Objektoberfläche einen Verschiebungssensor, der eine Linie auf die Objektoberfläche projiziert und Licht von der projizierten Linie so auf einem Imager empfängt, dass eine Vielzahl von Verschiebungswerten in einer Höhenrichtung definiert wird. Eine Schwellenschaltung empfängt Intensitätswerte aus Pixeln des Imager und führt einen Vergleich der jeweiligen Intensitätswerte mit einer Referenzintensität durch. Hier wird ein binärer Wert jedem der Pixel aufgrund des Vergleiches zugeordnet. Ein Visionssystemprozessor arbeitet, um Reihen von Pixeln zu verarbeiten, um eine Lage der projizierten Linie in Spalten der Pixel festzulegen, die einen binären Wert aufweisen, der die Gegenwart der projizierten Linie anzeigt, wobei der Visionssystemprozessor so aufgebaut und angeordnet ist, dass er ein Höhenbild aus der Lage der projizierten Linie in den Spalten der Pixel erzeugt. Beispielsweise wird die Intensität entweder als Spannung oder als Stromstärke definiert.In a further embodiment not covered by the claims, a system for measuring the displacement of an object surface comprises a displacement sensor that projects a line onto the object surface and receives light from the projected line on an imager so that a plurality of displacement values are defined in a height direction . A threshold circuit receives intensity values from pixels of the imager and carries out a comparison of the respective intensity values with a reference intensity. Here, a binary value is assigned to each of the pixels on the basis of the comparison. A vision system processor operates to process rows of pixels to determine a location of the projected line in columns of the pixels having a binary value indicating the presence of the projected line, the vision system processor being constructed and arranged to provide a height image generated from the position of the projected line in the columns of the pixels. For example, the intensity is defined either as a voltage or as a current strength.
Bei einem weiteren nicht von den Ansprüchen erfassten Ausführungsbeispiel umfasst ein System zur Korrektur eines verdächtigen Pixel bei einem Graustufenbild einen Prozessor und einen Speicher einschliesslich der darauf befindlichen Anweisungen, die, wenn sie vom Prozessor ausgeführt werden, den Prozessor veranlassen, Laserlinienpositionsdaten und entsprechende Laserlinienintensitätsdaten zu erzeugen, die teilweise auf einem erfassten Bild eines Objektes beruhen, wobei die Laserlinienpositionsdaten mindestens eine Laserlinienpositionsangabe umfassen. Der Prozessor kann mindestens eine Laserlinienpositionsangabe identifizieren und mithilfe des Prozessors ersetzen, wobei ein Originalwert der Laserlinienintensitätsangabe der identifizierten Laserlinienpositionsangabe mit einem Ersatzwert für die Laserlinienintensitätsangabe entspricht. Der Prozessor kann das Graustufenbild aus den Laserlinienpositionsdaten und den entsprechenden ersetzten Laserlinienintensitätsdaten erzeugen.In a further embodiment not covered by the claims, a system for correcting a suspect pixel in a grayscale image comprises a processor and a memory including the instructions thereon which, when executed by the processor, cause the processor to generate laser line position data and corresponding laser line intensity data which are based in part on a captured image of an object, the laser line position data including at least one laser line position information. The processor can identify at least one laser line position information and replace it with the aid of the processor, an original value of the laser line intensity information corresponding to the identified laser line position information with a substitute value for the laser line intensity information. The processor can generate the grayscale image from the laser line position data and the corresponding replaced laser line intensity data.
Bei einer weiteren nicht von den Ansprüchen erfassten Ausführungsform umfasst ein System zur Erzeugung eines einheitlich abgestuften Graustufenbildes, das einem Höhenbild entspricht, einen Prozessor und einen Speicher einschliesslich der darin enthaltenen Anweisungen, die, wenn sie vom Prozessor ausgeführt werden, den Prozessor veranlassen, Laserlinienpositionsdaten und Laserlinienintensitätsdaten zu erzeugen, wobei jedes Pixel der Laserlinienintensitätsdaten eine Indizierung einschließt, die einer gemessenen Intensität entspricht. Der Prozessor kann jedes Pixel der Laserlinienpositionsdaten in einem Koordinatensystem abbilden, das einen physikalischen Raum darstellt, wobei mindestens zwei der abgebildeten Pixel eine Verbindungsfunktion aufweisen, die dazwischen angeordnet ist, wobei die Verbindungsfunktion Indizierung einschliesst, die der gemessenen Intensität entspricht. Der Prozessor kann mit dem Prozessor einen repräsentativen Positionswert und einen repräsentativen Indizierungswert für eine Vielzahl von Bins berechnen, wobei jedes der vielen Bins einem oder mehreren der abgebildeten Pixel und einem Teil der Verbindungsfunktion entspricht. Der Prozessor kann das einheitlich abgestufte Graustufenbild mithilfe der repräsentativen Indizierungswerte und die Ausgabe eines Höhenbildes mithilfe repräsentativer Positionswerte ausgeben.In a further embodiment not covered by the claims, a system for generating a uniformly graded grayscale image corresponding to a height image comprises a processor and a memory including the instructions contained therein which, when executed by the processor, cause the processor to read laser line position data and Generate laser line intensity data, each pixel of the laser line intensity data including an index corresponding to a measured intensity. The processor may map each pixel of the laser line position data in a coordinate system representing physical space, with at least two of the mapped pixels having a connection function interposed therebetween, the connection function including indexing corresponding to the measured intensity. The processor can use the processor to calculate a representative position value and a representative indexing value for a plurality of bins, each of the plurality of bins corresponding to one or more of the mapped pixels and part of the connection function. The processor can output the uniformly graded grayscale image with the aid of the representative indexing values and the output of a height image with the aid of representative position values.
Erfindungsgemäß umfasst das System zur Messung der Verschiebung einer Objektoberfläche einen Verschiebungssensor, der eine Linie auf die Objektoberfläche projiziert und Licht von der projizierten Linie so auf einem Imager empfängt, dass die Laserlinienpositionsdaten und die Laserlinienintensitätsdaten definiert werden. Ein Visionssystemprozessor kann so aufgebaut und angeordnet sein, dass er ein Höhenbild aus den Laserlinienpositionsdaten erzeugt, ein Graustufenbild aus den Laserlinienpositionsdaten und den Laserlinienintensitätsdaten und eine Schätzung des Graustufenbildgradienten, wobei der Graustufenbildgradient eingesetzt wird, um einen Höhenkorrekturfaktor zu berechnen, der auf jedes Pixel des Höhenbildes angewendet wird.According to the invention, the system for measuring the displacement of an object surface comprises a displacement sensor which projects a line onto the object surface and receives light from the projected line on an imager so that the laser line position data and the laser line intensity data are defined. A vision system processor can be constructed and arranged to generate a height image from the laser line position data, a grayscale image from the laser line position data and the laser line intensity data, and an estimate of the grayscale image gradient, the grayscale image gradient being used to calculate a height correction factor that is applied to each pixel of the height image is applied.
FigurenlisteFigure list
Die Beschreibung der Erfindung unten bezieht sich auf die beigefügten Zeichnungen, wobei:
-
1 eine schematische perspektivische Darstellung eines Laserverschiebungssensorsystems ist, das ein Bild eines Objektes erfasst, wenn relative Bewegung dazwischen in einer Scanningrichtung auftritt, gemäß eines Ausführungsbeispiels; -
2 ein schematisches Diagramm eines Teils einer Imagerpixelanordnung ist und Bereiche einschließt, die Teile einer beispielhaften abgebildeten Laserlinie enthalten, gemäß derAusführungsform von 1 ; -
3 ein schematisches Diagramm desImager der 1 ist, die die Erzeugung eines Höhenbildes aus einem erfassten Bild einer Laserlinie innerhalb des Sichtfeldes des Verschiebungssensors zeigt; -
4 ein Flussdiagramm eines Prozesses zur Verarbeitung von Höhenbilddaten innerhalb des interessierenden Bereichs des gesamten erfassten Bildes ist, gemäß eines Ausführungsbeispiels; -
5 ein Diagramm eines Bildes einer Laserlinie ist, in der zwei interessierende Bereiche nebeneinander ohne Spalt dazwischen liegen; -
6 eine Bildschirmanzeige eines grafischen Benutzerinterface (GUI) zum Einsatz beim Verschiebungssensorsystem der1 ist, bei dem die interessierenden Bereiche zur Erkennung auf dem Gesamtbild des gescannten Objekts in Bezug zu physikalischen Einheiten gesetzt werden können; -
7 ein Diagramm einer Bildschirmanzeige einschließlich eines GUI ist, bei dem der Anwender die interessierenden Bereiche und Ausschluß auf ein Bild des Objektes manipuliert, das vom Verschiebungssensor erfasst ist; -
8 ein Diagramm von Teilen eines Imagers an zwei interessierenden Bereichen ist, das Pixelreihen zeigt, die selektiv an- oder abgeschaltet werden, um die Auflösung des Bildes in dem Bereich zu verändern; -
8A ein Diagramm von Teilen eines Imager an zwei interessierenden Bereichen ist, bei dem der erste Bereich bei voller Auflösung ist, wobei alle Pixelreihen angeschaltet sind, während die zweite Reihe bei halber Auflösung ist, wobei jede zweite Pixelreihe geschaltet ist; -
9 ein Diagramm eines Bildes eines beispielhaften Objektes ist, das sowohl höhenver-ändernde Funktionen als auch Änderungen im Kontrast enthält, von dem ein zeitgleiches Höhenbild und Graustufenbild mithilfe des Verschiebungssensorsystems der1 erfasst werden kann; -
10 ein Diagramm eines Höhenbildes des beispielhaften Objektes der9 ist, das Änderung in der Höhe verschiedener Funktionen als Intensitätsmessung zeigt und auch kontrastbasierte, falsche Höhenmessungen; -
11 ein Diagramm eines Graustufenbildes des beispielhaften Objekts der9 ist, das Änderung im Kontrast von gewissen Funktionen als Änderung in der Graustufenintensität zeigt und auch Schattierungen von gewissen erhabenen Funktionen an deren Höhenübergängen zeigt; -
12 ein Flussdiagramm eines Verfahrens zur Erzeugung eines Höhenbildes und eines Graustufenbildes aus Bilddaten ist, die mithilfe eines gescannten Bildes des Verschiebungssensors der1 erfasst wurde; -
12A ein Flussdiagramm eines Verfahrens zur Korrektur für null oder mehrere verdächtige Pixel in einer Reihe des Graustufenbildes ist, das möglicherweise verdächtige Pixel enthält; -
12B ein Flussdiagramm eines Verfahrens zum Resampling der erfassten Bilder oder der Laserlinienpositionsdaten und Laserlinienintensitätsdaten ist, um ein Graustufenbild mit einer einheitlichen Pixelabstufung zu erzeugen; -
12C ein Diagramm von Laserlinienpositionsdaten und Laserlinienintensitätsdaten ist; -
12D ein Diagramm von abgebildeten Pixelwerten ist, die den Laserlinienpositionsdaten entsprechen; -
12E ein Diagramm von abgebildeten Pixelwerten ist, die die Verbindungsfunktionen einschließen; -
12F ein Diagramm von abgebildeten Pixelwerten ist, die repräsentative Positionswerte und repräsentative Indizierungswerte einschliessen; -
12G ein Diagramm eines Teils des kalibrierten Höhenbildes und des einheitlich abgestuften Graustufenbildes ist; -
13 ein Flussdiagramm ist, das die Kompensation für die kontrastbasierten, falschen Höhenauslesungen im Höhenbild mithilfe eines Vergleichs zwischen den Funktionen des Höhenbildes gegen entsprechende Funktionen im Graustufenbild zeigt; und -
14 ein Blockdiagramm einer binären Technik zur Festlegung einer Mitte der Laserlinie in jeder Spalte durch Vergleich einer Intensität jedes Spaltenpixel mit einer Referenzintensität ist.
-
1 Figure 12 is a schematic perspective illustration of a laser displacement sensor system that captures an image of an object when there is relative movement therebetween in a scanning direction, according to an embodiment; -
2 FIG. 13 is a schematic diagram of a portion of an imager pixel array including areas containing portions of an exemplary imaged laser line, in accordance with the embodiment of FIG1 ; -
3 a schematic diagram of the imager of the1 Figure 13 shows the generation of a height image from a captured image of a laser line within the field of view of the displacement sensor; -
4th Figure 12 is a flow diagram of a process for processing height image data within the region of interest of the entire captured image, according to one embodiment; -
5 Figure 12 is a diagram of an image of a laser line in which two regions of interest are adjacent with no gap therebetween; -
6th a screen display of a graphical user interface (GUI) for use with the displacement sensor system of1 is, in which the areas of interest for recognition on the overall image of the scanned object can be related to physical units; -
7th Figure 13 is a diagram of a screen display including a GUI in which the user manipulates the areas of interest and exclusions on an image of the object detected by the displacement sensor; -
8th Figure 13 is a diagram of parts of an imager at two areas of interest showing rows of pixels being selectively turned on or off to change the resolution of the image in the area; -
8A Figure 13 is a diagram of parts of an imager at two areas of interest with the first area at full resolution with all rows of pixels turned on while the second row is at half resolution with every other row of pixels turned on; -
9 FIG. 13 is a diagram of an image of an exemplary object containing both height-changing functions and changes in contrast, of which a simultaneous height image and grayscale image using the displacement sensor system of FIG1 can be captured; -
10 a diagram of a height image of the exemplary object of FIG9 which shows change in height of various functions as an intensity measurement and also contrast-based, incorrect height measurements; -
11 FIG. 3 is a diagram of a grayscale image of the exemplary object of FIG9 is showing change in contrast of certain functions as a change in grayscale intensity and also showing shades of certain raised functions at their height transitions; -
12th FIG. 12 is a flow diagram of a method for generating a height image and a grayscale image from image data obtained using a scanned image of the displacement sensor of FIG1 was recorded; -
12A Figure 3 is a flow diagram of a method of correcting for zero or more suspect pixels in a row of the grayscale image that may contain suspect pixels; -
12B Figure 3 is a flow diagram of a method for resampling the captured images or laser line position data and laser line intensity data to produce a grayscale image having a uniform pixel gradation; -
12C Fig. 13 is a diagram of laser line position data and laser line intensity data; -
12D Figure 12 is a diagram of mapped pixel values corresponding to laser line position data; -
12E Figure 3 is a diagram of mapped pixel values including the link functions; -
12F Figure 3 is a diagram of mapped pixel values including representative position values and representative indexing values; -
12G Figure 13 is a diagram of a portion of the calibrated height image and the uniformly graded grayscale image; -
13th Figure 12 is a flow chart showing compensation for the contrast-based false height readings in the height image by comparing the functions of the height image against corresponding functions in the grayscale image; and -
14th Figure 13 is a block diagram of a binary technique for determining a center of the laser line in each column by comparing an intensity of each column pixel with a reference intensity.
GENAUE BESCHREIBUNGPRECISE DESCRIPTION
SystemüberblickSystem overview
Die Verschiebungssensoranordnung
Es muss angemerkt werden, dass die gezeigte Anordnung der Achsen (x, y, z) 124 ein Übereinkommen ist und andere Darstellungen der Ausrichtung zueinander (z. B. Polarkoordinaten) ausdrücklich in Betracht gezogen werden. Wie gezeigt, wird auch eine Rotation um eine gegebene Achse dargestellt, z. B. durch den gekrümmten Doppelpfeil Rx, der die Rotation um die physikalische X-Achse zeigt.It must be noted that the illustrated arrangement of the axes (x, y, z) 124 is a convention and other representations of the orientation to one another (e.g. polar coordinates) are expressly contemplated. As shown, rotation about a given axis is also represented, e.g. B. by the curved double arrow Rx, which shows the rotation around the physical X-axis.
Der Imager
Wie ebenfalls weiter unten beschrieben wird, werden die Bilddaten (das heisst ein 2D Höhenbild - oft auch als „Bereichsbild“ bezeichnet) für die Objekte zu nachgelagerten Datenverarbeitungsvorrichtungen und -Prozessen (190 in
Es muss auch bemerkt werden, dass die Begriffe „Prozess“ und/oder „Prozessor“, wie sie hier verwendet werden, weit gefasst werden sollten, so dass sie eine Reihe von Funktionen und Komponenten, die auf elektronischer Hardware und/oder Software beruhen, einschließen. Darüberhinaus kann ein gezeigter Prozess oder Prozessor mit anderen Prozessen und/oder Prozessoren kombiniert werden oder in verschiedene Unterprozesse oder -Prozessoren aufgeteilt werde. Solche Unterprozesse und/oder Unterprozessoren können auf verschiedene Weise gemäß der Ausführungsbeispiele hier kombiniert werden. Ebenso wird ausdrücklich in Betracht gezogen, dass jede Funktion, jeder Prozess und/oder Prozessor, der hier erwähnt wird, mit Hilfe elektronischer Hardware, Software, die aus einem nichttransitorischen, computerlesbarem Medium der Programmanweisungen besteht, oder einer Kombination aus Hardware und Software hier umgesetzt werden kann.It should also be noted that the terms "process" and / or "processor" as used herein should be interpreted broadly to encompass a range of functions and components that rely on electronic hardware and / or software, lock in. In addition, a process or processor shown can be combined with other processes and / or processors or divided into different sub-processes or processors. Such sub-processes and / or sub-processors can be combined in various ways according to the exemplary embodiments here. It is also expressly contemplated that every function, every process and / or processor that is mentioned here, implemented here with the help of electronic hardware, software consisting of a non-transitory, computer-readable medium of the program instructions, or a combination of hardware and software can be.
Der Sensorprozess
Der dargestellte Teil der Pixelanordnung enthält Segmente
Jeder Scanvorgang erzeugt eine Linie eines Höhen- oder Bereichsbildes. Wie in
Beim Erzeugen jedes Höhenbildes (
Besondere Aufmerksamkeit sollte den Reihen gewidmet werden, die sich in der Nähe des Anfangs- und Endbereichs im Bild befinden. Für die ersten und letzten Linien erzeugt das System keine Filtermessung. Für die zweiten und zweitletzten Linien nähert das System den gewünschten 1-2-4-2-1 Kernel mit einem 3-4-2-1 oder einem 1-2-4-3 Kernel. Bei einem Ausführungsbeispiel kann der Liniensuchprozess insbesondere die folgenden Filter relativ zu verschiedenen Lagen im interessierenden Bereich (auch weiter unten beschrieben) des Bildes einsetzen:
Es wird wiederum bemerkt, dass die Filterantwort für eine gegebene Reihe tatsächlich nicht berechnet werden kann, bis die zwei folgenden Reihen erfasst wurden - ausser es wird nur eine einzelne folgende Reihe verwendet, wenn die Antwort für die zweitletzte Reihe in einem Bereich berechnet wird. Wenn zusätzlich der Anwender angibt, dass die Höhenmessung einen Bereich Hmin - Hmax in physikalischen Einheiten umfassen soll, so müssen wir das in einen Bereich von Reihen Rmin bis Rmax umwandeln und dann mindestens jeweils eine Reihe oben und unten addieren, so dass wir Filterausgaben erhalten können, die Messungen im vollen Umfang von Hmin bis Hmax entsprechen.Again, it is noted that the filter response for a given row cannot actually be calculated until the next two rows have been acquired - unless only a single consecutive row is used when calculating the response for the penultimate row in a range. If, in addition, the user specifies that the height measurement should cover a range Hmin - Hmax in physical units, we have to convert this into a range from rows Rmin to Rmax and then add at least one row at the top and one below so that we can get filter outputs that correspond to measurements in full from Hmin to Hmax.
Interessierende TeilbereicheInteresting sub-areas
Mit Bezug auf
Bei einer Ausführungsform schließt der Imager die Fähigkeit ein, die Ausgabe der ausgewählten Reihen über den Prozessor
Im Schritt
In Abwesenheit eines signalisierten Zustandes (Fehler, einzelne Scheibe, Vielzahl von Scheiben) in Schritt
Mit Bezug auf
Erster Bereich:First area:
Überlappungszone des ersten Bereichs:Overlap zone of the first area:
Zweiter Bereich:Second area:
Ein GUI Prozess (
Anpassung der AuflösungAdjustment of the resolution
Bei weiteren Ausführungsbeispielen wie unten beschrieben können einige oder alle Reihen bei einer verminderten Auflösung definiert werden - beispielsweise durch Proben in jeder zweiten Reihe. Zusätzlich und wie im Beispiel der
In einem weiteren Beispiel zeigt
Erzeugung von GraustufenbildernGeneration of grayscale images
Bei vielen Produktionsanwendungen ist es, neben anderen Prozessen, wünschenswert sowohl Höhenprofil eines Objektes als auch bestimmte 2D Elemente, wie einen Druck, zu prüfen. Beispielsweise sollten sich alle Tasten einer Tastatur auf einer vorbestimmten Höhe befinden und auch alle die passenden gedruckten Indizierungen (alphanumerische Charakter, Symbole usw.) tragen.In many production applications, among other processes, it is desirable to check both the height profile of an object and certain 2D elements, such as a print. For example, all the keys on a keyboard should be at a predetermined height and they should all have the appropriate printed indexing (alphanumeric characters, symbols, etc.).
Zum Beispiel stellt
Wie im Diagramm der
Wenn das Bild gescannt und eine Vielzahl von Scanvorgängen (
Bei einigen Beispielen können die erzeugten Graustufenbilddaten Spitzenintensitätsdatenwerte enthalten, die ein Ergebnis einer Lage eines schlechten Pixel im erfassten Bild sind. Wie oben beschrieben, kann das Erscheinen von verdächtigen oder schlechten Pixeln im Graustufenbild eine Manifestation eines Fehlers oder einer Unregelmässigkeit in der Hardware oder Software sein, die verwendet wird, um das Graustufenbild zu erzeugen. Insbesondere kann der Einsatz der Abbildungskomponenten mit schlechten Wahrnehmungselementen das Erscheinen solcher verdächtigen oder schlechten Pixel verursachen. Auch können so falsche Ergebnisse bei den Höhenbildern und den Graustufenbildern entstehen. Deshalb ist es wünschenswert, die Daten, die schlechten Wahrnehmungselementen entsprechen, zu ignorieren, indem verdächtige Spitzendatenwerte identifiziert werden und interpolierte Graustufenwerte aus naheliegenden Daten anstatt der verdächtigen Spitzendatenwerte eingesetzt werden. Bei einem anderen Beispiel können anomale Höhenwerte bedeuten, dass die zugeordneten Graustufeninformationen verdächtig sind, z. B. verdächtige Graustufenbildwerte können durch die Analyse der zugeordneten Höheninformationen identifiziert werden, entweder in den Laserlinieninformationen oder in den Höhen-/Graustufeninformationen.In some examples, the generated grayscale image data may include peak intensity data values that are a result of a bad pixel location in the captured image. As described above, the appearance of suspicious or bad pixels in the grayscale image may be a manifestation of a bug or anomaly in the hardware or software used to create the grayscale image. In particular, the use of the imaging components with poor perceptual elements can cause such suspicious or poor pixels to appear. This can also lead to incorrect results in the height images and the grayscale images. Therefore, it is desirable to ignore the data corresponding to poor perceptual elements by identifying suspicious peak data values and substituting interpolated grayscale values from nearby data in place of the suspicious peak data values. In another example, abnormal height values may mean that the associated gray level information is suspicious, e.g. B. suspicious grayscale image values can be identified by analyzing the associated height information, either in the laser line information or in the height / grayscale information.
Beim Block
Bei Block
Bei Block
Wenn die Lage des Spitzenintensitätspixel im Graustufenbild nicht einem Datenwert, der einer verdächtigen Pixellage zugeordnet ist, entspricht, mit ihm überlappt oder sich innerhalb einer vorherbestimmten Nähe (z. B. innerhalb weniger Pixel) befindet, dann kann das System das Graustufenpixel ohne Korrektur am Block
Bei einem anderen Ausführungsbeispiel können verdächtige Pixelwerte aus dem entsprechenden Höhenbild identifiziert werden. Wenn sich beispielsweise ein bestimmter Höhenwert von seinem erwarteten Höhenwert im Höhenbild durch eine vorher bestimmte Schwelle unterscheidet, dann kann das entsprechende Pixel im Graustufenbild als verdächtiges Pixel gekennzeichnet werden. Die vorher bestimmte Schwelle des Unterschieds zwischen den erwarteten und den beobachteten Höhenwerten kann durch den Anwender definiert werden. Bei einem anderen Beispiel kann die vorher bestimmte Schwelle als Unterschied zwischen benachbarten Pixeln berechnet werden.In another embodiment, suspicious pixel values can be identified from the corresponding height image. If, for example, a certain height value differs from its expected height value in the height image by a previously determined threshold, then the corresponding pixel in the grayscale image can be marked as a suspicious pixel. The predetermined threshold of the difference between the expected and the observed altitude values can be defined by the user. In another example, the predetermined threshold can be calculated as the difference between neighboring pixels.
Bei einem anderen Ausführungsbeispiel können verdächtige Pixelwerte aus dem entsprechenden Höhenbild durch Pixel, für die der Höhenwert fehlt, identifiziert werden. Wenn beispielsweise ein bestimmter Höhenwert aus dem Höhenbild wegen Laser Speckle oder Verstopfung oder einem anderen Grund fehlt, dann kann das entsprechende Pixel im Graustufenbild als verdächtiges Pixel gekennzeichnet werden.In another embodiment, suspicious pixel values from the corresponding height image can be identified by pixels for which the height value is missing. If, for example, a certain height value is missing from the height image due to laser speckle or clogging or some other reason, then the corresponding pixel in the grayscale image can be marked as a suspect pixel.
Die Graustufenbilddaten können in einer Vielzahl von Visionssystemprozessen wie Prüfung, Registrierung, Analyse der Druckqualität und jedem anderen Prozess, in dem die Anwesenheit, Abwesenheit, Lage und/oder Qualität von kontrastierenden Elementen analysiert wird, eingesetzt werden. Das System des Beispiels verwendet den gleichen Imager und gleichzeitig erfasste Daten aus dem Imager, um sowohl das Höhenbild als auch das Graustufenbild abzuleiten, so dass diese Bilder im Wesentlichen eine perfekte Registrierung darstellen - das heisst, jedes Bildpixel des Höhenbilds entspricht dem gleichen Pixel im Graustufenbild. Das eliminiert den Bedarf für eine separate Kameraanordnung, um jeden Bildtyp zu erfassen, und den davon abhängenden Bedarf für einen Ausrichtungsschritt für eine Entsprechung der Funktionen des Höhenbildes und des Graustufenbildes. Die Anwesenheit von zwei physikalisch ausgerichteten Bildern mit unterschiedlichen Datentypen (Höhe und Graustufe) macht die Anwendung einer Anzahl von Visionssystemtools mit beiden Datentypen gemeinsam möglich. Das erhöht den Nutzen des gesamten Bilddatensatzes, wobei solche gleichzeitigen Operationen wie Registrierung, Mustervergleich usw. mit Hilfe des Graustufenbildes und der Messung, Prüfung, usw. unter Verwendung des Höhenbildes möglich sind. Bestimmte ähnliche Visionssystemprozesse (z. B. Prüfung) können auch auf beide Bilder angewandt werden, um einen höheren Grad an Vertrauen in das Ergebnis zu liefern. Ein Loch wird beispielsweise im Graustufenbild lokalisiert und die Lage der entsprechenden Höhenänderung in der ausgerichteten Höhe wird verwendet, um seine Lage zu verifizieren. Das System kann, allgemeiner gesprochen, einen Messprozess liefern, der (a) Messungen von Daten aus dem Höhenbild verwendet, um Messungen des Graustufenimagers zu bilden, oder (b) Messungen des Graustufenbildes verwendet, um Messungen des Höhenbildes zu bilden. Ein Entscheidungsfindungsprozess (
Resampling eines Graustufenbildes zur Anpassung an den PixelmaßstabResampling of a grayscale image to match the pixel scale
Bei einigen Beispielen können das Graustufenbild und das Höhenbild unterschiedliche Charakteristika aufweisen, die einen nutzbringenden Vergleich der beiden verhindern oder deren gleichzeitige Verwendung bei einer Maschinenvisionsaufgabe verhindern. Wie oben schon ausgeführt, kann das Graustufenbild verzerrt sein oder einen anderen Pixelmaßstab aufweisen als das Höhenbild. Um solche Unterschiede zu korrigieren, kann das Visionssystem die zugrundeliegenden erfassten Bilder oder der Laserlinienpositionsdaten, Laserlinienintensitätsdaten, oder Intensitätsdaten von korrigierten schlechten Pixeln (wie oben beschrieben) resamplen, um ein Graustufenbild mit einem einheitlichen Pixelmaßstab in Bezug auf das Höhenbild zu erzeugen.In some examples, the grayscale image and the height image may have different characteristics that prevent the two from being usefully compared or prevent them from being used simultaneously in a machine vision task. As already stated above, the grayscale image can be distorted or have a different pixel scale than the height image. To correct for such differences, the vision system can resample the underlying captured images or the laser line position data, laser line intensity data, or intensity data from corrected bad pixels (as described above) to generate a grayscale image with a uniform pixel scale with respect to the height image.
In Block
Bei Block
Bei Block
Wie in
Für jeden Bin
Wie in
Ausgleich für falsche HöhenübergängeCompensation for wrong height transitions
Wie im Höhenbild
Bei der Feststellung, ob fasche Höhen- und/oder Graustufenfunktionen vorliegen, kann das Einrichten und Trainieren des Systems Anwenderidentifizierungen oder falsche Kandidatenfunktionen und/oder Bereiche, die Kandidatenfunktionen enthalten, einschließen. Das kann die Analyse solcher Funktionen beschleunigen und den Durchsatz des Verschiebungssensors verbessern.In determining whether there are incorrect height and / or grayscale functions, setting up and training the system may include user identifications or incorrect candidate functions and / or areas that contain candidate functions. This can speed up the analysis of such functions and improve the throughput of the displacement sensor.
Es wird ausdrücklich in Betracht gezogen, dass eine Laufzeit-(oder Einrichtungs-) Anzeige (
Liniensuche aus Schwellenpixelspannungen von SpaltenLine search from threshold pixel voltages of columns
Es wird in Betracht gezogen, dass die Verarbeitungsgeschwindigkeit bei verschiedenen Imageranordnungen durch das Suchen des Linienmittenwertes für jede Pixelspalte direkt aus „binäre“ Pixeln erhöht werden kann, die entweder die Schwelle überschreiten oder darunter fallen. Auf diese Weise wird jedes Pixel an einen nachgelagerten Prozess/Prozessor geliefert, entweder als logischer Wert
Auf Grund der ersten und letzten Pixellage in der Spalte legt der Prozess den Mittenwert im Block
Es wird angemerkt, dass bei der Erzeugung eines „Mitte-"Wertes, wie hier verwendet, eine Vielzahl von Techniken einsetzen kann, die eine Erhöhung der Verarbeitungsgeschwindigkeit gegen Genauigkeit erlaubt - zum Beispiel kann der erste Wert in einer Spalte, der die Schwelle übersteigt, in einem Cluster von Pixeln, die über der Schwelle liegen, als die „Mitte“ identifiziert werden. So sollte der Begriff „Mitte“ weit gefasst werden, damit Lagen entlang der Spalte innerhalb des Laserlinienbildes eingeschlossen werden, die das vorhersagbare Ergebnis zurückschicken. Zum Beispiel kann die Kenntnis der Taillengröße des Lasers (Breite) bei einer gegebenen Spalte (x-Lage) in Verbindung mit der Reihenlage des ersten Pixels, das über der Schwelle liegt, eingesetzt werden, um die Mitte zu berechnen. Beispielsweise kann (bei Pixeln) die folgende, vereinfachte Berechnung eingesetzt werden:
Schlussfolgerungconclusion
Es sollte klar sein, dass die verschiedenen hier beschriebenen Ausführungsformen die Vielseitigkeit, Verarbeitungseffizienz und die Durchsatzgeschwindigkeit von Laserverschiebungssensorssystemen erhöhen ohne dass die erforderliche Genauigkeit geopfert wird. Die hier beschriebenen Beispiele von Funktionen können leicht und unkompliziert von einem Anwender während des Einrichtens umgesetzt werden, wenn entsprechende Interfaces eingesetzt werden. Diese Funktionen ermöglichen die Korrektur von gewissen innewohnenden Fehlern in Höhenbildern, wie etwa kontrastbasierte falsche Höhenauslesungen. Systeme und Verfahren sind dazu vorgesehen, registrierte Graustufenbilder eines Objektes unter dem Scanvorgang frei vom Einsatz eines eigenen Kamerasystems und zugeordneten Prozessoren zu produzieren.It should be understood that the various embodiments described herein increase the versatility, processing efficiency, and throughput speed of laser displacement sensor systems without sacrificing the required accuracy. The examples of functions described here can be implemented easily and uncomplicated by a user during the setup, if appropriate interfaces are used. These functions enable the correction of certain inherent errors in height images, such as contrast-based incorrect height readings. Systems and methods are intended to produce registered gray-scale images of an object during the scanning process, free of the use of a dedicated camera system and assigned processors.
Das oben Erwähnte ist eine detaillierte Beschreibung der Ausführungsbeispiele der Erfindung. Funktionen der verschiedenen oben beschriebenen Ausführungsbeispiele können gegebenenfalls mit Funktionen anderer beschriebenen Ausführungsformen kombiniert werden, um eine Vielfalt von Kombinationen von Funktionen in neu verbundenen Ausführungsformen zu liefern. Während weiterhin das oben gesagte eine Anzahl von einzelnen Ausführungsformen der Vorrichtung und des Verfahrens der vorliegenden Erfindung beschreibt, ist das, was hier beschrieben wurde, nur ein Anwendungsbeispiel der Prinzipien der vorliegenden Erfindung. Begriffe von Richtung und Orientierung, die beispielsweise hier verwendet wurden, wie „vertikal“, „horizontal“, „auf“, „unter“, „unten“, „oben“, „seitlich“, „vorne“, „hinten“, „links“, „rechts“ und dergleichen, werden nur als relative Vereinbarungen und nicht als absolute Orientierung in Bezug auf ein festgelegtes Koordinatensystem, wie etwa Schwerkraft, verwendet. Während deshalb interessierende Bereiche konstante Größe und Lage im Sichtfeld/Imager durch den Scanvorgang jeden Objekts haben, wird in Betracht gezogen, dass sich die Größe und/oder Lagen von interessierenden Bereichen während des Scanvorganges ändern kann, um die erwartete Änderung bei den Lagen der Funktion oder Änderung in den interessierenden Funktionen entlang der y-Achse zu berücksichtigen. Eine Änderung der interessierenden Bereiche kann als Reaktion auf die Encoderposition oder eine andere Anzeige der relativen Lage des Objektes mit Bezug auf das Sichtfeld auftreten. Während zusätzlich die Begriffe „Reihen“ und „Spalten“ verwendet werden, um eine spezielle Anordnung von Pixeln im Imager zu beschreiben, wird ausdrücklich in Betracht gezogen, dass diese Begriffe ausgetauscht werden können und ähnliche Ergebnisse gemäß der Ausführungsbeispiele hier erzielen können. Auch während ein Laser eingesetzt wird, um die Beleuchtung zur Erfassung sowohl von Höheninformationen/-Bild als auch Graustufeninformationen/-Bild zu erzeugen, kann eine zusätzliche Beleuchtung eingesetzt werden, um das Graustufenbild zu erfassen - beispielsweise für eine abwechselnde Erfassung des Höhenbildes und des Graustufenbildes und stroboskopisch die zusätzliche Beleuchtung mit jeder Graustufenerfassung. Während Ausführungsbeispiele hier auch interessierende Bereiche definieren, in denen die Verarbeitung von Bildpixeln abläuft, und Bereiche dazwischen, die frei von der Bildpixelbearbeitung sind, können solche dazwischenliegenden Bereiche funktional gleichwertig einer oder mehrere „Ausschlusszonen“ sein, in denen der Anwender die Nichtverarbeitungsbereiche definiert, und das System sonst bei der Verarbeitungsleistung ausserhalb dieser „Ausschlußzone/n“ ausfällt. Allgemeiner gesprochen definieren bei Ausführungsformen das System und Verfahren einen oder mehrere interessierende/n Bereich/e und zugeordnete Ausschlusszon(en), was eine selektive Erkennung oder Nichterkennung (beziehungsweise) einer Laserlinie innerhalb des gesamten Imagersichtfeldes ermöglicht.The above is a detailed description of the embodiments of the invention. Functions of the various embodiments described above may optionally be combined with functions of other described embodiments to provide a variety of combinations of functions in newly connected embodiments. Furthermore, while the foregoing describes a number of individual embodiments of the apparatus and method of the present invention, what has been described herein is only one example of application of the principles of the present invention. Terms of direction and orientation that were used here, for example, such as "vertical", "horizontal", "on", "below", "below", "above", "sideways", "front", "rear", " left ”,“ right ”and the like are only used as relative agreements and not as absolute orientation in relation to a fixed coordinate system, such as gravity. While areas of interest therefore have constant size and position in the field of view / imager through the scanning process of each object, it is taken into account that the size and / or positions of areas of interest may change during the scanning process in order to achieve the expected change in the positions of the function or change in the functions of interest along the y-axis. A change in the areas of interest can occur in response to the encoder position or some other indication of the relative position of the object with respect to the field of view. In addition, while the terms “rows” and “columns” are used to describe a specific arrangement of pixels in the imager, it is expressly contemplated that these terms can be interchanged and similar results can be achieved according to the exemplary embodiments here. Even while a laser is used to generate the lighting to capture both height information / image and grayscale information / image, additional lighting can be used to capture the grayscale image - for example, for alternating acquisition of the height image and the grayscale image and stroboscopically the additional lighting with each gray level detection. While embodiments here also define areas of interest in which the processing of image pixels takes place, and areas in between that are free from image pixel processing, such areas in between can be functionally equivalent to one or more "exclusion zones" in which the user defines the non-processing areas, and the system will otherwise fail in terms of processing power outside of this “exclusion zone (s). More generally speaking, in embodiments, the system and method define one or more areas of interest and associated exclusion zone (s), which enables selective detection or non-detection (or) of a laser line within the entire imager field of view.
Claims (20)
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361826416P | 2013-05-22 | 2013-05-22 | |
US61/826,416 | 2013-05-22 | ||
US14/149,774 | 2014-01-07 | ||
US14/149,774 US9605950B2 (en) | 2013-05-22 | 2014-01-07 | System and method for efficient surface measurement using a laser displacement sensor |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102014107143A1 DE102014107143A1 (en) | 2014-12-04 |
DE102014107143B4 true DE102014107143B4 (en) | 2021-03-04 |
Family
ID=51899560
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102014107143.3A Active DE102014107143B4 (en) | 2013-05-22 | 2014-05-21 | System and method for measuring the displacement of an object surface |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109000583B (en) |
DE (1) | DE102014107143B4 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023067409A1 (en) * | 2021-10-20 | 2023-04-27 | Kuehl Sascha | Binocular 3d scanner |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015121673B4 (en) * | 2015-12-11 | 2019-01-10 | SmartRay GmbH | shape investigation |
US10456915B1 (en) | 2019-01-25 | 2019-10-29 | Mujin, Inc. | Robotic system with enhanced scanning mechanism |
US10870204B2 (en) | 2019-01-25 | 2020-12-22 | Mujin, Inc. | Robotic system control method and controller |
CN112147625B (en) * | 2020-09-22 | 2024-03-01 | 深圳市道通科技股份有限公司 | Calibration method, device, monocular laser measurement equipment and calibration system |
CN113172342B (en) * | 2021-05-14 | 2023-08-18 | 郑州磨料磨具磨削研究所有限公司 | Laser processing device and method for diamond surface planarization processing |
CN113375566B (en) * | 2021-06-09 | 2023-09-08 | 江苏中科贯微自动化科技有限公司 | Accurate measurement method and system for object size |
CN115170669B (en) * | 2022-09-05 | 2022-11-22 | 合肥安迅精密技术有限公司 | Identification and positioning method and system based on edge feature point set registration and storage medium |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040246473A1 (en) * | 2003-03-18 | 2004-12-09 | Hermary Terrance John | Coded-light dual-view profile scanning apparatus |
DE102005052044A1 (en) * | 2005-10-31 | 2007-05-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Transparent object measuring device e.g. for defining jet level production mechanism, has first profile line at front surface of transparent object and second profile line at rear surface with radiation provided from jet |
DE102005051318A1 (en) * | 2005-10-26 | 2007-05-03 | Reiter, Mathias, Dipl.-Ing. | shape investigation |
DE102006004060A1 (en) * | 2006-01-28 | 2007-08-09 | Basler Ag | Moved object`s height and/or height progress measuring method, involves reducing and inversing detected object height by correction value with object height that increases in course of movement of object relative to recording axis of sensor |
DE102006036586A1 (en) * | 2006-08-04 | 2008-02-14 | Reiter, Mathias, Dipl.-Ing. | Three-dimensional and lengthwise-running testing contour e.g. recess, irregularity testing method, involves recording longitudinal positions of contour from different angles, where angles are observed in side view towards running direction |
US20110310399A1 (en) * | 2009-05-29 | 2011-12-22 | Perceptron, Inc. | Hybrid sensor |
DE202012104890U1 (en) * | 2012-12-14 | 2013-03-05 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07134013A (en) * | 1993-06-28 | 1995-05-23 | Hitachi Ltd | Surface shape measuring method and projection aligner |
CA2115859C (en) * | 1994-02-23 | 1995-12-26 | Brian Dewan | Method and apparatus for optimizing sub-pixel resolution in a triangulation based distance measuring device |
JPH08292019A (en) * | 1995-04-20 | 1996-11-05 | Mazda Motor Corp | Calibration method for article detecting device |
US5745176A (en) * | 1995-10-12 | 1998-04-28 | Ppt Vision, Inc. | Machine-vision illumination system and method for delineating a lighted volume from an unlighted volume |
US5751853A (en) * | 1996-01-02 | 1998-05-12 | Cognex Corporation | Locating shapes in two-dimensional space curves |
US6252659B1 (en) * | 1998-03-26 | 2001-06-26 | Minolta Co., Ltd. | Three dimensional measurement apparatus |
US6956963B2 (en) * | 1998-07-08 | 2005-10-18 | Ismeca Europe Semiconductor Sa | Imaging for a machine-vision system |
SG73563A1 (en) * | 1998-11-30 | 2000-06-20 | Rahmonic Resources Pte Ltd | Apparatus and method to measure three-dimensional data |
DE69942074D1 (en) * | 1998-12-21 | 2010-04-08 | Hitachi Ltd | Method for regulating the transmission power for a communication system |
US6819358B1 (en) * | 1999-04-26 | 2004-11-16 | Microsoft Corporation | Error calibration for digital image sensors and apparatus using the same |
US6600168B1 (en) * | 2000-02-03 | 2003-07-29 | Genex Technologies, Inc. | High speed laser three-dimensional imager |
US7113652B2 (en) * | 2003-01-09 | 2006-09-26 | Banner Engineering Corp. | System and method for using normalized gray scale pattern find |
US20040184653A1 (en) * | 2003-03-20 | 2004-09-23 | Baer Richard L. | Optical inspection system, illumination apparatus and method for use in imaging specular objects based on illumination gradients |
US7171037B2 (en) * | 2003-03-20 | 2007-01-30 | Agilent Technologies, Inc. | Optical inspection system and method for displaying imaged objects in greater than two dimensions |
US7352892B2 (en) * | 2003-03-20 | 2008-04-01 | Micron Technology, Inc. | System and method for shape reconstruction from optical images |
US6924717B2 (en) * | 2003-06-30 | 2005-08-02 | Intel Corporation | Tapered electrode in an acoustic resonator |
JP4480488B2 (en) * | 2003-08-28 | 2010-06-16 | 富士通株式会社 | Measuring device, computer numerical control device, and program |
US7313271B2 (en) * | 2004-12-07 | 2007-12-25 | Avago Technologies Ecbuip (Singapore) Pte. Ltd. | Color detection using grayscale and position information |
DE602005016374D1 (en) * | 2005-05-19 | 2009-10-15 | St Microelectronics Res & Dev | image sensor |
US8103085B1 (en) * | 2007-09-25 | 2012-01-24 | Cognex Corporation | System and method for detecting flaws in objects using machine vision |
JP4294713B1 (en) * | 2008-03-14 | 2009-07-15 | 株式会社 英田エンジニアリング | Shape measurement system |
CN201358436Y (en) * | 2009-02-10 | 2009-12-09 | 长安大学 | Road surface track laser detection device |
US8244402B2 (en) * | 2009-09-22 | 2012-08-14 | GM Global Technology Operations LLC | Visual perception system and method for a humanoid robot |
US8427632B1 (en) * | 2009-12-23 | 2013-04-23 | Trimble Navigation Ltd. | Image sensor with laser for range measurements |
CN101832764A (en) * | 2010-05-17 | 2010-09-15 | 南通北极光自动控制技术有限公司 | Three-dimensional laser scanning on-line detection profiler |
CN103097856B (en) * | 2010-09-13 | 2016-03-16 | 辛克莱系统国际公司 | For the labelled visual identity method of product |
CN101969523B (en) * | 2010-10-21 | 2012-10-03 | 西北农林科技大学 | Three-dimensional scanning device and three-dimensional scanning method |
US8228315B1 (en) * | 2011-07-12 | 2012-07-24 | Google Inc. | Methods and systems for a virtual input device |
CN102494675B (en) * | 2011-11-30 | 2013-12-25 | 哈尔滨工业大学 | High-speed visual capturing method of moving target features |
CN102538705B (en) * | 2012-01-12 | 2014-11-05 | 杭州浙达精益机电技术股份有限公司 | Secondary-projection-algorithm-based on-line non-contact contour detection system and method of intermediate-thick plate |
CN103292725A (en) * | 2012-02-29 | 2013-09-11 | 鸿富锦精密工业(深圳)有限公司 | Special boundary measuring system and method |
CN102842034B (en) * | 2012-07-10 | 2015-09-16 | 重庆大学 | A kind of laser scanning and the device and the recognition methods that automatically identify engraving character |
US8995749B2 (en) * | 2013-03-28 | 2015-03-31 | Mitutoyo Corporation | Enhanced edge detection tool for edges of irregular surfaces |
-
2014
- 2014-05-21 DE DE102014107143.3A patent/DE102014107143B4/en active Active
- 2014-05-22 CN CN201810664574.7A patent/CN109000583B/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040246473A1 (en) * | 2003-03-18 | 2004-12-09 | Hermary Terrance John | Coded-light dual-view profile scanning apparatus |
DE102005051318A1 (en) * | 2005-10-26 | 2007-05-03 | Reiter, Mathias, Dipl.-Ing. | shape investigation |
DE102005052044A1 (en) * | 2005-10-31 | 2007-05-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Transparent object measuring device e.g. for defining jet level production mechanism, has first profile line at front surface of transparent object and second profile line at rear surface with radiation provided from jet |
DE102006004060A1 (en) * | 2006-01-28 | 2007-08-09 | Basler Ag | Moved object`s height and/or height progress measuring method, involves reducing and inversing detected object height by correction value with object height that increases in course of movement of object relative to recording axis of sensor |
DE102006036586A1 (en) * | 2006-08-04 | 2008-02-14 | Reiter, Mathias, Dipl.-Ing. | Three-dimensional and lengthwise-running testing contour e.g. recess, irregularity testing method, involves recording longitudinal positions of contour from different angles, where angles are observed in side view towards running direction |
US20110310399A1 (en) * | 2009-05-29 | 2011-12-22 | Perceptron, Inc. | Hybrid sensor |
DE202012104890U1 (en) * | 2012-12-14 | 2013-03-05 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023067409A1 (en) * | 2021-10-20 | 2023-04-27 | Kuehl Sascha | Binocular 3d scanner |
Also Published As
Publication number | Publication date |
---|---|
CN109000583B (en) | 2022-04-26 |
DE102014107143A1 (en) | 2014-12-04 |
CN109000583A (en) | 2018-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102014107143B4 (en) | System and method for measuring the displacement of an object surface | |
US10775160B2 (en) | System and method for efficient surface measurement using a laser displacement sensor | |
DE102014205726B4 (en) | METHOD FOR DETERMINING PROFILE DATA FOR AN EDGE FEATURE IN A MACHINE IMAGE PROCESSING INSPECTION SYSTEM | |
DE102014206309B4 (en) | System and method for obtaining offset images to be used for improved edge resolution | |
EP2619525B1 (en) | Method for optically scanning an edge in or on a surface region | |
DE69923119T2 (en) | Device for the integrated processing of defect images | |
DE102015205738A1 (en) | Motion measuring system of a machine and method for operating the motion measuring system | |
DE4222804A1 (en) | Automatic visual tester for electrical and electronic components - performs video scans of different surfaces with unequal intensities of illumination by annular and halogen lamps | |
DE112011100269T5 (en) | A circuit-board | |
DE102015113051B4 (en) | Measuring device, printed circuit board testing device and method for the control thereof | |
DE102014207095A1 (en) | Edge measurement video tool with robust edge discrimination travel | |
DE102009030644B4 (en) | Non-contact detection device | |
DE102007025304B4 (en) | Method for improving the reproducibility of a coordinate measuring machine and its accuracy | |
DE102016107900B4 (en) | Method and device for determining the edge of a measurement object in optical measurement technology | |
DE102012216908A1 (en) | A method using image correlation for determining position measurements in a machine vision system | |
DE102017211328A1 (en) | image measuring instrument | |
DE102015103785A1 (en) | Method and device for calibrating a camera | |
EP3557306A2 (en) | Autofocus with variable angle illumination | |
DE102007039982B3 (en) | Method for optical inspection and visualization of the optical knife values obtained from disc-shaped objects | |
DE102016008744A1 (en) | Image measuring apparatus, control program of such apparatus and non-volatile recording medium on which the control program is recorded | |
DE112021004793T5 (en) | Device for three-dimensional measurements | |
DE112018001600T5 (en) | SYSTEM AND METHOD FOR 3D PROFILE DETERMINATION USING A MODEL-BASED PEAK SELECTION | |
DE102004058655A1 (en) | Two dimensional coordinate geometry or structure measurement for object, uses image processing, combines partial images to produce results with equidistant pixels | |
DE102014202977A1 (en) | Determination of coordinates of a workpiece using a coordinate measuring machine | |
DE102018105794B4 (en) | Representation of an object using shadows |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R002 | Refusal decision in examination/registration proceedings | ||
R006 | Appeal filed | ||
R016 | Response to examination communication | ||
R125 | Request for further processing filed | ||
R126 | Request for further processing allowed | ||
R007 | Decision rectified on appeal | ||
R016 | Response to examination communication | ||
R082 | Change of representative |
Representative=s name: PATENTANWAELTE OLBRICHT, BUCHHOLD, KEULERTZ PA, DE |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R082 | Change of representative |
Representative=s name: PATENTANWAELTE OLBRICHT, BUCHHOLD, KEULERTZ PA, DE |