AT509970B1 - Verfahren zur aufnahme von bildern von gegenständen - Google Patents

Verfahren zur aufnahme von bildern von gegenständen Download PDF

Info

Publication number
AT509970B1
AT509970B1 ATA980/2010A AT9802010A AT509970B1 AT 509970 B1 AT509970 B1 AT 509970B1 AT 9802010 A AT9802010 A AT 9802010A AT 509970 B1 AT509970 B1 AT 509970B1
Authority
AT
Austria
Prior art keywords
image
line
image sensor
pixel sensors
images
Prior art date
Application number
ATA980/2010A
Other languages
English (en)
Other versions
AT509970A1 (de
Original Assignee
Ait Austrian Inst Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ait Austrian Inst Technology filed Critical Ait Austrian Inst Technology
Priority to ATA980/2010A priority Critical patent/AT509970B1/de
Priority to DE102011102777.0A priority patent/DE102011102777B4/de
Publication of AT509970A1 publication Critical patent/AT509970A1/de
Application granted granted Critical
Publication of AT509970B1 publication Critical patent/AT509970B1/de

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00795Reading arrangements
    • H04N1/00827Arrangements for reading an image from an unusual original, e.g. 3-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/48Increasing resolution by shifting the sensor relative to the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/236Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0081Image reader

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

Die Erfindung betrifft einen Bildsensor zur Aufnahme von relativ zu ihm bewegten Gegenständen (3), umfassend eine Anzahl von rasterförmig in Zeilen (23) und Spalten (24) angeordneten Pixelsensoren (22) sowie ein Abbildungssystem (25) mit einer optischen Achse (27), das den Gegenstand (3) auf die Pixelsensoren (22) abbildet, wobei die innerhalb derselben Zeile (23) des Bildsensors (2) liegenden Pixelsensoren (22) jeweils denselben Abstand von einer zur optischen Achse normal liegenden Ebene (28) aufweisen und die Zeilen von Pixelsensoren (22) zu der Ebene (28) jeweils unterschiedlichen Abstand aufweisen.

Description

Beschreibung [0001] Die Erfindung betrifft ein Verfahren zur Aufnahme von Bildern von Gegenständen gemäß dem Oberbegriff des Patentanspruchs 1.
[0002] Weiters betrifft die Erfindung einen Bildsensor zur Aufnahme von relativ zu ihm bewegten Gegenständen gemäß dem Oberbegriff des Anspruchs 4.
[0003] Bei der Aufnahme von dreidimensionalen Objekten oder Szenen mit einem Sensorsystem besteht das Problem eines begrenzten Schärfentiefebereichs, d.h. nur Teile der abgebilde-ten Szene erscheinen scharf. Der Schärfentiefebereich kann durch Änderung der optischen Parameter, d.h. Verkürzung der Brennweite, durch Verkleinerung der Blendenöffnung oder durch Vergrößerung des Objektabstandes erhöht werden. Alle diese Maßnahmen sind bei optischen Inspektionssystemen, die durch hohe Auflösung und hohe Geschwindigkeiten einer Relativbewegung zwischen Sensor und Objekt gekennzeichnet sind, jedoch nicht zielführend.
[0004] Ziel der Erfindung ist es, ein Verfahren bzw. einen Bildsensor zu schaffen, mit denen Objekte, die sich bei ihrer Relativbewegung gegenüber dem Sensor in unterschiedlichen Abständen vom Sensor befinden, stets scharf aufzunehmen und den Schärfentiefebereich des Sensorsystems zu erhöhen. Insbesondere ist es Aufgabe der Erfindung, Gegenstände in gleichmäßiger Schärfe aufzunehmen, selbst wenn diese Gegenstände unterschiedliche Teilbereiche aufweisen, die in jeweils unterschiedlichen Normalabständen vom Sensor relativ zu diesem bewegt werden.
[0005] Bei bekannten Ausführungsformen des Standes der Technik ist der Schärfentiefebereich relativ gering; um eine scharfe Abbildung der aufzunehmenden Gegenstände zu erhalten, ist es somit erforderlich, dass sich die aufzunehmende Oberfläche des Gegenstands in einem relativ schmalen Bereich bewegt. Diese Anforderung kann mitunter nur durch eine aufwendige Optik ausreichend erfüllt werden.
[0006] Aus dem Stand der Technik ist die deutsche Patentanmeldung DE 102005000980 A1 bekannt. Beschrieben ist ein mit einer Abbildungsvorrichtung versehenes, elektronisches Gerät, das eine Aufnahmeoptik, die ein Objektbild erzeugt, und eine Bildaufnahmevorrichtung aufweist, die einen Lichtempfangsbereich hat und Bildpixelsignale aus dem in dem Lichtempfangsbereich erzeugten Objektbild erzeugt. Der Lichtempfangsbereich ist gegenüber einer zur optischen Achse senkrechten Richtung in einem vorgegebenen Winkel geneigt. Das elektronische Gerät hat eine Verarbeitungseinheit, die ein Schärfenbild aus dem Objektbild in Form von Schärfenbilddaten auf Grundlage der Bildpixelsignale extrahiert, eine Verarbeitungseinheit, welche die Schärfenbilddaten in einen Speicher aufnimmt, und eine Verarbeitungseinheit, die das Schärfenbild auf einer Anzeige entsprechend den Schärfebilddaten darstellt.
[0007] Weiters ist aus dem Stand der Technik eine weitere Veröffentlichung EP 1334 888 A1 bekannt, die ein Feuchtigkeitsmesssystem für ein Fahrrad zeigt. Dieses System weist einen Bildsensor mit einem Array von Sensorpixeln auf, wobei die Sensorpixel eine bildgebende Fläche bilden und der Bildsensor dazu ausgebildet ist, auf einem Fahrzeug derart angeordnet zu werden, dass die bildgebende Fläche im Winkel zur Bildebene einer Linse steht.
[0008] Die Erfindung löst die Aufgabe bei einem Bildsensor der eingangs genannten Art mit den kennzeichnenden Merkmalen des Patentanspruchs 1.
[0009] Erfindungsgemäß ist bei einem Bildsensor zur Aufnahme von relativ zu ihm bewegten Gegenständen, umfassend eine Anzahl von rasterförmig in Zeilen und Spalten angeordneten Pixelsensoren sowie ein Abbildungssystem mit einer optischen Achse, das den Gegenstand auf die Pixelsensoren abbildet vorgesehen, dass die innerhalb derselben Zeile des Bildsensors liegenden Pixelsensoren jeweils denselben Abstand von einer zur optischen Achse normal liegenden Ebene aufweisen und die Zeilen von Pixelsensoren zu der Ebene jeweils unterschiedlichen Abstand aufweisen.
[0010] Hierdurch wird ein Bildsensor mit einem erweiterten Schärfentiefebereich erreicht, der für die Aufnahme von Gegenständen eingesetzt werden kann, deren Abstand vom Bildsensor a priori unbekannt ist.
[0011] Weiters kann vorgesehen sein, dass die Pixelsensoren entlang einer Spalte des Bildsensors ansteigenden und/oder absteigenden Abstand von der Ebene aufweisen.
[0012] Durch diese besondere Ausgestaltung des Bildsensors kann eine besonders einfache Detektion vorgenommen werden.
[0013] Es ist bei einer solchen Anordnung insbesondere möglich, ein Gesamtbild eines Gegenstands durch Zusammensetzen eines Bildes aus einzelnen mit dem Bildsensor aufgenommenen Zeilenbildern zu erreichen.
[0014] Weiters kann ein die Sehstrahlen ablenkendes vorgeschaltetes Abbildungssystem, insbesondere eine Sammellinse, vorgesehen sein.
[0015] Dies ermöglicht je nach Anwendungsbereich die exakte Positionierung des Schärfentiefebereichs, innerhalb dessen mit dem Bildsensor scharfe Gegenstandsbilder aufgenommen werden können.
[0016] Weiters kann vorgesehen sein, dass eine durch die Pixelsensoren einer Zeile verlaufende Gerade gegenüber der Ebene um zumindest 2°, insbesondere maximal 10°, vorzugsweise zwischen 3° und 5°, verkippt ist.
[0017] Durch diese Maßnahme wird der Aufbau eines erfindungsgemäßen Bildsensors erleichtert.
[0018] Liegt der Verkippungswinkel unterhalb von 10°gegenüber der Relativbewegung, werden Verzerrungen durch die vorgeschaltete Optik und den schrägen Lichteinfall auf den Sensor weitestgehend vermieden.
[0019] Liegt der Verkippwinkel zwischen 3° und 5°, kann bei geringen Verzerrungen eine besonders gute Schärfentiefe erreicht werden.
[0020] Vorteilhafterweise sieht die Erfindung eine Vorrichtung umfassend einen erfindungsgemäßen Bildsensor vor, die eine dem Bildsensor nachgeschaltete Auswerteschaltung enthält. Die Auswerteschaltung umfasst einen dem Bildsensor nachgeschalteten Zwischenspeicher zum Ablegen von mit dem Bildsensor ermittelten Intensitätswerten, eine dem Zwischenspeicher nachgeschaltete Bewertungseinheit, die auf die Intensitätswerte der Pixelsensoren einer Bildzeile ein Schärfemaß anwendet und dieses an ihrem Ausgang zur Verfügung hält, eine dem Zwischenspeicher und der Bewertungseinheit nachgeschaltete Vergleichseinheit, die die vom selben Teilbereich des Gegenstandes aufgenommenen Zeilenbilder in Hinblick auf ihr Schärfemaß vergleicht und dieses jeweils an ihrem Ausgang zur Verfügung hält und einen der Vergleichseinheit nachgeschalteten Bildspeicher, in dem die von der Vergleichseinheit ermittelten Zeilenbilder abgelegt zu einem Bild zusammengefügt sind.
[0021] Die Erfindung löst die Aufgabe bei einem Verfahren der eingangs genannten Art mit den kennzeichnenden Merkmalen des Patentanspruchs 6.
[0022] Die Erfindung betrifft ein Verfahren zur Aufnahme von Bildern von Gegenständen mit einem Bildsensor oder einer Vorrichtung gemäß einem der vorangehenden Ansprüche, [0023] a) wobei der Gegenstand relativ zum Bildsensor parallel zur Spaltenrichtung bewegt wird, [0024] b) wobei zu jedem Aufnahmezeitpunkt mit jeder der Zeilen jeweils ein Zeilenbild des Gegenstands aufgenommen wird, und [0025] c) wobei die Aufnahmezeitpunkte vorgegeben werden, sodass gleiche Teilbereiche, insbesondere Gegenstandszeilen, des durch die Relativbewegung durch den Aufnahmebereich des Bildsensors geführten Gegenstands jeweils zu aufeinander folgenden Aufnahmezeitpunkten auf aufeinander folgende bzw. benachbarte Zeilen von Pixelsensoren des Bildsensors abgebildet werden. Dabei ist vorgesehen, dass [0026] d) das Zeilenbild jeder der Zeilen ausgewertet wird, indem auf dieses Zeilenbild eine Bewertungsfunktion, insbesondere ein Schärfemaß, angewendet wird und als Resultat eine Bewertung ermittelt wird, mit der das Zeilenbild, insbesondere in Hinblick auf seine Schärfe, beurteilt wird, [0027] e) die Bewertung der Zeilenbilder für jeden aufgenommenen Teilbereich miteinander verglichen werden und schließlich [0028] f) für jeden Teilbereich des Gegenstands das Zeilenbild mit der minimalen oder maximalen Bewertung ausgewählt wird und aus den einzelnen ausgewählten Zeilenbildern der Teilbereiche des Gegenstands ein Flächenbild zusammengesetzt wird.
[0029] Erfindungsgemäß wird erreicht, dass relativ zum Sensor bewegte Gegenstände mit höherer Schärfentiefe geprüft werden können, ohne dass dabei eine adaptiv verstellbare Optik vor dem Sensor erforderlich ist.
[0030] Eine weitere besondere Ausführungsform des erfindungsgemäßen Verfahrens sieht vor, dass jedes der ausgewählten Zeilenbilder derart skaliert wird, dass gleich große Teilbereiche des Gegenstands auf gleich große Bildbereiche abgebildet werden.
[0031] Hierdurch wird erreicht, dass Gegenstände, die vom Sensor bei ihrer Aufnahme weiter entfernt sind, gleich groß erscheinen wie Gegenstände, die bei ihrer Aufnahme dem Sensor näher sind.
[0032] Vorzugsweise kann vorgesehen sein, dass [0033] a) vorab eine Zeile des Bildsensors ausgewählt wird und diese als Referenzzeile festgelegt wird, [0034] b) die Bilder desselben Teilbereichs des Gegenstands mit sämtlichen Zeilen von Pixelsensoren ermittelt werden, [0035] c) jeweils eine Transformation, insbesondere durch Streckung und Verschiebung des Zeilenbilds, bestimmt wird, die das jeweilige Zeilenbild auf das Zeilenbild der Referenzzeile abbildet und diese Transformation der jeweiligen Zeile zuordnet, [0036] d) nach der Auswahl des schärfsten Zeilenbilds dieses ausgewählte Zeilenbild derjenigen Transformation, die der Zeile, mit der das ausgewählte Zeilenbild aufgenommen worden ist, zugeordnet ist, unterzogen wird, und [0037] e) die so erzielten Zeilenbilder zu einem Flächenbild zusammengesetzt werden.
[0038] Hierdurch kann selbst für Gegenstände, die Teilbereiche mit unterschiedlichem Abstand zum Bildsensor aufweisen, ein scharfes Abbild sämtlicher Bereiche erzielt werden.
[0039] Die Erfindung wird anhand eines Beispiels ohne Einschränkung des allgemeinen erfinderischen Gedankens dargestellt.
[0040] Fig. 1a zeigt eine Ausführungsform der Erfindung mit einem Transportband und ei nem Bildsensor.
[0041] Fig. 1b zeigt eine alternative Ausführungsform der Erfindung zur Oberflächenanalyse von Eisenbahnschienen.
[0042] Fig. 2 zeigt die Anordnung der Pixelsensoren auf einer geneigten Sensorebene in einem Abbildungssystem mit einer Sammellinse.
[0043] Fig. 3 zeigt schematisch den Schärfentiefenbereich und den Tiefenschärfenbereich bei einem Abbildungssystem mit einer Sammellinse.
[0044] Fig. 4 zeigt schematisch die Abbildung eines Gegenstands mit einer Sammellinse.
[0045] Fig. 5 zeigt schematisch die unterschiedlichen erzielbaren Schärfentiefenbereiche mit einem Abbildungssystem mit einer Sammellinse.
[0046] Fig. 6 zeigt schematisch die rasterförmige Anordnung der Pixelsensoren auf der
Sensorebene.
[0047] Fig. 7 zeigt schematisch eine Schaltung zur Auswertung der mit dem Bildsensor aufgenommenen Bilddaten.
[0048] In Fig. 1a ist ein Transportband 1 dargestellt, auf dem ein Gegenstand 3 transportiert wird. Der Gegenstand 3 liegt auf dem Transportband 1 auf und weist über seine Längserstreckung in Transportrichtung R des Transportbands 1 unterschiedliche Höhe bzw. Dicke auf.
[0049] Ziel der Erfindung ist es, auf möglichst einfache Weise ein Abbild des Gegenstands 3 zu schaffen, wobei es zweckmäßig ist, die Aufnahme unmittelbar im Zuge der Relativbewegung des Gegenstands 3 zu erhalten. Zu diesem Zweck ist auf einen Teil des Transportbands 1 ein Bildsensor 2 gerichtet, der Gegenstände 3, die sich auf dem Transportband 1 befinden und die mittels des Transportbands 1 transportiert bzw. gefördert werden, erfasst und ein Abbild dieser Gegenstände 3 erstellt. Die Abbildung wird vorteilhafterweise derart erstellt, dass einzelne Aufnahmen des Gegenstands 3, die während dessen Relativbewegung angefertigt worden sind, typischerweise einzelne Zeilenbilder des Gegenstands 3, zu einem Flächenbild zusammengesetzt werden. Dies erlaubt die Verwendung relativ einfach aufgebauter Sensoren und bewirkt einen annähernd gleichmäßigen anfallenden Datenstrom an Bilddaten.
[0050] Der Bildsensor 2 weist eine Anzahl von in Zeilen 23 und Spalten 24 rasterförmig angeordneten Pixelsensoren 22, dargestellt in Fig. 6, auf. Dem Bildsensor 2 ist ein Abbildungssystem 25 vorgeschaltet, das eine optische Achse 27 aufweist. Diese optische Achse 27 steht im vorliegenden Fall - dies ist jedoch keineswegs erforderlich - normal zur Gegenstandsebene des Transportbands 1. In dem in Fig. 2 dargestellten Beispiel umfasst das Abbildungssystem eine Konvexlinse bzw. Sammellinse 25’. Die optische Achse 27’ der Konvexlinse entspricht dabei der optischen Achse 27 des Abbildungssystems. Es können jedoch - je nach Anwendungsfall -unterschiedlich komplex aufgebaute Abbildungssysteme eingesetzt werden, um eine auf den jeweiligen Anwendungsfall angepasste Abbildung zu ermöglichen.
[0051] Anstelle eines Transportbandes 1 kann jede Vorrichtung, wie in Fig. 1b dargestellt, herangezogen werden, die eine Relativbewegung zwischen dem Bildsensor 2 und dem aufzuzeichnenden Gegenstand 3 ermöglicht. So können auch Schienen 301 untersucht werden, indem der Bildsensor 2 auf einem Schienenfahrzeug 200 angebracht und auf die Schienen 301 gerichtet ist. Das Schienenfahrzeug 200 bewegt sich auf den Schienen 301 und weist eine Halteeinrichtung 201 zur Halterung eines Bildsensors 2 auf. Der Bildsensor 2 ist auf die Schienen 301 ausgerichtet und nimmt Bilder der Oberfläche der Schienen 301 auf.
[0052] Ganz allgemein kann dieses Vorgehen für unterschiedlichste Anwendungen eingesetzt werden. Wesentlich ist dabei lediglich, dass eine Relativbewegung zwischen dem Bildsensor 2 und dem jeweils aufzunehmenden Gegenstand 3, etwa den Schienen 301, stattfindet.
[0053] Im folgenden wird die Abbildung mittels des Abbildungssystems im Detail diskutiert.
[0054] Bei der Aufnahme von Gegenständen unterschiedlicher Höhe bzw. Dicke stellt sich das Problem des endlichen Schärfentiefebereiches s, d.h. nur Teile der im Aufnahmebereich 21 des Bildsensors 2 befindlichen Szene, insbesondere des abgebildeten Gegenstands 3, erscheinen scharf. Das Abbildungssystem 25 des Bildsensors 2 bündelt Licht durch Fokussierung, d.h. die Lichtstrahlen von einem Bereich des Gegenstands 3 werden auf einen Bereich in der Fokusebene, die üblicherweise in einer Ebene senkrecht zur optischen Achse verläuft, abgebildet.
[0055] Das Bild aller Gegenstandsbereiche, die so auf die Fokusebene abgebildet werden, ist scharf. Die Schärfentiefe s ist jener Bereich vor und hinter dem aufzunehmenden Gegenstand, in dem bei vorgegebener Bildebene ein aufgenommenes Bild scharf erscheint, siehe Fig. 3. Zur numerischen Bestimmung des Schärfentiefe s wird ein Unschärfekreis definiert, dessen Durchmesser d typischerweise im Bereich der Pixelgröße liegt. In die Berechnung der Schärfentiefe s fließen neben dem Durchmesser des Unschärfekreises die Brennweite/, die Blendenzahl F, das ist das Öffnungsverhältnis F = f/D, wobei D der Blendendurchmesser ist, und die Objektdis- tanz a ein. Die vordere Schärfentiefe sv und hintere Schärfentiefe sh sind gegeben durch:
[0056] Die Schärfentiefe s = sv + sh ist bei kurzen Brennweiten/hoch und bei langen Brennweiten / niedrig, bei kleinen Blendenöffnungen mit Durchmesser D hoch und großen Blendenöffnungen mit Durchmesser D niedrig, bei großen Abständen a hoch und bei kleinen Abständen a niedrig.
[0057] Die Tiefenschärfe t ist jener Bereich vor und hinter der Bildebene, in dem der Unschärfekreis mit Durchmesser d noch scharf erscheinen würde. Die Tiefenschärfe t ist gegeben durch t = dF.
[0058] Die Tiefenschärfe t ist im Gegensatz zur Schärfentiefe s symmetrisch um den Fokuspunkt. Die vordere Schärfentiefe sv ist kleiner als die hintere Schärfentiefe sh.
[0059] Der Abbildungsmaßstab m = h/w, d.h. die Vergrößerung oder Verkleinerung eines Objektes, ist ein weiterer wichtiger Parameter eines optischen Systems, siehe Fig. 4.
[0060] Im Allgemeinen lässt sich unter den Aufnahmebedingungen für Hochgeschwindigkeitsanwendungen von Bildsensoren, z.B. Zeilenkameras, wegen der hohen Geschwindigkeiten und damit u.a. großer Blendenöffnung oft keine ausreichend große Schärfentiefe s einstellen. Dieses Problem tritt vorzugsweise dann auf, wenn sich nicht alle Bereiche der aufgenommenen Oberfläche des abzubildenden Gegenstands 3 in gleichem Abstand zum Bildsensor 2 befinden. Dies kann sowohl bei Gegenständen mit unterschiedlicher Dicke als auch bei blattförmigen Gegenständen, die im Zuge Ihrer Bewegung geknickt oder gewölbt werden, der Fall sein. Insbesondere ist dies bei Geldscheinen der Fall, die im Zuge Ihrer Aufnahme nur einseitig gehalten in einem Teilbereich der Transporteinrichtung transportiert werden, um eine bessere Sicht auf den Geldschein zu gewährleisten.
[0061] Beispielsweise bei Gegenständen 3 mit unterschiedlicher Dicke bzw. Höhe, gemessen in Richtung oder parallel zur optischen Achse des Abbildungssystems 25 ist es nachteilig, wenn das optische Abbildungssystem 25 nur einen relativ kleinen Schärfentiefebereich s = sv + sh umfasst, innerhalb dessen die Abbildung eine ausreichende Bildschärfe aufweist. Überschreiten die Schwankungen des Unterschieds der aufgenommenen Oberfläche des Gegenstands 3 gemessen in Richtung oder parallel zur optischen Achse des Abbildungssystems 25 den Schärfentiefebereich S, sind die Aufnahmen des jeweils aufgenommenen Bereichs des Gegenstands 3 unscharf.
[0062] Die Erfindung ermöglicht die Lösung des Problems, indem die einzelnen Pixelsensoren 22 unterschiedlichen Normalabstand zu einer Fläche normal zur optischen Achse 27 des Abbildungssystems 25 aufweisen. Insbesondere sind die einzelnen Pixelsensoren 22 in einer Ebene angeordnet, die gegenüber einer normal zur optischen Achsen 27 des Abbildungssystems 25 stehenden Ebene verkippt ist. Dabei weisen die Pixelsensoren 22, die in derselben Zeile 23 liegen jeweils denselben Abstand von der Ebene auf. Die Pixelsensor 22 entlang einer Spalte 24 weisen vorteilhafterweise entlang der jeweiligen Spalte 24 aufsteigenden oder absteigenden Abstand von der Ebene auf. Die Pixelsensor 22 sind in diesem Ausführungsbeispiel in einer Ebene angeordnet. Eine durch die Pixelsensor 22 einer Spalte 24 verlaufenden Gerade ist um zumindest 2°, maximal 10°, vorzugsweise zwischen 3° und 5°gegeneinander verkippt.
[0063] Die Pixel können entweder auf einem gemeinsamen Träger in Form eines Flächensensors angeordnet sein. Alternativ kann auch eine Anzahl von einzelnen Zeilensensoren herangezogen werden, die jeweils eine Zeile 23 von Pixelsensoren 22 umfassen.
[0064] Durch die Verwendung mehrerer Zeilen 23, die gleichzeitig aufgenommen werden, lässt sich der Abstandsbereich vom Bildsensor 2, innerhalb dessen scharfe Bilder erzielbar sind, vergrößern. Die Pixelsensoren 22 sind im folgenden Ausführungsbeispiel auf einer gemeinsamen Sensorebene 29 angeordnet.
[0065] Durch Schrägstellen der Sensorebene 29 gegenüber der optischen Achse, d.h. Drehung der Sensorebene 29 um den Winkel a, dargestellt in Fig. 5, um eine zu den Zeilen 23 parallele Drehachse, lassen sich unterschiedliche Bilddistanzen für die Zeilen 23 einstellen. Zeilen 23, die zur Sammellinse 25 geneigt sind bilden dann Bereiche des Gegenstands 3, die vom Bildsensor 2 weiter entfernt sind, scharf ab. Von der Sammellinse 25 weg geneigte Zeilen 23 des Bildsensors 2 bilden Gegenstände 3, die näher beim Bildsensor 2 liegen, scharf ab.
[0066] Die Neigung der Sensorebene 29 wird vorteilhafterweise durch den geforderten Schärfetiefebereich
und der Anzahl n der verwendeten Sen sorzeilen festgelegt. Der sich so ergebende Tiefenschärfebereich ist folglich
. Aus der Pixelgröße p und der Anzahl Sensorzeilen n lässt sich sodann der notwendige Verdrehwinkel des Sensors nach
berechnen.
[0067] Durch diesen Aufbau wird es möglich, dass Pixelsensoren 22, die in unterschiedlichen Zeilen 23 liegen, unterschiedliche Schärfentiefebereiche aufweisen. Der Schärfentiefenbereich S des Bildsensors 2, innerhalb dessen scharfe Bilder aufgenommen werden können wird somit wesentlich, wie in Fig. 5 dargestellt, erhöht.
[0068] Wird der Gegenstand durch den Aufnahmebereich 21 des Bildsensors 2 bewegt, werden jeweils Bereiche des Gegenstands 3, im folgenden Gegenstandszeilen 31 genannt, auf jeweils eine Zeile 23 von Pixelsensoren 22 abgebildet. Im Zuge der Bewegung des Gegenstands 3 relativ zum Bildsensor 2 gelangt jede Gegenstandszeile 31 in den Aufnahmebereich einer jeden Zeile 23 von Pixelsensoren. Wie bereits erwähnt weisen die Pixelsensoren 22 der einzelnen Zeilen 23 unterschiedliche Schärfentiefenbereiche auf. Wird nun ein Gegenstand 3 durch den Aufnahmebereich 21 des Bildsensors 2 bewegt, wird ein und dieselbe Gegenstandszeile 31 des Gegenstands 3 von sämtlichen Zeilen 23 des Bildsensors 2 erfasst. Da jede Zeile 23 von Pixelsensoren 22 einen unterschiedlichen Schärfentiefenbereich aufweist, sind die Aufnahmen der Gegenstandszeile 32 unterschiedlich scharf. Diese Aufnahmen werden zwischengespeichert, wobei auf jede einzelne der Aufnahmen eine Funktion zur Bestimmung der Schärfe, auch Schärfemaß M genannt, angewendet wird.
BEWERTUNG DER BILDZEILEN
[0069] In der Literatur wurden eine Vielzahl von Schärfemaßen definiert, die alle auf der Auswertung lokaler statistischer Kenngrößen beruhen. Diese Schärfemaße M sind z.B. lokale mittlere Abweichung vom Mittelwert, lokale Varianz, Tenengrad (eine Kombination von Sobel-Operatoren), Laplace-Operator, FFT-basierte, Sum-Modulus-Differenz und lokales Variations-Histogramm.
[0070] Der Tenengrad hat sich dabei als Schärfemaß effizient berechenbar und gute Ergebnisse liefernd herausgestellt. Der Tenengrad ST ist definiert als
wobei T ein
Schwellenwert ist, bei W handelt es sich um ein Bildfenster und die Kantenstärke E berechnet sich aus
Die horizontalen und vertikalen Sobel-Operatoren sind gegeben durch
[0071] Alternativ bzw. zusätzlich zum Schärfemaß M lassen sich auch andere Gütekriterien betrachten, z. B. Reflexionsvermeidung. An Objekten mit spiegelnder Oberfläche ergibt sich von unterschiedlicher Beobachtungsposition unterschiedliches Rückstrahlungsverhalten. Mittels eines entsprechenden Kriteriums kann z.B. spiegelnde Reflexion unterdrückt werden. Als Kriterium für Reflexionsvermeidung kann beispielsweise für jedes Pixels der kleinste Grauwert, für den auch das Schärfemaß unter einem Schwellwert liegt, herangezogen werden.
[0072] Allgemeiner kann anstelle eines Schärfemaßes somit eine Bewertungsfunktion M verwendet werden, die unterschiedliche Aspekte der aufgenommenen Bildzeile berücksichtigt. Dabei wird nicht ausschließlich auf die Schärfe sondern, wie bereits erwähnt auch auf eventuell vorhandene Bildreflexionen abgestellt.
[0073] Auf sämtliche Aufnahmen derselben Gegenstandszeile 31 wird dieselbe Bewertungsfunktion M angewendet und man erhält jeweils für jede Gegenstandszeile 31 eine Bewertung m. Die einzelnen für die Aufnahme derselben Gegenstandszeile ermittelten Bewertungen werden miteinander verglichen. Schließlich wird diejenige Aufnahme ausgewählt, die die höchste bzw. niedrigste Bewertung m aufweist, je nachdem, ob ein numerisch hoher oder niedriger Wert jeweils hohe Bildqualität indiziert.
[0074] Ein derartiges Vorgehen kann für sämtliche der Gegenstandszeilen 31 eines Gegenstands 3 vorgenommen werden.
[0075] Es ist dabei vorteilhaft, dass die Aufnahmezeitpunkte, zu denen die einzelnen Aufnahmen durchgeführt werden, so aufeinander abgestimmt sind, dass gleiche Gegenstandszeilen 32 bzw. gleiche Teilbereiche des Gegenstands 3 durch die Relativbewegung jeweils zu aufeinander folgenden Aufnahmezeitpunkten auf aufeinander folgende bzw. benachbarte Zeilen 23 des Bildsensors 2 abgebildet werden.
KORREKTUR DER VERZERRUNG
[0076] Im folgenden Ausführungsbeispiel der Erfindung wird eine zusätzliche Verzerrungskorrektur verwendet, die Verzerrungen betrifft, die dadurch entstehen, dass einzelne Gegenstandszeilen 31 dem Bildsensor 2 näher sind als andere Gegenstandszeilen 31. Näher beim Bildsensor 2 befindliche Gegenstandszeilen 31 werden typischerweise größer dargestellt als Gegenstandszeilen 31, die weiter vom Bildsensor 2 entfernt sind. Zur Ableitung eines gleichmäßig scharfen Bildes werden, entsprechend der Schärfefunktion, in Transportrichtung versetzte Zeilen ausgewählt. Beide Effekte können in einem der Schärfebestimmung nachgelagerten Schritt eliminiert werden.
[0077] Um dies zu bewerkstelligen, kann beispielsweise ein Gegenstand 3 mit dem Bildsensor 2 aufgenommen werden, wobei ein- und dieselbe Gegenstandszeile 31 von jeder der Zeilen 23 von Pixelsensoren 22 erfasst wird. Obwohl nicht alle Zeilen 23 von Pixelsensoren 22 gleich scharf aufgenommene Zeilenbilder liefern, ist es möglich, die Position und Größe der Gegenstandszeile 31 auf den einzelnen Zeilenbildern zu ermitteln. Es wird eine Zeile 23 als Referenzzeile 23’ ausgewählt und festgelegt; diese Auswahl ist völlig willkürlich, beispielsweise kann die Zeile gewählt werden, in der das Abbild am kleinsten, am größten oder am schärfsten erscheint. Die übrigen Zeilenbilder werden vorzugsweise einer Transformation unterworfen, beispielsweise einer linearen Transformation, bei der das jeweilige Bild verschoben und gestreckt wird. Es wird für jede der Zeilen eine Transformation gesucht, die das Abbild der Gegenstandszeile 31 der Zeile 23 möglichst gut in das Abbild der Referenzzeile 23’ überführt. Eine solche Transformation kann automatisiert aufgefunden werden, beispielsweise durch Optimierungs- oder Fitting-Verfahren. Dieses Vorgehen kann vorab, beispielsweise als Kalibrierungsschritt, durchgeführt werden. Jeder Zeile 23 wird jeweils eine Transformation zugeordnet, die ein von dieser Zeile 23 aufgenommene Bild in ein Bild überführt, das einem mit der Referenzzeile 23’ aufgenommenen Bild entspricht. Der Unterschied zwischen einem so transformierten Bild und dem mit der Referenzzeile 23’ selbst aufgenommenen Bild liegt in der Bildschärfe, wobei das mit der Referenzzeile 23’ aufgenommene Bild jeweils eine geringere Bildschärfe aufweist als das ausgewählte Zeilenbild mit dem jeweils besten Bildschärfe.
[0078] Die Transformationen sind sodann für sämtliche nachfolgenden Detektionen gültig. Es ist jedoch auch möglich die Transformation für jedes einzelne aufgenommene Zeilenbild erneut durch einen entsprechenden Kalibrierungsschritt zu ermitteln. Dies liefert verbesserte Ergebnisse, benötigt jedoch eine zusätzliche Anzahl an Berechnungen.
[0079] Im folgenden wird der Zusammenhang der Verzerrung des aufgenommenen Bilds mit der Schrägstellung der Sensorebene 29 erläutert. Die durch das Schrägstellen der Sensorebene 29 bewirkte Projektion kann analytisch durch eine warping-Transformation modelliert werden, bei der sogenanntes backward mapping verwendet wird, d.h. für jeden Bildpunkt des aufgenommenen Abbilds wird durch lineare Interpolation der Helligkeits- bzw. Intensitätswerte der Bildpunkte des Pixelsensors 22 ein Helligkeits- bzw. Intensitätswert bestimmt. Die Koeffizienten der warping-Transformation hängen von der Verdrehung der Sensorebene 29 ab und können für gegeben Verdrehwinkel vorab berechnet werden.
[0080] Jedes so aufgenommene Abbild weist eine Verzerrung mit einem über das Bild veränderlichen Maßstab auf. Der Abbildungsmaßstab ist allgemein gegeben durch den folgenden Zusammenhang m = ( f -b-z sin a)/f und hängt von der jeweiligen Position des Bildpunkts im Bild bzw. des mit dem Bildpunkt korrespondierenden Pixelsensors auf der Sensorebene ab. Der Abbildungsmaßstab des Bildes ist ergibt sich folglich zu m = ( f -b-ip s\n a)/p, wobei i den Bildindex und p die Pixelgröße bezeichnen.
[0081] Vergleicht man die Bilder, die mit unterschiedlichen Zeilen 23 des Bildsensors 2 aufgenommen worden sind, erscheint deren korrespondierender Inhalt, d. h. eine Abbildung desselben Gegenstandsbereichs bzw. derselben Gegenstandszeile 31, verschoben und gestreckt bzw. gestaucht. Die sich zu einem gewissen Zeitpunkt im Aufnahmebereich einer Zeile 23 befindliche Gegenstandszeile 31 befindet sich abhängig von der Bewegungsrichtung zum einem späteren Zeitpunkt im Aufnahmebereich einer weiteren Zeile 23 des Bildsensors 2.
[0082] Um Deckungsgleichheit der Bilder zu erreichen, ist deshalb nach dem warping, d. h. nach dem Strecken oder Stauchen des aufgenommenen Zeilenbilds, noch eine Verschiebung bzw. Translation des aufgenommenen Zeilenbildes notwendig. Dies kann mit der folgenden Manipulationsvorschrift bewerkstelligt werden: gt(x,y) = g(x,y + i), wobei es sich bei gt(x,y) um einen bestimmten Objektabschnitt handelt, welcher sich zum Zeitpunkt t unter der Zeile i = 0 befindet. Der selbe Objektabschnitt befindet sich, abhängig von der Bewegungsrichtung, zum Zeitpunkt t + 1 unter der Zeile i = -1 bzw. / = +1.
[0083] Um aus den mit den Pixelsensoren 22 ermittelten Helligkeits- bzw. Intensitätswerten ein Bild zu erzeugen, ist dem Bildsensor 2 eine Auswerteschaltung, dargestellt in Fig. 7, nachgeschaltet. Die Auswerteschaltung weist einen Zwischenspeicher 41 auf, dem die von den Pixelsensoren 22 ermittelten Helligkeits- bzw. Intensitätswerte zugeführt sind. Sämtliche Helligkeits- bzw. Intensitätswerte werden mit im Zwischenspeicher 41 abgelegt, wobei für jede Gegenstandszeile 31 jeweils so viele Abbilder zwischengespeichert werden, wie Zeilen 23 von Pixelsensoren 22 vorhanden sind. Dem Zwischenspeicher 41 ist eine Bewertungseinheit 42 nachgeschaltet, die für jedes mit jeweils einer Zeile 23 von Pixelsensoren 22 aufgenommenes Zeilenbild jeweils mittels der Bewertungsfunktion M eine Bewertung m ermittelt. Die Bewertungseinheit 42 weist einen Ausgang auf, an dem das jeweils ermittelte Bewertung anliegt.
[0084] Diese Bewertung m wird den jeweiligen abgespeicherten Zeilenbildern zugeordnet, insbesondere wird im Zwischenspeicher 41 hierfür jeweils ein Speicherplatz im Speicherbereich eines Zeilenbilds reserviert. Dem Zwischenspeicher 41 und auch der Bewertungseinheit 42 ist eine Vergleichseinheit 43 nachgeschaltet, die die Zeilenbilder in Hinblick auf die ermittelten Bewertungen m, insbesondere Schärfemaße, miteinander vergleicht. Sie wählt dabei dasjenige Zeilenbild mit der höchsten Bewertung m bzw. Bildschärfe aus. Dies ist je nach Definition der Bewertungsfunktion M das Zeilenbild mit der jeweils kleinsten bzw. größten zugeordneten Bewertung m.
[0085] Gegebenenfalls kann eine, nicht dargestellte, Transformationseinheit vorgesehen werden, die das ausgewählte Zeilenbild, wie oben beschrieben transformiert.
[0086] Das ausgewählte Zeilenbild wird in einem Bildspeicher 44 abgelegt und bildet gemeinsam mit den übrigen ausgewählten Zeilenbildern der jeweiligen Gegenstandszeilen 31 das Abbild des Gegenstands 3.

Claims (9)

  1. Patentansprüche 1. Bildsensor zur Aufnahme von relativ zu ihm bewegten Gegenständen (3), umfassend eine Anzahl von rasterförmig in Zeilen (23) und Spalten (24) angeordneten Pixelsensoren (22) sowie ein Abbildungssystem (25) mit einer optischen Achse (27), das den Gegenstand (3) auf die Pixelsensoren (22) abbildet, sowie eine Vorrichtung, die eine Relativbewegung zwischen dem Bildsensor und dem jeweiligen bewegten Gegenstand (3) ermöglicht, dadurch gekennzeichnet, dass die innerhalb derselben Zeile (23) des Bildsensors (2) liegenden Pixelsensoren (22) jeweils denselben Abstand von einer zur optischen Achse normal liegenden Ebene (28) aufweisen und die Zeilen von Pixelsensoren (22) zu der Ebene (28) jeweils unterschiedlichen Abstand aufweisen.
  2. 2. Bildsensor nach Anspruch 1, dadurch gekennzeichnet, dass ein Transportband vorgesehen ist, mit dem der jeweilige Gegenstand (3) relativ zum Bildsensor förderbar ist und/oder, dass der Bildsensor ein Fahrzeug, insbesondere Schienenfahrzeug, aufweist, bei dessen Relativbewegung zu einem auf dem Boden liegenden Gegenstand (3) eine Relativbewegung zwischen dem Bildsensor und dem jeweiligen auf dem Boden befindlichen Gegenstand (3) ermöglichst ist.
  3. 3. Bildsensor nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Pixelsensoren (22) entlang einer Spalte (24) des Bildsensors (2) ansteigenden und/oder absteigenden Abstand von der Ebene (28) aufweisen.
  4. 4. Bildsensor nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das Abbildungssystem eine Sammellinse aufweist.
  5. 5. Bildsensor nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass eine durch die Pixelsensoren (22) einer Spalte verlaufende Gerade gegenüber der Ebene (28) um zumindest 2°, insbesondere maximal 10°, vorzugsweise zwischen 3° und 5°, verkippt ist.
  6. 6. Vorrichtung umfassend einen Bildsensor (2) nach einem der Ansprüche 1 bis 5, gekennzeichnet durch eine Auswerteschaltung (4), die dem Bildsensor (2) nachgeschaltet ist, umfassend a) einen dem Bildsensor (2) nachgeschalteten Zwischenspeicher (41) zum Ablegen von mit den Pixelsensoren (22) ermittelten Intensitätswerten, b) eine dem Zwischenspeicher (41) nachgeschaltete Bewertungseinheit (42), die auf die Intensitätswerte der Pixelsensoren (22) einer Zeile (23) jeweils eine Bewertungsfunktion (M), insbesondere ein Schärfemaß, anwendet und auswertet und das Resultat dieser Bewertungsfunktion (M) an ihrem Ausgang als Bewertung (m) zur Verfügung hält, c) eine dem Zwischenspeicher (41) und der Bewertungseinheit (42) nachgeschaltete Vergleichseinheit (43), die die vom selben Teilbereich, insbesondere von derselben Gegenstandszeile (31), des Gegenstandes (3) aufgenommenen Zeilenbilder in Hinblick auf ihre Bewertung (m) vergleicht, dasjenige Zeilenbild eines Gegenstandsbereichs auswählt, dessen Bewertung (m) die höchste Bildschärfe indiziert und dieses jeweils an ihrem Ausgang zur Verfügung hält und d) einen der Vergleichseinheit (43) nachgeschalteten Bildspeicher (44), in dem die von der Vergleichseinheit (43) ausgewählten Zeilenbilder abgelegt und zu einem Bild zusammengefügt vorliegen.
  7. 7. Verfahren zur Aufnahme von Bildern von Gegenständen (3) mit einem Bildsensor (2) oder einer Vorrichtung gemäß einem der vorangehenden Ansprüche, a) wobei der Gegenstand (3) relativ zum Bildsensor (2) parallel zur Spaltenrichtung bewegt wird, b) wobei zu jedem Aufnahmezeitpunkt mit jeder der Zeilen jeweils ein Zeilenbild des Gegenstands (3) aufgenommen wird, und c) wobei die Aufnahmezeitpunkte vorgegeben werden, sodass gleiche Teilbereiche, insbesondere Gegenstandszeilen (31), des durch die Relativbewegung durch den Aufnahmebe reich des Bildsensors (2) geführten Gegenstands (3) jeweils zu aufeinander folgenden Aufnahmezeitpunkten auf aufeinander folgende bzw. benachbarte Zeilen (23) von Pixelsensoren (22) des Bildsensors (2) abgebildet werden, dadurch gekennzeichnet, dass d) das Zeilenbild jeder der Zeilen (23) ausgewertet wird, indem auf dieses Zeilenbild eine Bewertungsfunktion (M), insbesondere ein Schärfemaß, angewendet wird und als Resultat eine Bewertung (m) ermittelt wird, mit der das Zeilenbild, insbesondere in Hinblick auf seine Schärfe, beurteilt wird, e) die Bewertung (M) der Zeilenbilder für jeden aufgenommenen Teilbereich miteinander verglichen werden und schließlich f) für jeden Teilbereich des Gegenstands das Zeilenbild mit der minimalen oder maximalen Bewertung (m) ausgewählt wird und aus den einzelnen ausgewählten Zeilenbildern der Teilbereiche des Gegenstands (3) ein Flächenbild zusammengesetzt wird.
  8. 8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass jedes der ausgewählten Zeilenbilder derart skaliert wird, dass gleich große Teilbereiche des Gegenstands auf gleich große Bildbereiche abgebildet werden.
  9. 9. Verfahren nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass a) vorab eine Zeile (23) des Bildsensors (2) ausgewählt wird und diese als Referenzzeile festgelegt wird, b) die Bilder desselben Teilbereichs des Gegenstands (3) mit sämtlichen Zeilen (23) von Pixelsensoren (22) ermittelt werden, c) jeweils eine Transformation, insbesondere durch Streckung und Verschiebung des Zeilenbilds, bestimmt wird, die das jeweilige Zeilenbild auf das Zeilenbild der Referenzzeile abbildet und diese Transformation der jeweiligen Zeile zuordnet, d) nach der Auswahl des schärfsten Zeilenbilds dieses ausgewählte Zeilenbild derjenigen Transformation, die der Zeile, mit der das ausgewählte Zeilenbild aufgenommen worden ist, zugeordnet ist, unterzogen wird, und e) die so erzielten Zeilenbilder zu einem Flächenbild zusammengesetzt werden. Hierzu 4 Blatt Zeichnungen
ATA980/2010A 2010-06-14 2010-06-14 Verfahren zur aufnahme von bildern von gegenständen AT509970B1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
ATA980/2010A AT509970B1 (de) 2010-06-14 2010-06-14 Verfahren zur aufnahme von bildern von gegenständen
DE102011102777.0A DE102011102777B4 (de) 2010-06-14 2011-05-28 Verfahren zur Aufnahme von Bildern von Gegenständen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ATA980/2010A AT509970B1 (de) 2010-06-14 2010-06-14 Verfahren zur aufnahme von bildern von gegenständen

Publications (2)

Publication Number Publication Date
AT509970A1 AT509970A1 (de) 2011-12-15
AT509970B1 true AT509970B1 (de) 2015-03-15

Family

ID=45020240

Family Applications (1)

Application Number Title Priority Date Filing Date
ATA980/2010A AT509970B1 (de) 2010-06-14 2010-06-14 Verfahren zur aufnahme von bildern von gegenständen

Country Status (2)

Country Link
AT (1) AT509970B1 (de)
DE (1) DE102011102777B4 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202016000528U1 (de) * 2016-01-28 2017-05-02 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Kamerabasierte Seitenspiegelfunktion eines Kraftfahrzeugs
DE102016118918B4 (de) 2016-10-05 2018-08-09 Tichawa Vision Gmbh Bildaufnahmeverfahren

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1334888A1 (de) * 1997-09-16 2003-08-13 Gentex Corporation System zum Erfassen von Feuchtigkeit auf der Windschutzscheibe eines Fahrzeugs
DE102005000980A1 (de) * 2004-01-07 2005-08-04 Pentax Corp. Abbildungsvorrichtung und elektronisches Gerät

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5661561A (en) 1995-06-02 1997-08-26 Accu-Sort Systems, Inc. Dimensioning system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1334888A1 (de) * 1997-09-16 2003-08-13 Gentex Corporation System zum Erfassen von Feuchtigkeit auf der Windschutzscheibe eines Fahrzeugs
DE102005000980A1 (de) * 2004-01-07 2005-08-04 Pentax Corp. Abbildungsvorrichtung und elektronisches Gerät

Also Published As

Publication number Publication date
AT509970A1 (de) 2011-12-15
DE102011102777B4 (de) 2019-08-14
DE102011102777A1 (de) 2011-12-15

Similar Documents

Publication Publication Date Title
DE602004001500T2 (de) Apparat für dreidimensionale Messungen
DE102004047928B4 (de) Optisches 3D-Messverfahren und Messeinrichtung
EP3076148A1 (de) Vorrichtung und verfahren zum messen von abbildungseigenschaften eines optischen abbildungssystems
CH686207A5 (de) Verfahren und Einrichtung zum Erzeugen eines Bilds hoher Auflosung.
EP3186776A1 (de) Bildaufnahmevorrichtung und verfahren zur bildaufnahme
DE3204086A1 (de) Vorrichtung zur automatischen optischen beschaffenheitspruefung
WO2016055176A1 (de) Mikroskop
DE102010017604B4 (de) Verfahren zum optischen Messen von Strukturen eines Objekts
EP1983334B1 (de) Verfahren und Vorrichtung zur optischen Erfassung von Verschmutzungen
AT509970B1 (de) Verfahren zur aufnahme von bildern von gegenständen
DE3500815A1 (de) Vorrichtung zur optischen messung der form von langgestreckten gegenstaenden
DE102012102580A1 (de) Verfahren zum Messen eines Objektes sowie Intraoral-Scanner
WO2016055175A1 (de) Mikroskop
DE102019120858A1 (de) Batteriefolienprüfvorrichtung
EP3988989B1 (de) Verfahren und mikroskop mit einer einrichtung zum erfassen von verlagerungen einer probe gegenüber einem objektiv
DE10309544A1 (de) Verfahren und Vorrichtung zur optischen Profilmessung eines Objektes mittels Linientriangulation
DE69824387T2 (de) Bestimmung von topographischen Werten
EP3547664B1 (de) Verfahren und sensor zum erzeugen von 3d-bilddaten
DE102015122415A1 (de) Verfahren zum Erkennen einer bandbegrenzenden Fehlfunktion einer Kamera, Kamerasystem und Kraftfahrzeug
DE102017009334B3 (de) Verfahren zum Prüfen eines optischen Systems
EP3204808A1 (de) Mikroskop
DE10351925B4 (de) Verfahren und Vorrichtung zur Erkennung von Oberflächenfehlern
DE102015117276A1 (de) Verfahren zum Vermessen eines Messobjekts mit verbesserter Messgenauigkeit und Vorrichtung
AT516887B1 (de) Bildaufnahmeeinheit
DE102020208129A1 (de) Verfahren zum Justieren einer Sendeeinheit relativ zu einer Empfangseinheit