DE102019116506A1 - Stereo camera system - Google Patents

Stereo camera system Download PDF

Info

Publication number
DE102019116506A1
DE102019116506A1 DE102019116506.7A DE102019116506A DE102019116506A1 DE 102019116506 A1 DE102019116506 A1 DE 102019116506A1 DE 102019116506 A DE102019116506 A DE 102019116506A DE 102019116506 A1 DE102019116506 A1 DE 102019116506A1
Authority
DE
Germany
Prior art keywords
sensor
line
stereo camera
camera system
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019116506.7A
Other languages
German (de)
Inventor
Timo Eckhard
Markus Schnitzlein
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chromasens GmbH
Original Assignee
Chromasens GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chromasens GmbH filed Critical Chromasens GmbH
Priority to DE102019116506.7A priority Critical patent/DE102019116506A1/en
Priority to PCT/EP2020/066826 priority patent/WO2020254445A1/en
Priority to JP2021568480A priority patent/JP2022536887A/en
Priority to KR1020217043368A priority patent/KR20220024219A/en
Publication of DE102019116506A1 publication Critical patent/DE102019116506A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Stereokamerasystem zur Messung von dreidimensionalen Oberflächentopologien. Hiermit können Tiefeninformationen von Objekten, die sich auf einer Fördereinrichtung vor dem Stereokamerasystem entlang bewegen, erfasst werden. Das Stereokamerasystem kann Bestandteil einer Produktionsüberwachungsvorrichtung sein.The present invention relates to a stereo camera system for measuring three-dimensional surface topologies. With this, depth information of objects moving on a conveyor in front of the stereo camera system can be recorded. The stereo camera system can be part of a production monitoring device.

Description

Die vorliegende Erfindung betrifft ein Stereokamerasystem zur Messung von dreidimensionalen Oberflächentopologien. Hiermit können Tiefeninformationen von Objekten, die sich auf einer Fördereinrichtung vor dem Stereokamerasystem entlang bewegen, erfasst werden. Das Stereokamerasystem kann Bestandteil einer Produktionsüberwachungsvorrichtung sein.The present invention relates to a stereo camera system for measuring three-dimensional surface topologies. With this, depth information of objects moving on a conveyor in front of the stereo camera system can be recorded. The stereo camera system can be part of a production monitoring device.

Produktionsüberwachungsvorrichtungen mit einer Fördereinrichtung und einer Kamera, um die auf der Fördereinrichtung beförderten Produkte optisch abzutasten, sind bekannt und werden beispielsweise in Paketsortieranlagen oder Produktionsanlagen verwendet.Production monitoring devices with a conveyor device and a camera for optically scanning the products conveyed on the conveyor device are known and are used, for example, in package sorting systems or production systems.

Üblicherweise wird über eine Messeinrichtung, wie z. B. einem Lichtvorhang, die Höhe des abzutastenden Produktes bzw. Objektes ermittelt. Die Kamera weist ein verstellbares Objektiv auf, das auf eine vorher erfasste Höhe eines abzutastenden Objektes eingestellt wird, um deren Oberfläche korrekt abzutasten. Die Kamera kann ein Zoomobjektiv aufweisen, dessen Brennweite veränderlich ist, sodass es zum Abtasten unterschiedlich hoher Objekte entsprechend eingestellt werden kann. Es ist auch möglich, ein Objektiv mit einer festen Brennweite zu verwenden, deren Fokus nachgeführt wird, sodass unterschiedliche Höhen scharf auf dem Sensor abgebildet werden.Usually, a measuring device, such as. B. a light curtain, the height of the product or object to be scanned is determined. The camera has an adjustable lens which is set to a previously detected height of an object to be scanned in order to scan its surface correctly. The camera can have a zoom lens whose focal length is variable so that it can be adjusted accordingly for scanning objects of different heights. It is also possible to use a lens with a fixed focal length, the focus of which is tracked so that different heights are sharply imaged on the sensor.

Bei Zoomobjektiven werden mehrere Linsen relativ zueinander verschoben. Das Zoomobjektiv weist eine bewegliche Mechanik innerhalb des Objektivs auf, das mehrere Linsen zueinander verschiebt. Mit einem Zoomobjektiv kann der Maßstab über den Verstellweg konstant gehalten werden.With zoom lenses, several lenses are moved relative to one another. The zoom lens has a movable mechanism within the lens that moves several lenses relative to one another. With a zoom lens, the scale can be kept constant over the adjustment path.

Wird ein Objektiv mit fester Brennweite verwendet, so ist das gesamte Objektiv längs zur optischen Achse zu verschieben, sodass der Schärfebereich auf der gewünschten Höhe liegt. Der Abbildungsmaßstab erhöht sich bei Verringerung der optischen Länge.If a lens with a fixed focal length is used, the entire lens must be shifted along the optical axis so that the focus area is at the desired height. The image scale increases when the optical length is reduced.

Sowohl bei einem Zoomobjektiv als auch bei einem Objektiv mit fester Brennweite gibt es mechanische Teile, die bewegt werden müssen. Diese Bewegungen unterliegen einem Verschleiß. Bei industriellen Anwendungen werden Benutzungszyklen von mehreren Millionen gefordert. Diese übersteigen normalerweise die Lebensdauer dieser beweglichen Teile bei weitem.Both a zoom lens and a fixed focal length lens have mechanical parts that need to be moved. These movements are subject to wear. In industrial applications, usage cycles of several million are required. These usually far exceed the life of these moving parts.

Sollen in der Produktüberwachungsvorrichtung neben den optischen auch Höheninformationen ausgewertet werden, so haben sich verschiedene Methoden etabliert.If, in addition to the optical, height information is also to be evaluated in the product monitoring device, various methods have become established.

Eine Möglichkeit bietet das sogenannte Lichtschnittverfahren. Dabei wird ein dünner gerader Lichtstreifen auf das zu vermessende Objekt geworfen und eine Flächenkamera nimmt diesen Lichtstreifen dann auf. Anhand der Verzerrung, die das Objekt auf dem Lichtstreifen erzeugt, kann die Oberfläche des Objektes zurückberechnet werden.One possibility is the so-called light section method. A thin straight strip of light is thrown onto the object to be measured and an area camera then records this strip of light. The surface of the object can be calculated back using the distortion that the object creates on the light strip.

Eine weitere Möglichkeit bietet die Stereoskopie. Ein Kamerasystem nimmt dabei das Objekt aus zwei verschiedenen Blickrichtungen auf und kann aufgrund des Versatzes korrespondierender Bildpunkte die topologischen Oberflächeninformationen des Objektes bestimmen. Nachteilig an diesem Verfahren ist jedoch die Beschränkung auf eine Fokusebene.Another option is stereoscopy. A camera system records the object from two different viewing directions and can determine the topological surface information of the object based on the offset of corresponding image points. However, the disadvantage of this method is the restriction to one focal plane.

Solche Stereokamerasysteme weisen zwei Kameramodule auf, mit welchen aus zwei unterschiedlichen Blickrichtungen derselbe Objektbereich abgetastet werden kann. Die Kameramodule sind mit einem Objektiv versehen, um den Objektbereich auf einem Sensor des jeweiligen Kameramoduls abzubilden. Eine optische Achse des Objektivs ist eine Symmetrieachse des Objektivs, welche etwa quer zu den Oberflächen einer oder mehrerer im Objektiv enthaltener Linsen verläuft. Als Objektivebene gilt die objektseitige Hauptebene des Objektivs. Eine Sensorebene ist die Ebene, in welcher die lichtempfindliche Sensorfläche liegt. Eine Objektebene ist die Ebene, die scharf vom Objektiv auf die Sensorfläche abgebildet wird.Such stereo camera systems have two camera modules with which the same object area can be scanned from two different viewing directions. The camera modules are provided with a lens in order to image the object area on a sensor of the respective camera module. An optical axis of the objective is an axis of symmetry of the objective, which runs approximately transversely to the surfaces of one or more lenses contained in the objective. The main plane of the objective on the object side is regarded as the objective plane. A sensor plane is the plane in which the light-sensitive sensor surface lies. An object plane is the plane that is sharply imaged from the lens onto the sensor surface.

Bei herkömmlichen Stereokamerasystemen sind meistens die Objektivebene, die Objektebene und die Sensorebene zueinander parallel angeordnet. Die parallele Ausrichtung der Objektebene zur Objektivebene sowie zur Sensorebene wird im Folgenden als Parallelitäts-Anordnung bezeichnet.In conventional stereo camera systems, the lens plane, the object plane and the sensor plane are usually arranged parallel to one another. The parallel alignment of the object plane to the objective plane and to the sensor plane is referred to below as the parallelism arrangement.

Entscheidend für die Auflösung einer dreidimensionalen Oberflächentopologie mit einem Stereokamerasystem ist ein Basis-Winkel α, welcher der Winkel ist, der von den Blickrichtungen der beiden Kameramodule des Stereokamerasystems auf den Objektbereich aufgespannt wird. Der Basis-Winkel α wird im Wesentlichen durch die Größe einer Basis B, welche der Abstand zwischen den beiden Sensorflächen der beiden Kameramodule S1, S2 ist, eingestellt. Dies bedeutet, je größer die Basis B ist, desto größer ist der Basis-Winkel α und dementsprechend besser ist die Höhenauflösung des Stereokamerasystems (8).A base angle is decisive for the resolution of a three-dimensional surface topology with a stereo camera system α , which is the angle that is spanned by the viewing directions of the two camera modules of the stereo camera system on the object area. The base angle α is essentially determined by the size of a base B. , which is the distance between the two sensor surfaces of the two camera modules S1, S2. This means the larger the base B. is, the larger the base angle α and accordingly the height resolution of the stereo camera system is better ( 8th ).

Im Folgenden wird, sofern nicht anders angegeben, von einem gleichbleibenden Abstand der Sensorebene SP (sensor plane), Objektivebene LP (lens plane) und Objektebene OP (object plane) zueinander ausgegangen, so dass allein die Basis B den Basis-Winkel α bestimmt.Unless otherwise stated, the following is based on the assumption that the distance between the sensor plane SP (sensor plane), objective plane LP (lens plane) and object plane OP (object plane) remains constant, so that only the base B. the base angle α certainly.

Objektive weisen einen Öffnungswinkel γ auf, welcher den maximalen Einfallswinkel des einfallenden Lichts zur optischen Achse angibt, innerhalb dem ein Objekt im Wesentlichen verzerrungsfrei abgebildet werden kann (8). Je nach Ausführung des Objektivs kann der maximale Öffnungswinkel des Objektivs variieren. Im Folgenden wird als Strahlengang das Strahlenbündel durch das Objektiv bezeichnet, welcher alle Strahlen innerhalb des Öffnungswinkels umfasst und sich zwischen der Sensorfläche und dem Objekt erstrecken.Lenses have an opening angle γ which indicates the maximum angle of incidence of the incident light to the optical axis, within which an object can be imaged essentially without distortion ( 8th ). Depending on the design of the lens, the maximum opening angle of the lens can vary. In the following, the beam path is referred to as the beam through the objective, which includes all the beams within the opening angle and extends between the sensor surface and the object.

Bei einem Stereokamerasystem mit der oben erläuterten Parallelitäts-Anordnung kann die Basis jedoch nicht beliebig groß gewählt werden, da bei einer zu großen Basis sich die durch den Einfallswinkel begrenzten Abschnitte im Objektbereich nur noch geringfügig oder gar nicht überlappen und somit der scharf abbildbare Abschnitt des Objektbereichs klein oder gar nicht mehr vorhanden ist.In the case of a stereo camera system with the parallelism arrangement explained above, however, the base cannot be selected to be arbitrarily large, since if the base is too large, the sections in the object area limited by the angle of incidence only overlap slightly or not at all, and thus the sharply mapped section of the object area small or nonexistent.

Nur ein Überlappbereich, also der Bereich des Objektes, der von beiden Sensoren zugleich erfasst wird, kann für eine Auswertung der dreidimensionalen Oberflächentopologie genutzt werden. Die Randbereiche dieses Überlappbereiches werden unter einem großen Öffnungswinkel des Objektivs γ abgebildet. Die Verzeichnung ist somit in den Randbereichen des Überlappbereichs am größten. Des Weiteren wird die Abbildungsleistung, welche unter anderem durch einen Farbfehler und eine Modulationsübertragungsfunktion (MTF) charakterisiert werden kann, im Randbereich des Überlappbereichs schlechter als im Zentrum der Überlappbereichs. Der Farbfehler beschreibt die Verlust der Farbabbildung. Die MTF beschreibt einen Detailkontrastverlust.Only an overlapping area, i.e. the area of the object that is detected by both sensors at the same time, can be used for an evaluation of the three-dimensional surface topology. The edge areas of this overlap area are at a large opening angle of the lens γ pictured. The distortion is therefore greatest in the edge areas of the overlap area. Furthermore, the imaging performance, which can be characterized, among other things, by a color error and a modulation transfer function (MTF), is worse in the edge area of the overlap area than in the center of the overlap area. The color error describes the loss of color reproduction. The MTF describes a loss of detail in contrast.

In „Scheimpflug stereocamera for particle image velocimetry in liquid flows“, Ajay K. Prasad und Kirk Jensen, APPLIED OPTICS 34, 30 (1995) , wird eine Stereovideokamera mit Scheimpflug-Bedingung und einem Flächensensor beschrieben. Das System wird genutzt, um die Geschwindigkeitsverteilung von kleinen Teilchen in Flüssigkeiten zu bestimmen.In "Scheimpflug stereocamera for particle image velocimetry in liquid flows", Ajay K. Prasad and Kirk Jensen, APPLIED OPTICS 34, 30 (1995) , describes a stereo video camera with Scheimpflug condition and an area sensor. The system is used to determine the velocity distribution of small particles in liquids.

Bei einer solchen Scheimpflug-Kamera wird die Parallelitäts-Anordnung aufgehoben, indem die Objektivebene LP gegenüber der Sensorebene gekippt wird, so dass eine große Basis möglich ist, ohne dass der Objektbereich durch den limitieren Einfallswinkel beschränkt wird. Bei einer Scheimpflug-Kamera ist die sogenannte Scheimpflug-Bedingung erfüllt, gemäß der sich die Objektivebene, die Sensorebene und die Objektebene in einer gemeinsamen Schnittachse schneiden. Ein Scheimpflug-Winkel β wird durch die Objektebene OP und die Sensorebene SP aufgespannt (9). Ist die Scheimpflug-Bedingung erfüllt wird der Objektbereich durch das Objektiv scharf auf den Sensor abgebildet. In der Literatur wird manchmal eine Schnittachse in unendlicher Entfernung zum Stereokamerasystem beschrieben. In diesem Sonderfall entspräche die Scheimpflug-Bedingung der Parallelitäts-Anordnung. Für die folgende Betrachtung gilt jedoch, dass die Scheimpflug-Bedingung nicht erfüllt ist, wenn sich diese Ebenen bzw. Achsen im Unendlichen schneiden. Sie müssen sich somit in einem endlichen Punkt schneiden, damit die Scheimpflug-Bedingung erfüllt ist.With such a Scheimpflug camera, the parallelism arrangement is canceled by tilting the lens plane LP relative to the sensor plane, so that a large base is possible without the object area being restricted by the limited angle of incidence. With a Scheimpflug camera, the so-called Scheimpflug condition is fulfilled, according to which the objective plane, the sensor plane and the object plane intersect in a common cutting axis. A Scheimpflug angle β is spanned by the object level OP and the sensor level SP ( 9 ). If the Scheimpflug condition is met, the object area is sharply mapped onto the sensor by the lens. In the literature, a cutting axis is sometimes described at an infinite distance from the stereo camera system. In this special case, the Scheimpflug condition would correspond to the parallelism arrangement. For the following consideration, however, the Scheimpflug condition is not fulfilled if these planes or axes intersect at infinity. They have to intersect at a finite point so that the Scheimpflug condition is fulfilled.

Bei Stereokamerasystemen mit Scheimpflug-Bedingung hingegen kann ein breiterer Basis-Winkel gewählt werden als bei Stereokamerasystemen ohne Scheimpflug-Bedingung bei gleichbleibenden Objektiven und Bildqualität. Bei einer großen Basis kann durch die Schrägstellung der Objektive der Einfallswinkel verkleinert und damit optimiert werden. Somit sind auch Objektive mit einem kleinen Öffnungswinkel γ geeignet. Bedingung ist durch den kleineren Öffnungswinkel die Bildqualität, insbesondere die MTF, über den Überlappungsbereich hinweg konstanter als bei Stereokamerasystemen ohne Scheimpflug-Bedingung. Eine lineare Verzeichnung entlang des Überlappungsbereiches hinweg wird in Kauf genommen, da dieser durch eine Rektifizierung korrigiert werden kann. Je größer die Basis gewählt wird, desto stärker müssen Sensorebene und Objektivebene bezogen auf die Objektebene verkippt werden, um den Einfallswinkel zu verkleinern.With stereo camera systems with Scheimpflug condition, on the other hand, a wider base angle can be selected than with stereo camera systems without Scheimpflug condition with the same objectives and image quality. If the base is large, the angle of incidence can be reduced and thus optimized by inclining the lenses. This means that there are also lenses with a small opening angle γ suitable. Due to the smaller opening angle, the condition is that the image quality, in particular the MTF, is more constant over the overlap area than with stereo camera systems without Scheimpflug condition. A linear distortion along the overlap area is accepted as this can be corrected by rectification. The larger the base is chosen, the more the sensor plane and lens plane must be tilted relative to the object plane in order to reduce the angle of incidence.

Ein weiteres Problem bei Stereokamerasystemen ohne Scheimpflug-Bedingung ist die Rückreflexion. Durch die parallele Anordnung bei einem schmalen Basis-Winkel bildet das Objektiv nicht nur das Objekt auf dem Sensor, sondern auch den Sensor auf dem Objekt ab. Diese Abbildung des Objektivs kann durch Reflexion an einer sich spiegelnden Oberfläche des Objektes wieder zurück auf den Sensor abgebildet werden. Der Sensor nimmt somit sein eigenes Spiegelbild auf. Durch eine Verkippung, z.B. durch Scheimpflug, kann eine ein breiter Basis-Winkel gewählt werden, wodurch solche Rückreflexion vermieden wird. Auch wenn die Reflexion weiter bestehen bleibt, kann die Abbildung der Reflexion z.B. auch einen neutralen Hintergrund darstellen. Die Auswirkungen der Reflexion werden somit vermindert.Another problem with stereo camera systems without Scheimpflug condition is back reflection. Due to the parallel arrangement with a narrow base angle, the lens not only images the object on the sensor, but also the sensor on the object. This image of the lens can be imaged back onto the sensor by reflection on a reflective surface of the object. The sensor thus records its own mirror image. By tilting, e.g. by Scheimpflug, a broad base angle can be chosen, which avoids such back reflection. Even if the reflection continues, the image of the reflection can e.g. also represent a neutral background. The effects of reflection are thus reduced.

Oben werden die Vorteile von Stereokamerasystemen mit Scheimpflug-Bedingung erläutert. Jedoch treten bei Stereokamerasystemen mit Scheimpflug-Bedingung Effekte auf, die bei der Verwendung von Flächensensoren die Qualität der Stereoskopie negativ beeinflussen. Dies geht auf den sogenannten Keystone-Effekt zurück, der die Verzerrung der projizierten Sensorfläche beschreibt.The advantages of stereo camera systems with Scheimpflug condition are explained above. However, with stereo camera systems with Scheimpflug condition, effects occur which negatively influence the quality of the stereoscopy when using area sensors. This is due to the so-called keystone effect, which describes the distortion of the projected sensor surface.

Mit einem Flächensensor wird vom Objektbereich ein zweidimensionales Bild aufgenommen. Bei herkömmlichen Stereokamerasystemen ist eine Kante des Flächensensors parallel zur Basis angeordnet. Somit erstrecken sich auch die Hauptachsen des aufgenommenen zweidimensionalen Bildes entweder parallel zur Basis und quer zur Basis. Die Richtung parallel zur Basis wird im Folgenden als Basisrichtung und die Richtung quer zur Basis wird im Folgenden als Querrichtung bezeichnet.A two-dimensional image of the object area is recorded with an area sensor. In conventional stereo camera systems, one edge of the area sensor is parallel to the base arranged. The main axes of the recorded two-dimensional image thus also extend either parallel to the base and transversely to the base. The direction parallel to the base is hereinafter referred to as the base direction and the direction transverse to the base is hereinafter referred to as the transverse direction.

Bei der Abbildung des Objektbereichs durch ein Stereokamerasystemen findet eine Stauchung der Abbildung sowohl in Querrichtung als auch in Basisrichtung statt. Diese Stauchung wird dadurch verursacht, dass die einzelnen Punkte eines ebenflächigen Objektes unterschiedlich weit von der Sensorfläche beabstandet sind. Je weiter zwei Punkte von der Sensorfläche entfernt sind, desto kleiner wird der Abstand der Punkte abgebildet. Die Stauchung wird stärker je größer die Basis ist. In Querrichtung tritt eine Querstauchung und in Basisrichtung eine Basisstauchung auf.When the object area is imaged by a stereo camera system, the image is compressed both in the transverse direction and in the base direction. This compression is caused by the fact that the individual points of a flat object are spaced differently from the sensor surface. The further two points are away from the sensor surface, the smaller the distance between the points is mapped. The compression becomes stronger the larger the base is. A transverse compression occurs in the transverse direction and a base compression occurs in the base direction.

Zum Beispiel wird ein quadratischer Objektbereich bei möglichst kleiner Basis und zentraler Anordnung der Kamerasysteme nahezu verzerrungsfrei abgebildet. Bei einer großen Basis bildet die Abbildung des Quadrates jedoch die Form eines Trapezes oder Schlüsselsteins (engl. Keystone). Der Abstand der weiter entfernt liegenden Ecken zueinander wird kleiner abgebildet als der Abstand der näher zum Objektiv liegenden Ecken zueinander.For example, a square object area with the smallest possible base and a central arrangement of the camera systems is mapped almost distortion-free. With a large base, however, the image of the square forms the shape of a trapezoid or keystone. The distance between the corners that are further away from one another is shown smaller than the distance between the corners that are closer to the objective.

Der Effekt tritt bei Stereokamerasystemen sowohl mit als auch ohne Scheimpflug-Bedingung auf. Bei denen ohne Scheimpflug-Bedingung ist durch die Beschränktheit der Basis dieser Effekt ebenfalls beschränkt. Da Stereokamerasysteme mit Scheimpflug-Bedingung eine besonders große Basis aufweisen können, tritt hier der Effekt besonders stark hervor.The effect occurs with stereo camera systems both with and without Scheimpflug condition. In the case of those without Scheimpflug condition, this effect is also limited by the limitation of the basis. Since stereo camera systems with Scheimpflug condition can have a particularly large base, the effect is particularly pronounced here.

Der Keystone-Effekt sorgt für einen Verlust von Auflösungsvermögen. Das Auflösungsvermögen ist der minimale Abstand, den zwei punktförmige Objekte haben müssen, damit sie als getrennte Objekte wahrgenommen werden können. Durch die Stauchung werden zwei Punkte, die weiter von der Sensorfläche entfernt sind, näher beieinander abgebildet. Diese Punkte können ab einer bestimmten Entfernung zum Objektiv nicht mehr als getrennt wahrgenommen werden. Das Auflösungsvermögen parallel zur Basis wird im Folgenden als Basis-Auflösungsvermögen und das Auflösungsvermögen quer zur Basis wird im Folgenden als Quer-Auflösungsvermögen bezeichnet.The keystone effect causes a loss of resolution. The resolving power is the minimum distance that two point objects must have so that they can be perceived as separate objects. Due to the compression, two points that are further away from the sensor surface are mapped closer together. From a certain distance from the lens, these points can no longer be perceived as separate. The resolving power parallel to the base is hereinafter referred to as the basic resolving power and the resolving power across the base is hereinafter referred to as the transverse resolving power.

Des Weiteren erhöht der Keystone-Effekt den Rechenaufwand. Um die Abbildungen für eine Auswertung der dreidimensionalen Oberflächentopologie zu nutzen, müssen sowohl die Basis- als auch die Querstauchung durch Rektifizierung aus den Bilddaten heraus berechnet werden. Die Rektifizierung ist ein Verfahren zur Eliminierung von geometrischen Verzerrungen in Bilddaten, die zum Beispiel durch zentral perspektivische Aufnahmen entstehen können. Durch die Rektifizierung werden die einzelnen Bildpunkte derart verschoben, dass bei einer Überlagerung der Bildpunkte der beiden Sensoren die gleiche Position am Objekt dargestellt wird. Des Weiteren wird die Verzeichnung korrigiert, damit die berechnete Disparität linear abhängig zum Höhenprofil des Objektes ist.Furthermore, the keystone effect increases the computational effort. In order to use the images for an evaluation of the three-dimensional surface topology, both the base and the transverse compression must be calculated from the image data by rectification. Rectification is a process for eliminating geometric distortions in image data that can arise, for example, from central perspective recordings. The rectification shifts the individual pixels in such a way that when the pixels of the two sensors are superimposed, the same position is displayed on the object. Furthermore, the distortion is corrected so that the calculated disparity is linearly dependent on the height profile of the object.

Bei der Stereoskopie wird jedem Punkt einer Abbildung eines Kameramoduls ein Punkt einer Abbildung des zweiten Kameramoduls zugeordnet. Ein rechteckiger Sensor erfasst bei einer Schrägstellung des Sensors gegenüber dem Objekt aufgrund des Keystone-Effekts ein Trapez T1 der Objektfläche (10). Der andere Flächensensor erfasst ein zweites Trapez T2 der Objektfläche. Bei der Zuordnung der Punkte überlappen sich diese Trapeze, wobei jeweils die lange Stirnseite mit der kurzen Stirnseite des anderen Trapezes zusammenfällt. Hierdurch ergibt sich ein sechseckförmiger Überlappungsbereich (schraffiert in 10).In stereoscopy, each point of an image of a camera module is assigned a point of an image of the second camera module. If the sensor is inclined in relation to the object, a rectangular sensor detects a trapezoid T1 of the object surface due to the keystone effect ( 10 ). The other area sensor detects a second trapezoid T2 of the object area. When assigning the points, these trapezoids overlap, the long front side coinciding with the short front side of the other trapezoid. This results in a hexagonal overlap area (hatched in 10 ).

Hierbei ist nachteilig, dass ein Teil der erfassten Information aus den nicht überlappenden Bereichen verloren geht. Nur der Überlappungsbereich kann zur Auswertung der dreidimensionalen Oberflächentopologie genutzt werden.The disadvantage here is that part of the information recorded is lost from the non-overlapping areas. Only the overlap area can be used to evaluate the three-dimensional surface topology.

Des Weiteren muss der Öffnungswinkel des Objektivs so groß sein, dass der Überlappungsbereich vollständig erfasst wird. Dies ist gegeben, wenn eine Diagonale D des sechseckförmigen Überlappungsbereichs vom Objektiv erfasst wird.Furthermore, the opening angle of the lens must be large enough that the overlap area is completely covered. This is the case when a diagonal D of the hexagonal overlap area is captured by the objective.

Aus der DE 10 2015 11 11 20 A1 geht ein Verfahren zum Abtasten von Oberflächen mit einer Stereokamera mit zumindest zwei Kameramodulen hervor. Die Kameramodule sind derart angeordnet, dass sie von einem gemeinsamen Bereich einer abzutastenden Oberfläche jeweils ein Bild erfassen. Die Kameramodule können eine Zeilenkamera mit mehreren unterschiedlichen Sensorzeilen aufweisen. Mit einer jeden Sensorzeile wird ein separates Zeilenbild erfasst. Die einzelnen Zeilenbilder werden mittels einer geometrischen Abbildung überlagert.A method for scanning surfaces with a stereo camera with at least two camera modules emerges from DE 10 2015 11 11 20 A1. The camera modules are arranged in such a way that they each capture an image of a common area of a surface to be scanned. The camera modules can have a line camera with several different rows of sensors. A separate line image is recorded with each sensor line. The individual line images are superimposed by means of a geometric image.

Stereokamerasysteme mit Zeilensensoren und Parallelitäts-Anordnung weisen die gleiche Problematik auf wie Stereokamerasysteme mit Flächensensoren und Parallelitäts-Anordnung. Wie oben beschrieben, kann die Basis nicht beliebig groß gewählt werden, da bei einer zu großen Basis sich die durch den Einfallswinkel begrenzten Abschnitte im Objektbereich nur noch geringfügig oder gar nicht überlappen und somit der scharf abbildbare Abschnitt des Objektbereichs klein oder gar nicht mehr vorhanden ist.Stereo camera systems with line sensors and a parallelism arrangement have the same problems as stereo camera systems with area sensors and a parallelism arrangement. As described above, the base cannot be chosen to be arbitrarily large, since if the base is too large, the sections in the object area limited by the angle of incidence only overlap slightly or not at all and the sharply mapped section of the object area is therefore small or no longer present .

Prinzipiell sind Stereokamerasysteme denkbar, die weder die Scheimpflug-Bedingung noch die Parallelitäts-Anordnung erfüllen. So könnte nur die Objektebene OP und die Sensorebene SP parallel zueinander sein, während die Objektivebene LP derart zu den anderen beiden Ebenen verkippt ist, dass der Objektbereich nicht durch den limitieren Einfallswinkel beschränkt wird. Eine Abbildungsebene, welche der Ebene entspricht, auf der das Objektiv die Objektebenen scharf abbildet, ist schräg zur Objektebene oder Objektachse angeordnet. Nur im Schnittbereich der Abbildungsebene und der Sensorebene wird der Objektbereich scharf auf dem Kamerasensor abgebildet (11). Je stärker die Verkippung der Objektivachse relativ zur Objektachse ist, umso schmaler ist ein Fokusbereich, in dem das Objekt scharf abgebildet wird. Je größer die Tiefenschärfe TS ist, umso breiter ist der Fokusbereich. Bei einem schmalen Fokusbereich stehen nur von einem geringen Ausschnitt des Objektes ausreichend Informationen für eine Auswertung der dreidimensionalen Oberflächentopologie zur Verfügung.In principle, stereo camera systems are conceivable that meet neither the Scheimpflug condition nor the parallelism arrangement. Thus, only the object plane OP and the sensor plane SP could be parallel to one another, while the objective plane LP is tilted relative to the other two planes in such a way that the object area is not restricted by the limited angle of incidence. An imaging plane, which corresponds to the plane on which the objective images the object planes in focus, is arranged at an angle to the object plane or the object axis. Only in the intersection of the imaging plane and the sensor plane is the object area sharply mapped on the camera sensor ( 11 ). The greater the tilt of the objective axis relative to the object axis, the narrower is a focus area in which the object is sharply imaged. The greater the depth of field TS, the wider the focus area. In the case of a narrow focus area, sufficient information is only available from a small section of the object for an evaluation of the three-dimensional surface topology.

Für eine Abbildung der dreidimensionalen Oberflächentopologie ist eine scharfe Abbildung jedoch sehr wichtig. Ebenso ist es erstrebenswert, die vollständige Fläche eines Sensors zu nutzen.However, a sharp image is very important for an image of the three-dimensional surface topology. It is also desirable to use the entire surface of a sensor.

Im Folgenden sind mit Stereokamerasystemen ohne Scheimpflug-Bedingung Stereokamerasysteme gemeint, die die Parallelitäts-Anordnung aufweisen.In the following, stereo camera systems without Scheimpflug condition are understood to mean stereo camera systems which have the parallelism arrangement.

Aus „Zeilenkameras zur Inspektion der Dichtflächen einer O-Ring-Nut“, Photonik 5/2012 ist ein System bekannt, bei dem drei Zeilenkameras parallel betrieben werden, um jeweils eine Seite einer Nut abzubilden. Die Seitenwände der Nut werden durch Zeilenkameras mit Scheimpflug-Bedingung abgebildet.A system is known from “Line cameras for the inspection of the sealing surfaces of an O-ring groove”, Photonik 5/2012, in which three line cameras are operated in parallel in order to image one side of a groove each. The side walls of the groove are imaged by line cameras with Scheimpflug conditions.

Aus der DE 10 2013 103 897 A1 geht ein Kameramodul zum zeilenweisen Abtasten eines Objekts hervor. Das Kameramodul umfasst ein zeilenförmigen Sensor und ein Objektiv zum Abbilden des Objekts auf den Sensor. Das Kameramodul weist mehrere Zeilensensoren auf. Die Zeilensensoren sind mit unterschiedlichem Abstand zum Objektiv angeordnet, wodurch Bildlinien mit unterschiedlichem Abstand zum Objektiv auf die jeweiligen Zeilensensoren abgebildet werden.From the DE 10 2013 103 897 A1 shows a camera module for line-by-line scanning of an object. The camera module comprises a line-shaped sensor and a lens for imaging the object on the sensor. The camera module has several line sensors. The line sensors are arranged at different distances from the lens, whereby image lines with different distances from the lens are mapped onto the respective line sensors.

Der Erfindung liegt die Aufgabe zugrunde, ein Stereokamerasystem zu schaffen, mit welchem auf einfache Art und Weise eine gute räumliche Auflösung über einen großen Abtastbereich bewirkt wird.The invention is based on the object of creating a stereo camera system with which a good spatial resolution is achieved over a large scanning area in a simple manner.

Eine weitere Aufgabe der Erfindung liegt darin, ein Stereokamerasystem zu schaffen, welches eine zuverlässige Abtastung von räumlichen Gegenständen erlaubt.Another object of the invention is to create a stereo camera system which allows three-dimensional objects to be reliably scanned.

Eine weitere Aufgabe der Erfindung liegt in der Schaffung eines Stereokamerasystems, mit welchem auf einfache Art und Weise ein großer Bildbereich erfasst werden kann.Another object of the invention is to create a stereo camera system with which a large image area can be captured in a simple manner.

Eine zusätzliche Aufgabe der Erfindung liegt darin, ein Stereokamerasystem zu schaffen, das kompakt gebaut ist.An additional object of the invention is to provide a stereo camera system that is compact.

Eine weitere Aufgabe der Erfindung liegt darin, ein Stereokamerasystem zu schaffen, das verschiedene Gegenstandsebenen gut abbildet.Another object of the invention is to create a stereo camera system that images various object planes well.

Eine oder mehrere Aufgaben werden durch die Gegenstände der unabhängigen Ansprüche gelöst. Vorteilhafte Weiterbildungen und bevorzugte Ausführungsformen bilden den Gegenstand der Unteransprüche.One or more objects are achieved by the subjects of the independent claims. Advantageous developments and preferred embodiments form the subject of the subclaims.

Ein erfindungsgemäßes Stereokamerasystem zur Messung von dreidimensionalen Oberflächentopologien eines Objektes weist zumindest zwei zeilenförmige Sensorbereiche und zumindest ein Objektiv zum Abbilden eines Objektes auf die Sensorbereiche auf. Das Objektiv ist derart angeordnet, dass ein Objektbereich auf zwei unabhängige Strahlengänge jeweils auf einem Sensorbereich abgebildet wird. Das Stereokamerasystem zeichnet sich dadurch aus, dass entlang zumindest einem der Strahlengänge die Scheimpflug-Bedingung erfüllt ist.A stereo camera system according to the invention for measuring three-dimensional surface topologies of an object has at least two line-shaped sensor areas and at least one lens for imaging an object onto the sensor areas. The objective is arranged in such a way that an object area is mapped onto two independent beam paths, each on a sensor area. The stereo camera system is characterized in that the Scheimpflug condition is fulfilled along at least one of the beam paths.

Wie bereits erläutert, kann ein Stereokamerasystem mit Berücksichtigung der Scheimpflug-Bedingung eine größere Basis aufweisen als bei einem Stereokamerasystem mit Parallelitäts-Anordnung ohne dass die Abbildungen durch das Objektiv verzeichnet werden. Durch die größere Basis wird die Auflösung der dreidimensionalen Oberflächentopologie größer.As already explained, a stereo camera system taking into account the Scheimpflug condition can have a larger base than a stereo camera system with a parallel arrangement without the images being recorded by the lens. The larger base increases the resolution of the three-dimensional surface topology.

Ein solches Stereokamerasystem kann dazu eingesetzt werden, um einen Objektbereich quer zur Zeilenrichtung zeilenweise abzutasten, wobei das Stereokamerasystem relativ zum Objekt bewegt wird. Die Richtung parallel zu den Zeilensensoren wird als Zeilenrichtung und die Richtung quer zu den Zeilensensoren als Scanrichtung bezeichnet. Der Abstand zweier Punkte, die in Scanrichtung zueinander liegen, wird unabhängig des Keystone-Effekts und der Position entlang der Zeilenrichtung mit dem gleichen Auflösungsvermögen aufgenommen. Die Abbildung wird dadurch entlang der Scanrichtung nicht gestaucht. Dies erhöht das Auflösungsvermögen entlang der Scanrichtung.Such a stereo camera system can be used to scan an object area line-by-line transversely to the line direction, the stereo camera system being moved relative to the object. The direction parallel to the line sensors is referred to as the line direction and the direction transverse to the line sensors is referred to as the scanning direction. The distance between two points that are located in the scanning direction is recorded with the same resolution regardless of the keystone effect and the position along the line direction. The image is not compressed along the scanning direction. This increases the resolution along the scanning direction.

Ebenfalls wird eine Trapezbildung unterbunden. Beide Zeilensensoren können mit der gesamten Sensorzeile den gleichen Bereich umfassen. Es gehen somit keine Informationen verloren. Der Überlappungsbereich von Zeilensensoren wird im Folgenden Überlappungszeile genannt.Trapezoidal formation is also prevented. Both line sensors can work with the entire Sensor line cover the same area. No information is lost. The overlap area of line sensors is called the overlap line in the following.

Bei einem Zeilensensor muss der Öffnungswinkel der Objektive lediglich die Überlappungszeile umfassen. Die Überlappungszeile ist bei gleicher Sensorlänge kleiner als die Diagonale des Überlappungsbereichs zweier Flächensensoren, der, wie oben beschrieben, eine sechseckige Form bildet. Dadurch ist der benötigte Öffnungswinkel bei einem Stereokamerasystem mit Scheimpflug-Bedingung und Flächensensoren größer als bei einem Stereokamerasystem mit Scheimpflug-Bedingung und Zeilensensoren. Bei einem Stereokamerasystem mit Scheimpflug-Bedingung und Zeilensensoren kommt es dadurch zu einer geringeren Verzeichnung als bei einem Stereokamerasystem mit Scheimpflug-Bedingung und Flächensensoren.In the case of a line sensor, the opening angle of the lenses only needs to encompass the overlapping line. With the same sensor length, the overlap line is smaller than the diagonal of the overlap area of two area sensors, which, as described above, forms a hexagonal shape. As a result, the opening angle required for a stereo camera system with Scheimpflug condition and area sensors is greater than with a stereo camera system with Scheimpflug condition and line sensors. In the case of a stereo camera system with Scheimpflug condition and line sensors, this results in less distortion than in the case of a stereo camera system with Scheimpflug condition and area sensors.

Durch die Reduzierung der Stauchung verringert sich auch die benötigte Rektifizierung. Dies reduziert den Rechenaufwand und die Bilddaten stehen somit schneller zur Verfügung.By reducing the compression, the required rectification is also reduced. This reduces the computational effort and the image data is thus available more quickly.

Zusammenfassend kann festgehalten werden, dass durch die Verwendung von Stereokamerasystemen mit Scheimpflug-Bedingung die Basis groß gewählt werden kann, ohne dass hierdurch Verzeichnungen wie bei Stereokamerasystemen ohne Scheimpflug-Bedingungen auftreten. Eine große Basis erlaubt eine präzise Höhenauflösung. Die Scheimpflug-Bedingung erlaubt bei guter Bildqualität kleine Öffnungswinkel der Objektive. Die Scheimpflug-Bedingung sorgt jedoch bei Flächensensoren durch den Keystone-Effekt für unerwünschte Verzerrungen in beide Richtungen. Bei Verwendung von Zeilensensoren treten die Verzerrungen nur in einer Richtung auf, wodurch die Qualität des Bildes höher ist. Außerdem ist der benötigte Öffnungswinkel der Objektive bei Zeilensensoren geringer als bei Flächensensoren, da die projizierte Breite des Zeilensensors kleiner ist, als die projizierte Diagonale der Flächensensoren. Zudem können im Gegensatz zu Flächensensoren alle Bildpunkte des Sensors genutzt werden.In summary, it can be stated that by using stereo camera systems with Scheimpflug conditions, the basis can be selected to be large without distortions occurring as a result, as is the case with stereo camera systems without Scheimpflug conditions. A large base allows precise height resolution. The Scheimpflug condition allows small opening angles of the lenses with good image quality. However, the Scheimpflug condition causes unwanted distortions in both directions in area sensors due to the keystone effect. When using line sensors, the distortion only occurs in one direction, which means that the quality of the image is higher. In addition, the required opening angle of the lenses is smaller with line sensors than with area sensors, since the projected width of the line sensor is smaller than the projected diagonal of the area sensors. In addition, in contrast to area sensors, all image points of the sensor can be used.

Daher kann mit einem Stereokamerasystem, das der Scheimpflug-Bedingung genügt und Zeilensensoren aufweist, mit vergleichsweise einfachen Mitteln Abbildungen erzeugt werden, die eine hohe Höhenauflösung ermöglichen.Therefore, with a stereo camera system that satisfies the Scheimpflug condition and has line sensors, images can be generated with comparatively simple means that enable a high height resolution.

Vorzugsweise ist entlang aller Strahlengänge die Scheimpflug-Bedingung erfüllt. Grundsätzlich können die Strahlengänge unterschiedliche Anordnungen der Sensorbereiche und Objektive aufweisen. Dadurch, dass alle Strahlengänge die Scheimpflug-Bedingung erfüllen, kann eine größere Basis als bei Stereokamerasystemen, in der nur ein Strahlengang die Scheimpflug-Bedingung erfüllt, gewählt werden.The Scheimpflug condition is preferably fulfilled along all beam paths. In principle, the beam paths can have different arrangements of the sensor areas and lenses. Because all beam paths meet the Scheimpflug condition, a larger base can be selected than with stereo camera systems in which only one beam path fulfills the Scheimpflug condition.

Vorzugsweise sind die Strahlengänge spiegelsymmetrisch angeordnet. Durch die spiegelsymmetrische Anordnung wird eine Justierung des Kamerasystems vereinfacht. Asymmetrien fallen bei der Justage leicht auf und können korrigiert werden. Auch die Auswertung der Bilddaten ist dadurch vereinfacht, da jeder Sensor gleichweit vom Objektbereich entfernt ist. Somit sind auch die aufgenommenen Bildpunkte gleichweit versetzt.The beam paths are preferably arranged mirror-symmetrically. Adjustment of the camera system is simplified by the mirror-symmetrical arrangement. Asymmetries are easily noticed during the adjustment and can be corrected. The evaluation of the image data is also simplified because each sensor is equidistant from the object area. The recorded pixels are thus also offset by the same distance.

Vorzugsweise werden ein oder mehrere der Strahlengänge mit zumindest einem Spiegel gelenkt. Dadurch können die Strahlengänge durch Spiegel gefaltet werden. Das Bild des Messobjektes wird ein- oder mehrfach von Spiegeln reflektiert, wodurch die Länge des Strahlenganges erhalten bleibt. Jedoch ist das Volumen, das von der Anordnung der optischen Linsen eingenommen wird, zum Teil erheblich reduziert. Insbesondere kann eine große Basis des Stereokamerasystems gewählt werden und dennoch bleiben die beiden Sensorhälften dicht beieinander. Dadurch sind kompaktere Bauformen möglich als bei Aufbauten ohne Strahlgangfaltung.One or more of the beam paths are preferably directed with at least one mirror. This allows the beam paths to be folded by mirrors. The image of the measurement object is reflected one or more times by mirrors, whereby the length of the beam path is retained. However, the volume that is taken up by the arrangement of the optical lenses is in some cases considerably reduced. In particular, a large base for the stereo camera system can be selected and yet the two sensor halves remain close to one another. This means that more compact designs are possible than with structures without beam path folding.

Bei einer Faltung des Strahlenganges kann unterschieden werden zwischen einer objektseitigen Faltung, bei der die Spiegel, die den Strahlengang falten, zwischen Objektiv und Objekt angeordnet sind, einer sensorseitigen Faltung, bei der die Spiegel, die den Strahlengang falten, zwischen Objektiv und Sensor angeordnet sind, und einer beidseitigen Faltung, bei der die Spiegel, die den Strahlengang falten, sowohl zwischen Objektiv und Objekt als auch zwischen Objektiv und Sensor angeordnet sind. Bei der objektseitigen Faltung kann der Arbeitsabstand, der Abstand zwischen Objektiv und Objekt, reduziert werden.When the beam path is folded, a distinction can be made between a fold on the object side, in which the mirrors that fold the beam path are arranged between the objective and the object, and a sensor-side fold in which the mirrors that fold the beam path are arranged between the lens and the sensor , and a double-sided folding in which the mirrors that fold the beam path are arranged both between the objective and the object and between the objective and the sensor. With object-side folding, the working distance, the distance between the lens and the object, can be reduced.

Die Strahlengänge werden vorzugsweise auf jeweils einen separaten Teil eines einzigen Sensors projiziert. Diese Teile bilden jeweils einen Sensorbereich einer der zumindest zwei Kameramodule. Der Sensor kann in mehrere Sensorbereiche unterteilt sein, denen jeweils ein Strahlengang zugeordnet ist. Beispielsweise ist bei Stereokamerasystem mit zwei Strahlengängen der Sensor in zwei Bereiche unterteilt. Weist das Stereokamerasystem drei Strahlengänge auf, so ist der Sensor dreigeteilt. Dies erhöht auch die Systemstabilität. Zusätzlich ermöglicht es eine kompakte Bauweise mit einfacher Justage.The beam paths are preferably projected onto a separate part of a single sensor. These parts each form a sensor area of one of the at least two camera modules. The sensor can be divided into several sensor areas, each of which is assigned a beam path. For example, in a stereo camera system with two beam paths, the sensor is divided into two areas. If the stereo camera system has three beam paths, the sensor is divided into three parts. This also increases the system stability. In addition, it enables a compact design with simple adjustment.

Alternativ kann die Kamera derart ausgebildet sein, dass die Strahlengänge auf jeweils einen separaten Sensors projiziert werden und dass ein Spiegel je Strahlengang vorgesehen ist und der Strahlengang in Scheimpflug-Anordnung konfiguriert ist. Diese Bauweise ermöglicht eine kompakte Form mit größerer Sensorfläche als bei einem einzelnen Sensor. Dadurch wird die Auflösung erhöht.Alternatively, the camera can be designed in such a way that the beam paths are each projected onto a separate sensor and that a mirror is provided for each beam path and the beam path is configured in a Scheimpflug arrangement. This design allows a compact shape with larger sensor area than with a single sensor. This increases the resolution.

Eine weitere Alternative zeichnet sich dadurch aus, dass die Strahlengänge auf jeweils einen separaten Sensor projiziert werden und dass zwei Spiegel je Strahlengang vorgesehen sind und der Strahlengang in Scheimpflug-Anordnung konfiguriert ist. Diese Bauweise ermöglicht eine kompakte Form.Another alternative is characterized in that the beam paths are each projected onto a separate sensor and that two mirrors are provided for each beam path and the beam path is configured in a Scheimpflug arrangement. This construction enables a compact shape.

Vorzugsweise sind die zeilenförmigen Sensorbereiche nebeneinander auf einer Linie angeordnet, die jeweils durch einen Zeilensensor dargestellt werden. Durch diese Linienanordnung kann die Justage vereinfacht werden, da die zeilenförmigen Sensorbereiche auf einem gemeinsamen Träger befestigt werden können. Zum Beispiel bei einer Verkippung des Trägers müssen die Sensorbereiche nicht neu zueinander ausgerichtet werden.The line-shaped sensor areas are preferably arranged next to one another on a line, each of which is represented by a line sensor. This line arrangement can simplify the adjustment, since the line-shaped sensor areas can be attached to a common carrier. For example, if the carrier is tilted, the sensor areas do not have to be realigned to one another.

Bei stereoskopischen Verfahren ist es zweckmäßig, wenn der Versatz nur in eine Richtung erfolgt. Das bedeutet, dass die Sensoren parallel oder senkrecht zu einer Sensorachse angeordnet sind. Dies wird durch die Linienanordnung unterstützt.In the case of stereoscopic methods, it is useful if the offset takes place in only one direction. This means that the sensors are arranged parallel or perpendicular to a sensor axis. This is supported by the line arrangement.

Gemäß einer weiteren Abwandlung können die zeilenförmigen Sensorbereiche parallel nebeneinander angeordnet sein. Auch hier ist der Versatz der beiden Strahlengänge nur in eine Richtung erfolgt.According to a further modification, the line-shaped sensor areas can be arranged parallel to one another. Here, too, the two beam paths are only offset in one direction.

Es ist möglich, dass die zeilenförmigen Sensorbereiche Bildpunkt-Zeilen eines Flächensensors sind. Ein bestehendes Stereozeilenkamerasystem kann so einfach nachgerüstet werden.It is possible for the line-shaped sensor areas to be pixel lines of an area sensor. An existing stereo line camera system can be easily retrofitted.

Für alle Strahlengänge kann ein gemeinsames Objektiv vorgesehen sein. Dadurch können besonders kompakte Stereozeilenkamerasysteme realisiert werden. Durch die Verringerung der Objektivanzahl können auch die Kosten gering gehalten werden.A common objective can be provided for all beam paths. In this way, particularly compact stereo line camera systems can be implemented. By reducing the number of lenses, costs can also be kept low.

Die Strahlengänge können unterschiedliche Abstände zwischen der Objektebene und der Sensorebene aufweisen. Hierbei kann es zweckmäßig sein, den optischen Weg aufgrund der unterschiedlichen Abstände mittels eines oder mehrerer Glaselemente, welches/welche in den jeweiligen kürzeren Strahlengängen angeordnet ist/sind, auszugleichen.The beam paths can have different distances between the object plane and the sensor plane. In this case, it can be expedient to compensate for the optical path due to the different distances by means of one or more glass elements which is / are arranged in the respective shorter beam paths.

Durch das Glaselement wird die Geschwindigkeit des Lichtes innerhalb des Glaselements abgebremst. Das Licht benötigt dadurch eine längere Zeit zum Sensor. Dies hat dadurch den gleichen Effekt wie eine optische Wegverlängerung. Unterschiedliche Abstände können somit ausgeglichen werden.The speed of the light inside the glass element is slowed down by the glass element. This means that the light needs a longer time to reach the sensor. This has the same effect as an optical path extension. Different distances can thus be compensated.

Nach einem weiteren erfindungsgemäßen Aspekt, umfasst ein Stereozeilenkamerasystem zur Messung von dreidimensionalen Oberflächentopologien zumindest einen Farbsensor, wobei der Farbsensor mehrere Bildpunkte aufweist, die auf unterschiedliche Farben empfindlich sind, und zumindest ein hyperchromatisches Objektiv zum Abbilden des Objektes auf den Sensor vorgesehen ist. Der Farbsensor ist zum Objektiv derart angeordnet, dass unterschiedliche Fokusebenen jeweils auf die Bildpunkte der gleichen Farbe abgebildet werden.According to a further aspect of the invention, a stereo line camera system for measuring three-dimensional surface topologies comprises at least one color sensor, the color sensor having several pixels that are sensitive to different colors, and at least one hyperchromatic lens is provided for imaging the object on the sensor. The color sensor is arranged in relation to the lens in such a way that different focal planes are mapped onto the pixels of the same color.

Bei hyperchromatischen Objektiven ist der Fokus wellenlängenabhängig. Jede Farb-Zeile des Sensors ist somit einer anderen Fokusebene zugeordnet.With hyperchromatic objectives, the focus depends on the wavelength. Each color line of the sensor is thus assigned to a different focal plane.

Dies kann zur Messung von dreidimensionalen Oberflächentopologien genutzt werden. Jede unterschiedliche Höhe des Objektbereichs weist eine andere Fokusebene auf. Dadurch wird jede der Höhen in einem bestimmten Farbbereich scharf auf dem Sensor abgebildet. Die Auflösung der Höhe entspricht hierbei die der Farbauflösung. Dieses Verfahren wird im Folgenden hyperchromatische Tiefenbestimmung genannt. Sie ist besonders geeignet, kleine Höhenunterschiede wahrzunehmen.This can be used to measure three-dimensional surface topologies. Each different height of the object area has a different focal plane. This means that each of the heights is sharply mapped on the sensor in a specific color range. The resolution of the height corresponds to that of the color resolution. This procedure is referred to below as hyperchromatic depth determination. It is particularly suitable for perceiving small differences in height.

Vorzugsweise wird die hyperchromatische Tiefenbestimmung zusammen mit dem stereoskopischen Verfahren mit der Scheimpflug-Bedingung angewandt. Mit der hyperchromatischen Tiefenbestimmung werden feine Höhenunterschiede erfasst, wohingegen mit dem stereoskopischen Verfahren über einen größeren Bereich Höhenunterschiede detektiert werden.The hyperchromatic depth determination is preferably used together with the stereoscopic method with the Scheimpflug condition. With the hyperchromatic depth determination fine height differences are recorded, whereas with the stereoscopic method height differences are detected over a larger area.

Vorzugsweise werden die Farb-Zeilen in Bezug zum Objektiv verkippt. Die Verkippung erfolgt um eine Achse, die parallel zu den einzelnen Farb-Zeilen ist. Entlang einer Zeile bleibt die Scheimpflug-Bedingung erhalten. Durch diese Verkippung ändert sich der Abstand einer Farb-Zeile zum Objektiv, wodurch sich auch die Fokusebene verschiebt. Effektiv kann dadurch der maximale Höhenunterschied, der durch die hyperchromatische Tiefenbestimmung messbar ist, variiert werden.The color lines are preferably tilted in relation to the lens. The tilting takes place around an axis that is parallel to the individual color lines. The Scheimpflug condition is retained along a line. This tilting changes the distance between a color line and the lens, which also shifts the focal plane. In this way, the maximum height difference that can be measured by the hyperchromatic depth determination can be effectively varied.

Vorzugsweise werden die Farbkanäle des Farbsensors separat ausgewertet. Dadurch können die unterschiedlichen Fokusebenen separat berechnet werden.The color channels of the color sensor are preferably evaluated separately. This allows the different focus levels to be calculated separately.

Nach einem weiteren erfindungsgemäßen Aspekt, umfasst eine Stereozeilenkamera zur Messung von dreidimensionalen Oberflächentopologien zumindest zwei Flächensensoren, wobei die Flächensensoren derart ausgebildet sind, dass sie mehrere parallele nebeneinander angeordnete Bildpunkt-Zeilen aufweisen, und zumindest zwei Objektive zum Abbilden des Objektes auf jeweils einem der Flächensensoren. Die Stereozeilenkamera zeichnet sich dadurch aus, dass ein Objektbereich mit zwei unabhängigen Strahlengängen jeweils gleichzeitig auf einem der Sensoren abgebildet wird, so dass ein zeilenförmiger Objektbereich auf die Bildpunktzeilen eines Flächensensors abgebildet wird, wobei in der Zeilen-Ebene der Strahlengänge, die den zeilenförmigen Objektbereich schneidet, die Scheimpflug-Bedingung erfüllt ist, und dass der Flächensensor um eine Achse derart gekippt ist, dass die Fläche nicht parallel zu einem abzutastenden Objektbereich ist, so dass die einzelnen Zeilen des Flächensensors unterschiedliche Ebenen des zeilenförmigen Objektbereiches abbilden.According to a further aspect of the invention, a stereo line camera for measuring three-dimensional surface topologies comprises at least two area sensors, the area sensors being designed in such a way that they have several parallel rows of pixels arranged next to one another, and at least two lenses for Imaging of the object on one of the area sensors. The stereo line camera is characterized by the fact that an object area with two independent beam paths is imaged simultaneously on one of the sensors so that a line-shaped object area is imaged on the pixel lines of an area sensor, with the beam paths that intersect the line-shaped object area in the line plane , the Scheimpflug condition is met, and that the area sensor is tilted about an axis in such a way that the area is not parallel to an object area to be scanned, so that the individual lines of the area sensor map different levels of the line-shaped object area.

Durch die Verkippung weist jede Bildpunkt-Zeile einen anderen Abstand zum Objektiv auf. Entlang einer Zeile bleibt die Scheimpflug-Bedingung erhalten. Jede Zeile weist somit eine eigene Fokusebene auf. Jede unterschiedliche Höhe des Objektbereichs wird somit auf einer anderen Bildpunkt-Zeile scharf abgebildet. Die Auflösung der Höhe entspricht hierbei der Zeilenauflösung. Dieses Verfahren wird im Folgenden inklinationelle Tiefenbestimmung genannt (lat.: inclinatio = Neigung).As a result of the tilting, each line of image points has a different distance from the lens. The Scheimpflug condition is retained along a line. Each line thus has its own focus level. Each different height of the object area is thus sharply imaged on a different pixel line. The resolution of the height corresponds to the line resolution. This method is referred to below as inclinational depth determination (Latin: inclinatio = inclination).

Der maximale Höhenunterschied, der durch die inklinationelle Tiefenbestimmung messbar ist, kann durch eine Änderung der Verkippung variiert werden.The maximum difference in height that can be measured by the inclination depth determination can be varied by changing the tilt.

Die Auflösung der Höhe kann bei der Kombination von der inklinationellen Tiefenbestimmung mit dem stereoskopischen Verfahren mit Scheimpflug Bedingung verbessert werden. Die Höhe wird nun mit zwei unterschiedlichen Methoden erfasst, wodurch eine Messabweichung reduziert wird.The resolution of the altitude can be improved by combining the inclination depth determination with the stereoscopic method with Scheimpflug condition. The height is now recorded using two different methods, which reduces a measurement error.

Vorzugsweise sind die Sensoren Farbsensoren und das Objektiv ein hyperchromatisches Objektiv. Dadurch können die einzelnen Fokusebenen, die durch die Verkippung des Flächensensors entstehen, nochmals unterteilt werden, wodurch eine feinere Auflösung der Fokusebenen entsteht.The sensors are preferably color sensors and the objective is a hyperchromatic objective. As a result, the individual focal planes that arise from the tilting of the area sensor can be subdivided again, which results in a finer resolution of the focal planes.

Vorzugsweise werden die Bilddaten In-line rektifiziert. Hierbei werden die Bilddaten der Bilder des Stereobildpaares zeilenweise in Übereinstimmung gebracht, wobei sowohl ein Versatz als auch eine unterschiedliche Verzeichnung durch die beiden Objektive korrigiert wird. Durch diese Rektifizierung, welche auch off-line möglich ist, sind die Positionsangaben der jeweiligen Verzerrung angepasst, wodurch die Bilddaten verzerrungsfrei dargestellt sind und weiterberechnet werden können. Da ein weiterer Konvertierungsschritt der Positionsangaben nicht nötig ist, erhöht sich die Geschwindigkeit der Berechnungen.The image data are preferably rectified in-line. Here, the image data of the images of the stereo image pair are matched line by line, with both an offset and a different distortion being corrected by the two lenses. Through this rectification, which is also possible off-line, the position information is adapted to the respective distortion, so that the image data are displayed without distortion and can be further calculated. Since a further conversion step of the position information is not necessary, the speed of the calculations increases.

Zeilensensoren mit charge-coupled device (CCD)-Sensoren weisen Schieberegister auf, in welchen detektierte Helligkeitswerte abgespeichert werden. Diese Schieberegister werden seriell ausgelesen. Im Allgemeinen werden beim Auslesen des Schieberegisters der einzelnen Zeilen den jeweiligen Bildpunkten gleichmäßige Positionsangaben zugeordnet.Line sensors with charge-coupled device (CCD) sensors have shift registers in which detected brightness values are stored. These shift registers are read out serially. In general, when reading out the shift register of the individual lines, uniform position information is assigned to the respective image points.

Vorzugsweise werden die Bildpunkt-Zeilen von Sensoren sich derart synchronisieren, dass sie zeilensynchron aufnehmen und einen gleichzeitigen Bildstart haben. Hierdurch wird der Aufwand bei der Rektifizierung deutlich reduziert. Insbesondere in Kombination mit der Rektifizierung wird dadurch einem aufgenommenen Bildpunkt eines Kameramoduls zur gleichen Zeit der gleiche Punkt am Objekt zugeordnet wie ein zweiter aufgenommener Bildpunkt des zweiten Kameramoduls. Dies hat den Vorteil, dass bei der Stereoberechnung jeder Zeile eines Sensorbereiches schon automatisch die passende Zeile des zweiten Sensorbereiches zugeordnet ist. Dadurch ist die Stereoberechnung nur in einer Dimension notwendig.The pixel lines of sensors are preferably synchronized in such a way that they record line-synchronously and have a simultaneous image start. This significantly reduces the effort involved in rectification. In particular in combination with the rectification, a recorded image point of a camera module is assigned the same point on the object at the same time as a second recorded image point of the second camera module. This has the advantage that, during the stereo calculation, each line of a sensor area is automatically assigned the appropriate line of the second sensor area. This means that the stereo calculation is only necessary in one dimension.

Ein weiterer Aspekt der vorliegenden Erfindung betrifft eine Oberflächentopologie-Erfassungseinrichtung. Die Oberflächentopologie-Erfassungseinrichtung weist zumindest ein Stereokamerasystem, wie es zuvor erläutert ist, um dreidimensionale Oberflächentopologien eines Messobjektes zu erfassen, auf. Die Oberflächentopologie-Erfassungseinrichtung umfasst eine Transporteinrichtung zum Transport des Messobjektes oder des Kamerasystems, eine Synchronisierungseinrichtung, um die Geschwindigkeit des Transportes mit den zeilenförmigen Abtastungen der dreidimensionalen Oberflächentopologie zu synchronisieren, und eine Auswerteeinrichtung, um die Messungen der dreidimensionalen Oberflächentopologie auszuwerten.Another aspect of the present invention relates to a surface topology acquisition device. The surface topology detection device has at least one stereo camera system, as explained above, in order to detect three-dimensional surface topologies of a measurement object. The surface topology detection device comprises a transport device for transporting the measurement object or the camera system, a synchronization device in order to synchronize the speed of the transport with the line-shaped scans of the three-dimensional surface topology, and an evaluation device in order to evaluate the measurements of the three-dimensional surface topology.

Eine Transporteinrichtung kann beispielsweise ein Förderband sein.A transport device can for example be a conveyor belt.

Die Synchronisierungseinrichtung gibt ein Signal an das Stereokamerasystem und/oder an die Auswerteeinheit aus, um die Geschwindigkeit des Transportes mit der Messung der dreidimensionalen Oberflächentopologie zu synchronisieren. Geht das Signal an das Stereokamerasystem kann das Signal eine Messung triggern. Gelangt das Signal an die Auswerteeinheit, kann die Geschwindigkeit der Transporteinrichtung bestimmt werden. Bei bekannter Bilderzeugungsfrequenz kann dadurch bestimmt werden, wie weit eine Bildzeile von der nächsten entfernt ist.The synchronization device outputs a signal to the stereo camera system and / or to the evaluation unit in order to synchronize the speed of the transport with the measurement of the three-dimensional surface topology. If the signal goes to the stereo camera system, the signal can trigger a measurement. If the signal reaches the evaluation unit, the speed of the transport device can be determined. With a known image generation frequency, it can be determined how far one image line is from the next.

Die Synchronisierungseinrichtung kann beispielsweise ein Inkrementalgeber sein, der von der Transporteinrichtung ausgelöst wird. Ist die Transporteinrichtung ein Förderband, kann z.B. durch ein Rad, das an das Förderband gekoppelt ist, die Radstellung durch die Synchronisierungseinrichtung bestimmt werden. Bei bestimmten Radstellungen wird dann ein Signal ausgegeben. Alternativ könnte die Synchronisierungseinrichtung eine Kameraeinheit aufweisen, die Markierungen auf dem Förderband wahrnimmt und anhand dieser ein Signal ausgibt.The synchronization device can, for example, be an incremental encoder that is triggered by the transport device. Is the Transport device a conveyor belt, the wheel position can be determined by the synchronization device, for example, by a wheel that is coupled to the conveyor belt. A signal is then output for certain wheel positions. Alternatively, the synchronization device could have a camera unit which detects markings on the conveyor belt and uses them to output a signal.

Die Synchronisierungseinrichtung kann auch als Modul der Auswerteeinheit ausgebildet sein. Ist die Bilderzeugungsfrequenz und die Geschwindigkeit der Transporteinrichtung bekannt, kann durch Berechnung die Entfernung zwischen zwei aufgenommenen Bildzeilen bestimmt werden.The synchronization device can also be designed as a module of the evaluation unit. If the image generation frequency and the speed of the transport device are known, the distance between two recorded image lines can be determined by calculation.

Die Auswerteeinheit ist ein Modul auf einer Recheneinheit und berechnet aus den aufgenommenen Bilddaten die dreidimensionale Oberflächentopologie.The evaluation unit is a module on a computing unit and calculates the three-dimensional surface topology from the recorded image data.

Die Erfindung wird nachfolgend beispielhaft anhand der in den Zeichnungen dargestellten Beispiele näher erläutert. In den Zeichnungen zeigen schematisch jeweils in einer Seitenansicht:

  • 1 ein erstes Ausführungsbeispiel einer Kamera mit zwei Objektiven und zwei Sensoren,
  • 2a ein zweites Ausführungsbeispiel einer Kamera mit zwei Objektiven, vier Spiegeln und einem Sensor,
  • 2b eine Abwandlung des zweiten Ausführungsbeispiels einer Kamera mit zwei Objektiven, vier Spiegeln und zwei Sensoren,
  • 2c eine weitere Abwandlung des zweiten Ausführungsbeispiels einer Kamera mit zwei Farbfiltern, zwei Objektiven, vier Spiegeln und zwei Sensoren,
  • 3 ein drittes Ausführungsbeispiel einer Kamera mit zwei Objektiven, zwei Spiegeln und zwei Sensoren,
  • 4 ein hyperchromatisches Objektiv, wobei verschiedene Fokusebenen auf unterschiedliche Farb-Zeilen fallen,
  • 5 ein viertes Ausführungsbeispiel einer Kamera mit drei Objektiven, vier Spiegeln und einem Farb-Zeilensensor,
  • 6 eine Abwandlung des vierten Ausführungsbeispiels einer Kamera mit einem Objektiv, vier Spiegeln, einem Glaselement und einem Farb-Zeilensensor,
  • 7 eine Oberflächentopologie-Erfassungseinrichtung, welche eine erfindungsgemäße Stereokamera verwendet, in einem Blockschaltbild,
  • 8 eine schematische Anordnung von Sensoren und Objektiven zweier Kameramodule einer Stereokamera, welche nicht der Erfindung entspricht,
  • 9 eine schematische Anordnung von Sensoren und Objektiven zweier Kameramodule einer Stereokamera, und
  • 10 projizierte Sensorflächen auf einer Objektebene, und
  • 11 eine Oberflächentopologie-Erfassungseinrichtung, welche eine erfindungsgemäße Stereokamera verwendet, in einem Blockschaltbild.
The invention is explained in more detail below using the examples shown in the drawings. The drawings show schematically in a side view:
  • 1 a first embodiment of a camera with two lenses and two sensors,
  • 2a a second embodiment of a camera with two lenses, four mirrors and a sensor,
  • 2 B a modification of the second embodiment of a camera with two lenses, four mirrors and two sensors,
  • 2c another modification of the second embodiment of a camera with two color filters, two lenses, four mirrors and two sensors,
  • 3 a third embodiment of a camera with two lenses, two mirrors and two sensors,
  • 4th a hyperchromatic lens, with different focal planes falling on different color lines,
  • 5 a fourth embodiment of a camera with three lenses, four mirrors and a color line sensor,
  • 6th a modification of the fourth embodiment of a camera with a lens, four mirrors, a glass element and a color line sensor,
  • 7th a surface topology detection device which uses a stereo camera according to the invention, in a block diagram,
  • 8th a schematic arrangement of sensors and lenses of two camera modules of a stereo camera, which does not correspond to the invention,
  • 9 a schematic arrangement of sensors and lenses of two camera modules of a stereo camera, and
  • 10 projected sensor areas on an object plane, and
  • 11 a surface topology detection device which uses a stereo camera according to the invention, in a block diagram.

Bei einem ersten Ausführungsbeispiel umfasst ein erfindungsgemäßes Stereokamerasystem 25 zwei Kameramodule 1a und 1b (1).In a first embodiment, it comprises a stereo camera system according to the invention 25th two camera modules 1a and 1b ( 1 ).

Jedes Kameramodul 1 ist aus einem Objektiv 2 und einem Zeilensensor 3 ausgebildet. Die Zeilensensoren 3 erfassen jeweils mit einem Sensorbereich 13 eine vom Objektiv 2 hierauf abgebildete Abbildung. Die zwei Kameramodule 1 sind so angeordnet, dass sie aus zwei unterschiedlichen Blickrichtungen einen gemeinsamen Objektbereich 6 abtasten.Any camera module 1 is from one lens 2 and a line sensor 3 educated. The line sensors 3 each capture with a sensor area 13 one from the lens 2 the figure shown on this. The two camera modules 1 are arranged in such a way that they share a common object area from two different viewing directions 6th scan.

Bei jedem Kameramodul 1 verläuft eine Kameraachse 5 durch jeweils einen Mittelpunkt des Sensorbereiches 13 und einen Mittelpunkt des Objektivs 2. Die beiden Kameraachsen 5 verlaufen somit in Blickrichtung der Sensorbereiche 13 zum Objektbereich 6.With every camera module 1 runs a camera axis 5 each through a center point of the sensor area 13 and a center point of the lens 2 . The two camera axes 5 thus run in the direction of view of the sensor areas 13 to the object area 6th .

Die beiden Kameraachsen 5 liegen in einer optischen Ebene. In dieser optischen Ebene liegen auch die beiden Zeilensensoren 3, bzw. deren Sensorbereiche 13. Diese optische Ebene ist deckungsgleich zur Zeichenebene von 1.The two camera axes 5 lie in an optical plane. The two line sensors are also located in this optical plane 3 , or their sensor areas 13 . This optical plane is congruent with the plane of the drawing 1 .

Die Basis B ist der Abstand zwischen den Mittelpunkten der beiden Sensorbereiche 13. Die Kameraachsen 5 schneiden sich in einer Objektachse 10 und begrenzen den Basis-Winkel α.The base B. is the distance between the centers of the two sensor areas 13 . The camera axes 5 intersect in an object axis 10 and limit the base angle α .

Da das Kamerasystem Zeilensensoren 3 verwendet, sind für die weitere Betrachtung lediglich eine Sensorachse 8, eine Objektivachse 9 und eine Objektachse 10 relevant, welche die Geraden sind, die in der optischen Ebene und zugleich in der oben definierten Sensorebene, der Objektivebene bzw. der Objektebene liegen.Since the camera system has line sensors 3 are used, are only one sensor axis for further consideration 8th , a lens axis 9 and an object axis 10 relevant, which are the straight lines that lie in the optical plane and at the same time in the sensor plane defined above, the objective plane or the object plane.

Der Zeilensensor 3 nimmt ein Abbild des Objektbereichs 6, welches durch das Objektiv 2 auf den Zeilensensor 3 abgebildet wird, auf. Der Zeilensensor 3 ist ein CCD-Sensor und umfasst ein Schieberegister und ein eindimensionales Array aus Fotodetektoren, wobei jeder Fotodetektor zur Aufnahme eines Pixels dient. Bei jedem Zeilensensor 3 verläuft die Sensorachse 8 deckungsgleich mit der Sensorzeile.The line sensor 3 takes an image of the object area 6th which through the lens 2 on the line sensor 3 is mapped on. The line sensor 3 is a CCD sensor and comprises a shift register and a one-dimensional array of photodetectors, each photodetector serving to receive a pixel. With every line sensor 3 runs the sensor axis 8th congruent with the sensor line.

Die Objektive 2 der Kameramodule 1 sind derart zu dem jeweiligen Zeilensensor 3 angeordnet, dass der Objektbereich 6 scharf in der Ebene des Zeilensensors 3 abgebildet wird. Das Objektiv 2 kann aus einer einzelnen Linse oder aus mehreren Linsen ausgebildet sein. Eine optische Achse des Objektivs 2 ist eine Symmetrieachse des Objektivs 2, welche senkrecht zur Objektivachse 9 in der optischen Ebene verläuft.The lenses 2 the camera modules 1 are like this to the respective line sensor 3 arranged that the object area 6th sharp in the plane of the line sensor 3 is mapped. The objective 2 can be formed from a single lens or from multiple lenses. An optical axis of the lens 2 is an axis of symmetry of the lens 2 which is perpendicular to the lens axis 9 runs in the optical plane.

Der Objektbereich 6 liegt auf der Objektachse 10 und wird scharf auf die Sensorbereiche 13 abgebildet.The object area 6th lies on the object axis 10 and gets sharp on the sensor areas 13 pictured.

Die Sensorachse 8, die Objektivachse 9 und die Objektachse 10 schneiden sich in einem gemeinsamen Punkt, der jedoch nicht im Unendlichen liegt. Damit ist die Scheimpflug-Bedingung erfüllt.The sensor axis 8th , the lens axis 9 and the object axis 10 intersect at a common point, which, however, is not at infinity. The Scheimpflug condition is thus fulfilled.

Nachfolgend wird ein zweites Ausführungsbeispiel (2a) erläutert, wobei gleiche Elemente wie beim ersten Ausführungsbeispiel mit den gleichen Bezugszeichen versehen sind. Für gleiche Elemente gelten die oben angeführten Erläuterungen, sofern nachfolgend nichts anderes hierzu ausgeführt ist.A second exemplary embodiment ( 2a) explained, wherein the same elements as in the first embodiment are provided with the same reference numerals. The explanations given above apply to the same elements, unless otherwise stated below.

Beim zweiten Ausführungsbeispiel umfasst ein erfindungsgemäßes Stereokamerasystem 25 wiederum zwei Kameramodule 1a und 1b. Jedes Kameramodul 1 umfasst ein Objektiv 2, zwei Spiegel 11, 12 und einen Zeilensensorbereich 13. Die Kameraachse 5 wird durch die beiden Spiegel 11, 12 umgelenkt. Der Zeilensensorbereich 13 eines jeden Kameramodules 1a und 1b liegt in einer Linie hintereinander und bildet zusammen einen Zeilensensor 3.The second embodiment includes a stereo camera system according to the invention 25th again two camera modules 1a and 1b. Any camera module 1 includes a lens 2 , two mirrors 11 , 12th and a line sensor area 13 . The camera axis 5 is through the two mirrors 11 , 12th diverted. The line sensor area 13 of each camera module 1a and 1b lies in a line one behind the other and together forms a line sensor 3 .

Die Spiegel 11, 12 sind derart zwischen Objektiv 2 und Zeilensensorbereich 13 angeordnet, dass der Objektbereich 6 auf den Zeilensensorbereich 13 fällt.The mirror 11 , 12th are so between lens 2 and line sensor area 13 arranged that the object area 6th on the line sensor area 13 falls.

Die Sensorachse 8 wird am Spiegel 11 gespiegelt. Sensorachse 8' (nicht eingezeichnet) ist die gespiegelte Sensorachse 8. Die Sensorachse 8' wird wiederum am Spiegel 12 gespiegelt. Sensorachse 8" (nicht eingezeichnet) ist die gespiegelte Sensorachse 8', beziehungsweise die doppelt gespiegelte Sensorachse 8.The sensor axis 8th is at the mirror 11 mirrored. Sensor axis 8 '(not shown) is the mirrored sensor axis 8th . The sensor axis 8 'is in turn on the mirror 12th mirrored. Sensor axis 8 ″ (not shown) is the mirrored sensor axis 8 ', or the double mirrored sensor axis 8th .

Eine Basis B des Stereokamerasystems 25 ist durch den Abstand der Mittelpunkte von Projektionen der beiden Zeilensensoren 3 gegeben, wobei die Projektion eines Zeilensensors der Ort ist, wo der Zeilensensor 3 wäre, würde das Abbild des Objektivbereichs 6 nicht gespiegelt werden.One Base B. of the stereo camera system 25th is the distance between the center points of the projections of the two line sensors 3 where the projection of a line sensor is the place where the line sensor 3 would be the image of the lens area 6th not be mirrored.

Die Sensorachse 8", die Objektivachse 9 und die Objektachse 10 schneiden sich in einem gemeinsamen Punkt, der jedoch nicht im Unendlichen liegt. Damit ist die Scheimpflug-Bedingung erfüllt.The sensor axis 8 ", the lens axis 9 and the object axis 10 intersect at a common point, which, however, is not at infinity. The Scheimpflug condition is thus fulfilled.

Das zweite Ausführungsbeispiel unterscheidet sich vom ersten Ausführungsbeispiel darin, dass jeweils zwei Spiegel 11, 12 pro Kameramodul 1a, 1b die Fokii des Objektbereichs 10 derart umlenken, dass diese auf einer gemeinsamen Achse, der jeweiligen Sensorachse 8, liegen. Somit werden keine zwei separaten Sensoren benötigt, sondern beide Strahlengänge können auf einen Zeilensensor 3 projiziert werden, der in zwei Zeilensensorbereiche 13 unterteilt ist.The second embodiment differs from the first embodiment in that there are two mirrors 11 , 12th the foci of the object area per camera module 1a, 1b 10 deflect so that they are on a common axis, the respective sensor axis 8th , lie. This means that no two separate sensors are required, rather both beam paths can be directed to one line sensor 3 projected into two line sensor areas 13 is divided.

In diesem Ausführungsbeispiel ist die Sensorachse 8 parallel zur Objektachse 10. Es ist aber auch vorstellbar, dass diese beiden Achsen nicht parallel sind. Beide Kameramodule sind dann nicht spiegelsymmetrisch aufgebaut.In this embodiment, the sensor axis is 8th parallel to the object axis 10 . But it is also conceivable that these two axes are not parallel. Both camera modules are then not constructed with mirror symmetry.

Alternativ weist das Stereokamerasystem 25 einen Abstand zwischen den beiden Zeilensensorbereichen 13 auf (2b). Jeder Zeilensensor 3 umfasst nun einen Zeilensensorbereich 13. Dieses Ausführungsbeispiel weist gewisse Ähnlichkeiten zum Hyperskop auf, welches jedoch nicht den Scheimpflug-Bedingungen unterliegt.Alternatively, the stereo camera system 25th a distance between the two line sensor areas 13 on ( 2 B) . Any line sensor 3 now includes a line sensor area 13 . This exemplary embodiment has certain similarities to the hyperscope, which, however, is not subject to the Scheimpflug conditions.

Eine weitere Möglichkeit dieser Ausführungsform besteht darin, dass sich die beiden optischen Achsen überschneiden, sodass das erste Bild des Objektbereichs 6 auf dem gegenüberliegenden Zeilensensor 3b, bzw. Zeilensensorbereich 13b projiziert wird. Ohne Scheimpflug-Bedingung ist diese Anordnung als Pseudoskop bekannt.Another possibility of this embodiment is that the two optical axes intersect, so that the first image of the object area 6th is projected onto the opposite line sensor 3b or line sensor area 13b. Without the Scheimpflug condition, this arrangement is known as a pseudoscope.

Eine weiteres Ausführungsbeispiel besteht darin, dass das Stereokamerasystem 25 einen Aufbau gemäß dem zweiten Ausführungsbeispiel (2c) hat, jedoch sind die Sensorbereiche 13 nicht entlang der Sensorachse 8 in einer Linie nebeneinander angeordnet, sondern senkrecht zur Sensorachse 8 parallel zu einander angeordnet. Diese Sensorbereiche 13 können, wie es unten näher erläutert ist, jeweils durch die unterschiedlichen Farbzeilen eines Zeilensensors 3 ausgebildet sein. Beide Strahlengänge sind senkrecht zum Zeilenfarbsensor 3 derart zueinander versetzt angeordnet, dass die beiden unterschiedlichen Strahlengängen leicht versetzt auf den Zeilenfarbsensor 3 treffen. Die beiden Spiegel 11 sind nebeneinander angeordnet.. Entlang jedem Strahlengang wird dann ein Farbfilter 26 positioniert. Somit trifft das Bild des einen Kameramodules 1a als z.B. rotes Bild auf den Zeilenfarbsensor 3 und das Bild des anderen Kameramodules 1b als z.B. grünes Bild auf den Zeilenfarbsensor 3. Dadurch kann ein Zeilenfarbsensor 3 gleichzeitig zwei, oder sogar mehrere, Bilder des Objektbereichs 6 aufnehmen. Die Oberfläche des Objektes sollte hierbei nicht in der Farbe einer der Farbfilter 26 sein, da ansonsten die Bildinformationen der Oberfläche herausgefiltert werden. Der Strahlengang mit dem Farbfilter einer ersten Farbe trifft somit auf die Sensorzeile, die die erste Farbe erkennt. Der Strahlengang mit dem Farbfilter der zweiten Farbe trifft auf die Sensorzeile, die die zweite Farbe erkennt.Another embodiment is that the stereo camera system 25th a structure according to the second embodiment ( 2c ), but the sensor areas are 13 not along the sensor axis 8th arranged in a line next to each other, but perpendicular to the sensor axis 8th arranged parallel to each other. These sensor areas 13 can, as explained in more detail below, each by the different color lines of a line sensor 3 be trained. Both beam paths are perpendicular to the line color sensor 3 so arranged offset from one another that the two different beam paths are slightly offset on the line color sensor 3 to meet. The two mirrors 11 are arranged next to each other. A color filter is then placed along each beam path 26th positioned. The image from one camera module 1a thus hits the line color sensor as a red image, for example 3 and the image of the other camera module 1b as, for example, a green image on the line color sensor 3 . This allows a line color sensor 3 simultaneously two, or even several, images of the object area 6th take up. The surface of the object should not be in the color of one of the color filters 26th otherwise the Image information of the surface can be filtered out. The beam path with the color filter of a first color thus hits the sensor line that detects the first color. The beam path with the color filter of the second color hits the sensor line that detects the second color.

Bevorzugt werden Objekt-Oberflächen, die weiß sind oder Graustufen aufweisen. Weiß oder Graustufen weisen für jede Farbe des Farbspektrums gleiche Intensitätswerte auf. Gelangt das Licht durch den jeweiligen Farbfilter 26, wird die integrierte Intensität des Lichtes über alle Farben entsprechend unabhängig der Farbe des Farbfilters gleichermaßen reduziert. Werden die Farbkanäle des Zeilensensors 3 als Graustufen ausgewertet, unterscheiden sich die daraus entstehenden Abbildungen beider Strahlengänge in ihrer Graustufenintensität nur durch die unterschiedlichen Betrachtungswinkel zum Objekt und nicht durch die unterschiedliche Farbe des Strahlenganges.
In diesem Ausführungsbeispiel sind die Farbfilter 26 vor dem Objektiv 2a und 2b angeordnet (2c). Sie können jedoch auch zwischen Spiegel 12 und Objektiv 2a, 2b oder zwischen Spiegel 11 und 12 oder auch zwischen Zeilenfarbsensor 3 und Spiegel 11 angeordnet sein.
Object surfaces that are white or have gray levels are preferred. White or grayscale have the same intensity values for each color in the color spectrum. The light gets through the respective color filter 26th , the integrated intensity of the light is reduced across all colors, regardless of the color of the color filter. Become the color channels of the line sensor 3 evaluated as gray levels, the resulting images of both beam paths differ in their gray level intensity only due to the different viewing angles to the object and not due to the different color of the beam path.
In this embodiment the filters are color 26th arranged in front of objective 2a and 2b ( 2c ). However, you can also choose between mirrors 12th and lens 2a, 2b or between mirrors 11 and 12th or between line color sensors 3 and mirror 11 be arranged.

Alternativ können statt der Farbfilter 26 auch unterschiedliche Polfilter entlang dem Strahlengang verwendet werden, sofern der Zeilensensor 3 entsprechend unterschiedlich polarisierte Bilder des Objektbereichs 6 getrennt aufnehmen kann. Jeder Strahlengang des Stereokamerasystems 25 weist somit eine andere Polarisation auf, wenn er auf den Zeilensensor 3 trifft. Wird die Phase und die Intensität der Bilder aufgenommen, so lässt sich dieses Verfahren auch in der Holographie verwenden. Die Oberfläche des Objektes darf hierbei die Polarisation nicht ändern, da ansonsten die Polfilter Bildinformationen herausfiltern, die zur Berechnung der Höheninformationen notwendig sind.Alternatively, instead of the color filter 26th Different polarizing filters can also be used along the beam path, provided the line sensor is used 3 accordingly differently polarized images of the object area 6th can record separately. Each beam path of the stereo camera system 25th thus has a different polarization when it hits the line sensor 3 meets. If the phase and the intensity of the images are recorded, this method can also be used in holography. The surface of the object must not change the polarization, otherwise the polarization filters filter out image information that is necessary to calculate the height information.

Im Folgenden wird ein drittes Ausführungsbeispiel (3) beschrieben, wobei gleiche Elemente wie beim ersten und zweiten Ausführungsbeispiel mit den gleichen Bezugszeichen versehen sind. Für gleiche Elemente gelten die oben angeführten Erläuterungen, sofern nachfolgend nichts anderes hierzu ausgeführt ist.A third exemplary embodiment ( 3 ), the same elements as in the first and second exemplary embodiment being provided with the same reference numerals. The explanations given above apply to the same elements, unless otherwise stated below.

Beim dritten Ausführungsbeispiel umfasst ein Stereokamerasystem 25 wiederum zwei Kameramodule 1a und 1b. Jedes Kameramodul 1 umfasst ein Objektiv 2, einen Spiegel 11 und einen Zeilensensor 3. Die Kameraachse 5 wird durch den Spiegel 11 umgelenkt.The third embodiment includes a stereo camera system 25th again two camera modules 1a and 1b. Any camera module 1 includes a lens 2 , a mirror 11 and a line sensor 3 . The camera axis 5 is through the mirror 11 diverted.

Die Spiegel 11 ist derart zwischen Objektiv 2 und Zeilensensor 3 angeordnet, dass der Objektbereich 6 auf den Zeilensensor 3 fällt.The mirror 11 is so between lens 2 and line sensor 3 arranged that the object area 6th on the line sensor 3 falls.

Die Sensorachse 8 wird am Spiegel 11 gespiegelt. Sensorachse 8' (nicht eingezeichnet) ist die gespiegelte Sensorachse 8. Die beiden Sensorachsen 8 der beiden Kameramodule 1 sind in diesem Ausführungsbeispiel nicht unbedingt parallel zueinander.The sensor axis 8th is at the mirror 11 mirrored. Sensor axis 8 '(not shown) is the mirrored sensor axis 8th . The two sensor axes 8th of the two camera modules 1 are not necessarily parallel to one another in this exemplary embodiment.

Eine Basis B des Stereokamerasystems 25 ist durch den Abstand der Mittelpunkte von Projektionen der beiden Zeilensensoren 3 gegeben, wobei die Projektion eines Zeilensensors der Ort ist, wo der Zeilensensor 3 wäre, würde das Abbild des Objektivbereichs 6 nicht gespiegelt werden.One Base B. of the stereo camera system 25th is the distance between the center points of the projections of the two line sensors 3 where the projection of a line sensor is the place where the line sensor 3 would be the image of the lens area 6th not be mirrored.

Die Sensorachse 8', die Objektivachse 9 und die Objektachse 10 schneiden sich in einem gemeinsamen Punkt, der jedoch nicht im Unendlichen liegt. Damit ist die Scheimpflug-Bedingung erfüllt.The sensor axis 8 ', the lens axis 9 and the object axis 10 intersect at a common point, which, however, is not at infinity. The Scheimpflug condition is thus fulfilled.

Im Unterschied zum zweiten Ausführungsbeispiel liegen die beiden Zeilensensorbereiche 13 nicht mehr in einer Linie hintereinander. Des Weiteren können durch die Spiegel 11 die Sensoren 3 senkrecht oder nahezu senkrecht zum Objektbereich 6 angeordnet werden, wodurch eine sehr kompakte Bauform gewählt werden kann.In contrast to the second exemplary embodiment, the two line sensor areas are located 13 no longer in a line behind each other. Furthermore, through the mirror 11 the sensors 3 perpendicular or almost perpendicular to the object area 6th be arranged, whereby a very compact design can be selected.

Nachfolgend wird ein viertes Ausführungsbeispiel (5) erläutert, wobei gleiche Elemente wie beim ersten Ausführungsbeispiel mit den gleichen Bezugszeichen versehen sind. Für gleiche Elemente gelten die oben angeführten Erläuterungen, sofern nachfolgend nichts anderes hierzu ausgeführt ist.A fourth exemplary embodiment ( 5 ), the same elements as in the first exemplary embodiment being provided with the same reference numerals. The explanations given above apply to the same elements, unless otherwise stated below.

Beim vierten Ausführungsbeispiel umfasst ein erfindungsgemäßes Stereokamerasystem 25 drei Kameramodule 1a, 1b und 1c. Statt eines einfachen Zeilensensors umfasst das Stereokamerasystem 25 einen Dreizeilensensor 15. Der Dreizeilensensor 15 umfasst drei parallele, nebeneinander angeordnete Sensorbereiche 13. Die Sensorachsen 8 sind senkrecht zur optischen Ebene angeordnet.In the fourth exemplary embodiment, a stereo camera system according to the invention comprises 25th three camera modules 1a, 1b and 1c. Instead of a simple line sensor, the stereo camera system comprises 25th a three-line sensor 15th . The three-line sensor 15th comprises three parallel sensor areas arranged side by side 13 . The sensor axes 8th are arranged perpendicular to the optical plane.

Jedes Kameramodul 1a und 1c umfasst ein Objektiv 2, zwei Spiegel 11, 12 und einen der drei Zeilensensorbereiche 13. Das Kameramodul 1b umfasst ein Objektiv 2 und einen der drei Zeilensensorbereiche 13. Die Kameramodule 1 tasten aus drei unterschiedlichen Blickrichtungen einen gemeinsamen Objektbereich 6 ab.Each camera module 1a and 1c includes a lens 2 , two mirrors 11 , 12th and one of the three line sensor areas 13 . The camera module 1b comprises a lens 2 and one of the three line sensor areas 13 . The camera modules 1 feel a common object area from three different perspectives 6th from.

Bei den äußeren Kameramodulen 1a und 1c wird die Sensorachse 8 am Spiegel 11 gespiegelt. Sensorachse 8' (nicht eingezeichnet) ist die gespiegelte Sensorachse 8. Die Sensorachse 8' wird wiederum am Spiegel 12 gespiegelt. Sensorachse 8" (nicht eingezeichnet) ist die gespiegelte Sensorachse 8', beziehungsweise die doppelt gespiegelte Sensorachse 8.In the case of the outer camera modules 1a and 1c, the sensor axis 8th at the mirror 11 mirrored. Sensor axis 8 '(not shown) is the mirrored sensor axis 8th . The sensor axis 8 'is in turn on the mirror 12th mirrored. Sensor axis 8 ″ (not shown) is the mirrored sensor axis 8 ', or the double mirrored sensor axis 8th .

Werden drei Kameramodule 1 bei einem Stereokamerasystem 25 verwendet, so sind drei Basislängen B für jede Kombination zweier Kameramodule 1 möglich. Eine Basis B ist durch den Abstand der Mittelpunkte von Projektionen der beiden Zeilensensoren 3 gegeben, wobei die Projektion eines Zeilensensors der Ort ist, wo der Zeilensensor 3 wäre, würde das Abbild des Objektivbereichs 6 nicht gespiegelt werden.Will be three camera modules 1 with a stereo camera system 25th are used, there are three base lengths B. for every combination of two camera modules 1 possible. One Base B. is the distance between the center points of the projections of the two line sensors 3 where the projection of a line sensor is the place where the line sensor 3 would be the image of the lens area 6th not be mirrored.

Die Sensorachse 8, bzw. 8", die Objektivachse 9 und die Objektachse 10 schneiden sich in einem gemeinsamen Punkt, der jedoch nicht im Unendlichen liegt. Damit ist die Scheimpflug-Bedingung erfüllt.The sensor axis 8th , or 8 ", the lens axis 9 and the object axis 10 intersect at a common point, which, however, is not at infinity. The Scheimpflug condition is thus fulfilled.

Alternativ umfasst das Stereokamerasystem 25 anstatt der drei Objektive 2a bis 2c lediglich ein einzelnes Objektiv 2, das alle drei Kameramodule 1a, 1b und 1c umschließt. Zum Ausgleich weist das mittlere Kameramodul 1b ein Glaselement 19 auf (6).Alternatively, the stereo camera system comprises 25th instead of the three lenses 2a to 2c only a single lens 2 , which encloses all three camera modules 1a, 1b and 1c. To compensate for this, the middle camera module 1b has a glass element 19th on ( 6th ).

Das vierte Ausführungsbeispiel unterscheidet sich von den vorhergehenden Ausführungsbeispielen dadurch, dass die Zeilensensorbereiche 13 parallel nebeneinander und nicht in einer Linie hintereinander angeordnet sind.The fourth exemplary embodiment differs from the preceding exemplary embodiments in that the line sensor areas 13 are arranged parallel to each other and not in a line one behind the other.

In einer alternativen Ausführungsform der oben genannten Ausführungsbeispiele ist das Objektiv eines jeden Kameramodules 1 ein hyperchromatisches Objektiv 14, dessen Fokus besonders von der jeweiligen Wellenlänge abhängig ist (siehe 4). Des Weiteren ist der Dreizeilensensor 15 ein Dreizeilenfarbsensor 15, welcher eine Rot- 16a, Grün- 16b und Blauzeile 16c aufweist. Durch das hyperchromatische Objektiv 14 weist die jeweilige Rot-, Grün- und Blauzeile (16a, 16b, 16c) des Dreizeilenfarbsensors 15 jeweils eine andere Fokusebene 17a, 17b und 17c auf. Dadurch misst jede Farbzeile 16a, 16b und 16c einen anderen Höhenmessbereich 18a, 18b und 18c. Die Auflösung der Höhe entspricht hierbei die der Farbauflösung.In an alternative embodiment of the above-mentioned exemplary embodiments, the lens of each camera module is 1 a hyperchromatic lens 14th whose focus is particularly dependent on the respective wavelength (see 4th ). Furthermore, there is the three-line sensor 15th a three-line color sensor 15th which has a red 16a, green 16b and blue line 16c. Through the hyperchromatic lens 14th indicates the respective red, green and blue lines (16a, 16b, 16c) of the three-line color sensor 15th each have a different focal plane 17a, 17b and 17c. As a result, each color line 16a, 16b and 16c measures a different height measuring area 18a, 18b and 18c. The resolution of the height corresponds to that of the color resolution.

Vorzugsweise werden die Farb-Zeilen 16 in Bezug zum Objektiv 14 verkippt. Die Verkippung erfolgt um eine Achse, die parallel zu den einzelnen Farb-Zeilen 16 ist. Entlang einer Farb-Zeile 16 bleibt die Scheimpflug-Bedingung erhalten. Durch diese Verkippung ändert sich der Abstand einer Farb-Zeile 16 zum Objektiv 14, wodurch auch die Fokusebene 17 sich verschiebt.Preferably the color lines 16 in relation to the lens 14th tilted. The tilting takes place around an axis that is parallel to the individual color lines 16 is. Along a line of color 16 the Scheimpflug condition is retained. This tilting changes the spacing of a color line 16 to the lens 14th which also makes the level of focus 17th shifts.

Eine weitere Möglichkeit der Erfindung besteht darin, dass die Kameramodule 1 anstatt eines Zeilensensors 3 einen Flächensensor aufweisen. Der Flächensensor ist zweidimensionales Array aus Fotodetektoren, wobei jeder Fotodetektor einen Pixel entspricht. In diesem Ausführungsbeispiel wird der Flächensensor als eine Aneinanderreihung paralleler Zeilensensoren 3 betrachtet.Another possibility of the invention is that the camera modules 1 instead of a line sensor 3 have an area sensor. The area sensor is a two-dimensional array of photodetectors, each photodetector corresponding to one pixel. In this exemplary embodiment, the area sensor is used as a series of parallel line sensors 3 considered.

Der Flächensensor ist um einer Kippachse gekippt. Die Kippachse ist parallel zu den einzelnen Zeilensensoren 3. Die einzelnen Zeilen, sowie deren zugeordnete Sensorachsen 8, bzw. 8' oder 8", sind derart angeordnet, dass sie in einem Punkt die Objektivachse 9 und die Objektachse 10 schneiden und somit die Scheimpflug-Bedingung erfüllen.The area sensor is tilted about a tilt axis. The tilt axis is parallel to the individual line sensors 3 . The individual lines and their assigned sensor axes 8th , or 8 'or 8 ", are arranged in such a way that they represent the objective axis at one point 9 and the object axis 10 cut and thus meet the Scheimpflug condition.

Der Betrag des Winkels zwischen der Normalen des Flächensensors und der optischen Achse ist hierbei kleiner als 90°. Jede Zeile des Flächensensors weist einen anderen Höhenmessbereich 18 auf. Die aneinander liegenden Höhenmessbereiche führen zu einer Höhenbereichserweiterung. Für Objekte mit unterschiedlicher Höhe kann somit der gleiche Kameraaufbau genutzt werden. Jede Höhe des Objektes wird zumindest eine entsprechende Zeile des Flächensensors mit dazugehörigem Höhenmessbereich zugeordnet.The amount of the angle between the normal of the area sensor and the optical axis is less than 90 °. Each line of the area sensor has a different height measuring range 18th on. The adjacent height measuring ranges lead to an extension of the height range. The same camera structure can therefore be used for objects with different heights. Each height of the object is assigned at least one corresponding line of the area sensor with the associated height measurement area.

In einer alternativen Ausführungsform der oben genannten Ausführungsbeispiele werden anstatt eines geraden Spiegels 11 derart gekrümmte Spiegel verwendet, so dass die Bilder des Messobjektes 1 verzerrungsfrei auf den Zeilensensor 3 auftreffen.In an alternative embodiment of the above-mentioned embodiments, instead of a straight mirror 11 Such curved mirrors are used, so that the images of the measurement object 1 distortion-free on the line sensor 3 hit.

Die oben genannten Ausführungsbeispiele umfassen jeweils zwei oder drei Kameramodule 1. Prinzipiell können beliebig viele, zumindest jedoch zwei Kameramodule zur stereoskopischen Bestimmung von Oberflächentopologien vorgesehen sein. Je höher die Anzahl an Kameramodulen ist, desto kleiner wird der statistische Fehler. Allerdings steigen auch die Kosten. Die Anzahl der Basis-Längen ergibt sich aus der Dreieckszahl. Beispielsweise ist bei zwei Kameramodulen 1 nur eine Basis möglich, bei drei Kameramodulen 1 sind es drei, bei vier sind es sechs Möglichkeiten und bei fünf gibt es zehn verschiedene Basis-Längen.The above-mentioned exemplary embodiments each include two or three camera modules 1 . In principle, any number, but at least two camera modules can be provided for the stereoscopic determination of surface topologies. The higher the number of camera modules, the smaller the statistical error. However, the costs also increase. The number of base lengths results from the triangle number. For example, there are two camera modules 1 only one base possible with three camera modules 1 there are three, with four there are six possibilities and with five there are ten different base lengths.

Im Folgenden wird eine Oberflächentopologie-Erfassungseinrichtung 20 erläutert (7).The following is a surface topology acquisition device 20th explained ( 7th ).

Die Oberflächentopologie-Erfassungseinrichtung umfasst ein Stereokamerasystem 25, wie es in einem der obigen Ausführungsbeispiele gemäß einer der 1 bis 6 ausgeführt wurde, zur Messung von dreidimensionalen Oberflächentopologien eines Messobjektes 4, eine Transporteinrichtung 21 zum Transport des Messobjektes 4, eine Synchronisierungseinrichtung 22, um die Geschwindigkeit des Transportes mit den Messung der dreidimensionalen Oberflächentopologie zu synchronisieren, und eine Auswerteeinrichtung 23, um die Messungen der dreidimensionalen Oberflächentopologie auszuwerten.The surface topology detection device comprises a stereo camera system 25th , as in one of the above embodiments according to one of the 1 to 6th for the measurement of three-dimensional surface topologies of a measurement object 4th , a transport facility 21st for transporting the measurement object 4th , a synchronization device 22nd to determine the speed of transport with the measurement of the three-dimensional To synchronize surface topology, and an evaluation device 23 to evaluate the measurements of the three-dimensional surface topology.

Die Transporteinrichtung 21 ist in diesem Ausführungsbeispiel ein Förderband.The transport device 21st is in this embodiment a conveyor belt.

Die Synchronisierungseinrichtung 22 ist in diesem Ausführungsbeispiel ein Inkrementalgeber 22. Der Inkrementalgeber ist an das Förderband 21 gekoppelt, sodass es sich bei einer Fortbewegung des Förderbandes dreht. Bei der Drehung um einen vorbestimmten Drehwinkel wird ein Taktsignal ausgegeben. Damit legt das Förderband einen vorbestimmten Weg zwischen zwei aufeinander folgenden Taktsignalen zurück. Diese Taktsignale werden an eine Auswerteeinrichtung 23 übermittelt. Die Auswerteeinrichtung 23 ist auch so mit den Kammermodulen 1 verbunden, um die mit den in den Kammermodulen angeordneten Sensoren 3 erfassten Bildsignale zu erhalten. Die Auswerteeinrichtung 23 ist derart ausgebildet, dass sie den Zeitpunkt, an welchem die jeweiligen Kameramodule das Messobjekt 4 abtasten, steuert. Hierdurch kann die Auswerteeinrichtung 23 entsprechend dem vom Inkrementalgeber 22 erhaltenen Taktsignal die Abtastung des Messobjektes 4 mit der Bewegung des Förderbandes bzw. des Messobjektes 4 synchronisieren. Diese Synchronisation ist vorzugweise so ausgebildet, dass das Messobjekt in Bewegungsrichtung 7 jeweils mit gleichem örtlichen Abstand abgetastet wird. Mehrere aufeinanderfolgende eindimensionale Abtastungen können zu einem zweidimensionalen Bild in der Auswerteeinrichtung 23 zusammengesetzt werden. Somit werden dreidimensionale Informationen von einer Oberflächentopologie erhalten.The synchronization facility 22nd is an incremental encoder in this embodiment 22nd . The incremental encoder is on the conveyor belt 21st coupled so that it rotates when the conveyor belt moves. A clock signal is output when rotating through a predetermined angle of rotation. The conveyor belt thus covers a predetermined distance between two successive clock signals. These clock signals are sent to an evaluation device 23 transmitted. The evaluation device 23 is the same with the chamber modules 1 connected to the sensors arranged in the chamber modules 3 to obtain captured image signals. The evaluation device 23 is designed in such a way that it indicates the point in time at which the respective camera modules reach the measurement object 4th feel, control. This allows the evaluation device 23 according to the incremental encoder 22nd received clock signal the scanning of the measurement object 4th with the movement of the conveyor belt or the measuring object 4th synchronize. This synchronization is preferably designed in such a way that the measurement object is in the direction of movement 7th is scanned with the same spatial distance. Several successive one-dimensional scans can form a two-dimensional image in the evaluation device 23 be put together. Thus, three-dimensional information is obtained from a surface topology.

Die erfassten Bilder können korrigiert werden. Zum einen kann ein Verschiebefehler behoben werden, der dadurch entsteht, dass das Messobjekt 7 relativ zur Kamera bewegt wird und die einzelnen Bildpunkte der Zeilenkamera aufeinanderfolgend empfindlich geschaltet sind. Hierdurch weist bei hohen Geschwindigkeiten die Abbildung eine gewisse Schrägstellung zur Bewegungsrichtung 7 auf.The captured images can be corrected. On the one hand, a displacement error can be corrected that arises from the object being measured 7th is moved relative to the camera and the individual pixels of the line camera are successively switched sensitive. As a result, at high speeds, the image has a certain inclination to the direction of movement 7th on.

Des Weiteren können die Bilder rektifiziert werden. Durch die Rektifizierung werden geometrische Verzerrungen in den Bilddaten eliminiert. Diese können unter anderem durch die Scheimpflug-Anordnung entstehen.Furthermore, the images can be rectified. The rectification eliminates geometric distortions in the image data. These can arise from the Scheimpflug arrangement, among other things.

Die Nachkorrektur der Rektifizierung kann auch direkt In-line bei der Bildregistrierung durchgeführt werden. Direkt nach der Aufnahme einer Bildzeile werden die Daten korrigiert. Hierbei wird nach der Digitalisierung des Sensorsignals die Bildsignale in einem FPGA (engl: Field Programmable Gate Array) auf der Kamera vorverarbeitet. Wenn die Parameter der Verzeichnung der beiden Kameramodule bekannt sind, z.B. aus einer Kalibrierung des Systems, kann im FPGA das gleiche Korrekturmodell angewandt werden, wie konventionell auf einem PC. Eine weitere Korrektur in der Recheneinheit ist somit nicht nötig, wodurch die Verarbeitungsgeschwindigkeit erhöht wird.The correction of the rectification can also be carried out directly in-line during the image registration. The data is corrected immediately after an image line has been recorded. After digitizing the sensor signal, the image signals are preprocessed on the camera in an FPGA (Field Programmable Gate Array). If the parameters of the distortion of the two camera modules are known, e.g. from a calibration of the system, the same correction model can be applied in the FPGA as conventionally on a PC. A further correction in the arithmetic unit is therefore not necessary, which increases the processing speed.

Die so korrigierten Bilder werden für eine Tiefenrekonstruktion der aufgenommenen Oberfläche des Messobjektes 4 genutzt. Ein typisches Verfahren zur Tiefenrekonstruktion ist die Stereotriangulation. Dabei wird jedem Punkt des ersten Bildes ein zweiter Punkt beim zweiten Bild zugeordnet. Der Abstand zwischen den beiden Punkten ist abhängig von der tatsächlichen Raumtiefe des Punktes, genauer gesagt der Entfernung des Sensors 3 zum Objektbereich 6 und der Basis B des Stereokamerasystems 25. Jedem Punkt des ersten Bildes wird so eine Tiefeninformation zugeordnet.The images corrected in this way are used for a depth reconstruction of the recorded surface of the measurement object 4th used. A typical method for depth reconstruction is stereo triangulation. Each point of the first image is assigned a second point in the second image. The distance between the two points depends on the actual spatial depth of the point, more precisely the distance from the sensor 3 to the object area 6th and the base B. of the stereo camera system 25th . Depth information is assigned to each point of the first image.

Alternativ können auch Blöcke, d.h. eine Gruppe von Pixeln, wie z.B. eine 3x3-Matrix, einander zugeordnet werden. Dieses Verfahren wird Block-Matching genannt.Alternatively, blocks, i.e. a group of pixels, e.g. a 3x3 matrix, can be assigned to each other. This process is called block matching.

Für jede aufgenommene Bildzeile wird so eine Bildzeile berechnet, die Tiefeninformationen enthält. Werden mehrere Bildzeilen eines Messobjektes 4 aufgenommen, so können die Zeilen mit den Tiefeninformationen zusammengefügt werden, um so eine dreidimensionale Oberflächentopografie des Messobjektes zu erzeugen. Die Abstände der einzelnen Zeilen können durch Informationen der Synchronisierungseinrichtung 22 berechnet werden.For each recorded image line, an image line containing depth information is calculated. Are several lines of a measurement object 4th recorded, the lines with the depth information can be combined in order to generate a three-dimensional surface topography of the measurement object. The distances between the individual lines can be determined by information from the synchronization device 22nd be calculated.

Werden statt mehrerer Zeilensensoren 3 Zeilensensorbereiche 13 genutzt, werden die Bilddaten aller Kameramodule 1 auf dem gleichen Zeilensensor 3 erzeugt. Das so entstehende digitale Doppelbild wird in der Auswerteeinrichtung 23 geteilt. Die entstehenden zwei Bilder werden wie oben beschrieben korrigiert und für die Tiefenkonstruktion genutzt.Instead of multiple line sensors 3 Line sensor areas 13 is used, the image data of all camera modules are used 1 on the same line sensor 3 generated. The resulting digital double image is used in the evaluation device 23 divided. The resulting two images are corrected as described above and used for the depth construction.

Wird ein Dreizeilenfarbsensor 15 zur Aufnahme des Messobjektes genutzt, so wird für jede Farbe ein eigenständiges Bild erzeugt. Für jede Farbe werden separat, wie oben beschrieben, die eigenständigen Bilder korrigiert und für die Tiefenkonstruktion genutzt.Da jede Farbe einen unterschiedlichen Höhenmessbereich 18a, 18b und 18c bei Verwendung eines hyperchromatischen Objektivs aufweist, kann über eine Bildschärfeerkennung eine zusätzliche Abschätzung des Tiefenprofils der Messobjektoberfläche berechnet werden. Jedem Punkt eines Bildes wird ein Punkt bei den anderen beiden Farbbereichbildern, jedoch desselben Kameramodules 1 zugeordnet. Die Position des Punktes unterscheidet sich bei den drei Bildern nicht. Dafür ist die Bildschärfe des Punktes je nach Tiefe des realen Punktes am Messobjekt 4 und der Farbe unterschiedlich. Liegt ein Punkt tief, so wird er im blauen Bild scharf dargestellt, bei mittlerer Tiefe im grünen und bei niedriger Tiefe im roten Bild. Eine Schärfenerkennung kann z.B. durch einen Kontrastabgleich der Bilder in einer bestimmten Pixelregion durchgeführt werden. Ist ein Punkt schärfer, ist der Kontrast höher.Becomes a three-line color sensor 15th used to record the measurement object, a separate image is generated for each color. For each color, as described above, the independent images are corrected separately and used for the depth construction. Since each color has a different height measuring range 18a, 18b and 18c when using a hyperchromatic objective, an additional estimate of the depth profile of the measuring object surface can be calculated via image definition will. Each point of an image becomes a point in the other two color domain images, but of the same camera module 1 assigned. The position of the point does not differ in the three images. The image sharpness of the point depends on the depth of the real point on the measurement object 4th and color different. If a point is deep, so it is shown in focus in the blue image, in the green image at medium depth and in the red image at low depth. A sharpness detection can be carried out, for example, by comparing the contrast of the images in a specific pixel region. If a point is sharper, the contrast is higher.

In Kombination mit der Stereoskopie-Berechnung ist so eine feine Bestimmung der Oberflächentopologie möglich.
Alternativ zur individuellen Berechnung der einzelnen Farbbilder kann auch aus einem zusammengesetzten RGB-Bild ein graustufen Bild berechnet werden, welches anschließend analysiert wird.
In combination with the stereoscopic calculation, a fine determination of the surface topology is possible.
As an alternative to the individual calculation of the individual color images, a gray-scale image can also be calculated from a composite RGB image, which is then analyzed.

Wird ein Flächensensor zur Aufnahme des Messobjektes genutzt, so wird für jede Zeile ein eigenständiges Bild erzeugt. Für jede Zeile werden separat, wie oben beschrieben, die eigenständigen Bilder korrigiert und für die Tiefenkonstruktion genutzt. Anschließend wird in jeden eigenständigen Bild die Schärfe eines realen Punktes am Messobjekt 4 bestimmt. So kann die Zeile bestimmt werden, welche den Punkt am schärfsten aufgenommen hat. Da die Position der Zeile und die Brennweite bekannt sind, kann dadurch die Entfernung des Punktes bestimmt werden. Werden alle Punkte miteinander verbunden, entsteht ein Höhenprofil des Messobjektes 4.If a surface sensor is used to record the measurement object, an independent image is generated for each line. As described above, the independent images are corrected separately for each line and used for the depth construction. The sharpness of a real point on the measuring object is then shown in each independent image 4th certainly. In this way the line can be determined which recorded the point most sharply. Since the position of the line and the focal length are known, the distance to the point can be determined. If all points are connected to one another, a height profile of the measuring object is created 4th .

Neben den oben erwähnten Dreizeilensensoren 15 sind auch weitere Kombinationen denkbar, wie z.B. ein Sensor mit drei Zeilen aus RGB-Sensorpunkten, ein Sensor mit drei Zeilen aus Sensorpunkten, die auch Graustufen erkennt, ein Sensor mit drei Zeilen aus Sensorpunkten, die nur Graustufen erkennt, etc.Besides the three line sensors mentioned above 15th Other combinations are also conceivable, such as a sensor with three lines of RGB sensor points, a sensor with three lines of sensor points that also detects gray levels, a sensor with three lines of sensor points that only detects gray levels, etc.

Die oben erwähnten Sensoren können, wie oben erwähnt CCD-Sensoren sein, aber auch andere Sensor-Arten, wie z.B. Complementary metal-oxide-semiconductor (CMOS)-Sensoren, sind denkbar.The sensors mentioned above can, as mentioned above, be CCD sensors, but also other types of sensors, e.g. Complementary metal-oxide-semiconductor (CMOS) sensors are conceivable.

BezugszeichenlisteList of reference symbols

11
KameramodulCamera module
22
Objektivlens
33
Sensorsensor
44th
MessobjektMeasurement object
55
KameraachseCamera axis
66th
ObjektbereichObject area
77th
VerschieberichtungShift direction
88th
SensorachseSensor axis
99
ObjektivachseLens axis
1010
ObjektachseObject axis
1111
Spiegel 1Mirror 1
1212
Spiegel 2Mirror 2
1313
ZeilensensorbereichLine sensor area
1414th
Hyperchromatisches ObjektivHyperchromatic lens
1515th
DreizeilensensorThree-line sensor
1616
FarbzeileColor line
1717th
FokusebeneFocus plane
1818th
HöhenmessbereichHeight measuring range
1919th
GlaselementGlass element
2020th
Oberflächentopologie-ErfassungseinrichtungSurface topology acquisition device
2121st
TransporteinrichtungTransport device
2222nd
SynchronisierungseinrichtungSynchronization facility
2323
AuswerteeinrichtungEvaluation device
2525th
StereokamerasystemStereo camera system
2626th
Farbfilter Color filter
αα
Basis-WinkelBase angle
ββ
Scheimpflug-WinkelScheimpflug angle
γγ
Öffnungswinkel des Objektivs Opening angle of the lens
BB.
BasisBase

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • DE 102013103897 A1 [0037]DE 102013103897 A1 [0037]

Zitierte Nicht-PatentliteraturNon-patent literature cited

  • „Scheimpflug stereocamera for particle image velocimetry in liquid flows“, Ajay K. Prasad und Kirk Jensen, APPLIED OPTICS 34, 30 (1995) [0017]"Scheimpflug stereocamera for particle image velocimetry in liquid flows", Ajay K. Prasad and Kirk Jensen, APPLIED OPTICS 34, 30 (1995) [0017]

Claims (18)

Stereokamerasystem zur Messung von dreidimensionalen Oberflächentopologien eines Objektes mit zumindest zwei zeilenförmigen Sensorbereichen und zumindest einem Objektiv zum Abbilden des Objektes auf die Sensorbereiche, wobei die Sensorbereiche und das oder die Objektive derart angeordnet sind, dass ein Objektbereich mit zwei unabhängigen Strahlengängen jeweils gleichzeitig auf einem der Sensorbereiche abgebildet wird, dadurch gekennzeichnet, dass entlang zumindest einem der Strahlengänge die Scheimpflug-Bedingung erfüllt ist.Stereo camera system for measuring three-dimensional surface topologies of an object with at least two line-shaped sensor areas and at least one lens for imaging the object onto the sensor areas, the sensor areas and the lens (s) being arranged in such a way that an object area with two independent beam paths is simultaneously on one of the sensor areas is imaged, characterized in that the Scheimpflug condition is met along at least one of the beam paths . Stereokamerasystem nach Anspruch 1, dadurch gekennzeichnet, dass entlang aller Strahlengänge die Scheimpflug-Bedingung erfüllt ist.Stereo camera system Claim 1 , characterized in that the Scheimpflug condition is met along all beam paths . Stereokamerasystem nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass ein oder mehrere der Strahlengänge mit zumindest einem Spiegel gelenkt werden.Stereo camera system Claim 1 or 2 , characterized in that one or more of the beam paths are directed with at least one mirror. Stereokamerasystem nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Strahlengänge auf jeweils einen separaten Teil eines einzigen Sensors projiziert werden, welcher in die Anzahl der Strahlengänge unterteilt ist.Stereo camera system according to one of the Claims 1 to 3 , characterized in that the beam paths are each projected onto a separate part of a single sensor, which is divided into the number of beam paths. Stereokamerasystem nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Strahlengänge auf jeweils einen separaten Sensor projiziert werden und dass zumindest ein Spiegel je Strahlengang vorgesehen ist und der Strahlengang je Strahlengang in Scheimpflug-Anordnung konfiguriert ist.Stereo camera system according to one of the Claims 1 to 3 , characterized in that the beam paths are each projected onto a separate sensor and that at least one mirror is provided for each beam path and the beam path for each beam path is configured in a Scheimpflug arrangement. Stereokamerasystem nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Strahlengänge auf jeweils einen separaten Sensor projiziert werden und dass zwei Spiegel je Strahlengang vorgesehen sind und der Strahlengang je Strahlengang in Scheimpflug-Anordnung konfiguriert ist.Stereo camera system according to one of the Claims 1 to 3 , characterized in that the beam paths are each projected onto a separate sensor and that two mirrors are provided for each beam path and the beam path for each beam path is configured in a Scheimpflug arrangement. Stereokamerasystem nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die zeilenförmigen Sensorbereiche nebeneinander auf einer Linie angeordnet sind, die jeweils durch einen Zeilensensor dargestellt werden.Stereo camera system according to one of the Claims 1 to 6th , characterized in that the line-shaped sensor areas are arranged side by side on a line, each of which is represented by a line sensor. Stereokamerasystem nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die zeilenförmigen Sensorbereiche parallel nebeneinander angeordnet sind.Stereo camera system according to one of the Claims 1 to 5 , characterized in that the line-shaped sensor areas are arranged parallel to one another. Stereokamerasystem nach Anspruch 8, dadurch gekennzeichnet, dass die zeilenförmigen Sensorbereiche Bildpunkt-Zeilen eines Flächensensors sind.Stereo camera system Claim 8 , characterized in that the line-shaped sensor areas are pixel lines of an area sensor. Stereokamerasystem nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass in allen Strahlengängen ein gemeinsames Objektiv angeordnet ist.Stereo camera system according to one of the Claims 1 to 9 , characterized in that a common lens is arranged in all beam paths . Stereokamerasystem nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass in zumindest einem der Strahlengänge ein Glaselement angeordnet ist.Stereo camera system according to one of the Claims 1 to 10 , characterized in that a glass element is arranged in at least one of the beam paths . Stereokamerasystem zur Messung von dreidimensionalen Oberflächentopologien eines Objektes, insbesondere nach einem der Ansprüche 1 bis 11, mit - zumindest einem Farbsensor, wobei der Farbsensor mehrere Bildpunkte aufweist, die auf unterschiedliche Farben empfindlich sind, - zumindest einem hyperchromatischen Objektiv zum Abbilden des Objektes auf den Sensor, dadurch gekennzeichnet, dass der Farbsensor zum Objektiv derart angeordnet ist, dass unterschiedliche Fokusebenen jeweils auf die Bildpunkte der gleichen Farbe abgebildet werden.Stereo camera system for measuring three-dimensional surface topologies of an object, in particular according to one of the Claims 1 to 11 with - at least one color sensor, the color sensor having several pixels that are sensitive to different colors, - at least one hyperchromatic lens for imaging the object on the sensor, characterized in that the color sensor is arranged in relation to the lens in such a way that different focal planes each are mapped onto the pixels of the same color. Stereokamerasystem nach Anspruch 12, dadurch gekennzeichnet, dass Farbkanäle des Farbsensors separat ausgewertet werden.Stereo camera system Claim 12 , characterized in that color channels of the color sensor are evaluated separately. Stereokamerasystem zur Messung von dreidimensionalen Oberflächentopologien eines Objektes mit - zumindest zwei Flächensensoren, wobei die Flächensensoren derart ausgebildet sind, dass sie mehrere parallele nebeneinander angeordnete Bildpunkt-Zeilen aufweisen, - zumindest zwei Objektiven zum Abbilden des Objektes auf jeweils einem der Flächensensoren, dadurch gekennzeichnet, dass ein Objektbereich mit zwei unabhängigen Strahlengängen jeweils gleichzeitig auf einem der Sensoren abgebildet wird, dass ein zeilenförmiger Objektbereich auf die Bildpunktzeilen eines Flächensensors abgebildet wird, wobei in der Zeilen-Ebene der Strahlengänge, die den zeilenförmigen Objektbereich schneidet, die Scheimpflug-Bedingung insbesondere nach einem der Ansprüche 1 bis 11 erfüllt ist, und dass der Flächensensor um eine Achse derart gekippt ist, dass die Fläche nicht parallel zu einem abzutastenden Objektbereich ist, so dass die einzelnen Zeilen des Flächensensors unterschiedliche Ebenen des zeilenförmigen Objektbereiches abbilden.Stereo camera system for measuring three-dimensional surface topologies of an object with - at least two area sensors, the area sensors being designed in such a way that they have several parallel rows of pixels arranged next to one another, - at least two lenses for imaging the object on one of the area sensors, characterized in that an object area with two independent beam paths is imaged simultaneously on one of the sensors, so that a line-shaped object area is imaged on the pixel lines of an area sensor, with the Scheimpflug condition in the line plane of the beam paths that intersect the line-shaped object area, in particular according to one of the Claims 1 to 11 is fulfilled, and that the area sensor is tilted about an axis in such a way that the area is not parallel to an object area to be scanned, so that the individual lines of the area sensor map different planes of the line-shaped object area. Stereokamerasystem nach Anspruch 14, dadurch gekennzeichnet, dass die Sensoren Farbsensoren und das Objektiv ein hyperchromatischem Objektiv nach Anspruch 11 oder 12 sind.Stereo camera system Claim 14 , characterized in that the sensors are color sensors and the lens is a hyperchromatic lens Claim 11 or 12th are. Stereokamerasystem nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, dass die aufgenommenen Daten In-line registriert werden, um die Rektifizierung nach zu korrigieren.Stereo camera system according to one of the Claims 1 to 15th , characterized in that the recorded data are registered in-line in order to correct the rectification. Stereokamerasystem nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, dass die Bildpunkt-Zeilen von Sensoren sich derart synchronisieren, so dass sie zeilensynchron aufnehmen und einen gleichzeitigen Bildstart haben.Stereo camera system according to one of the Claims 1 to 16 , characterized in that the pixel lines of sensors are synchronized in such a way that they record line-synchronously and have a simultaneous image start. Oberflächentopologie-Erfassungseinrichtung mit zumindest - einem Stereokamerasystem nach einem der Ansprüche 1 bis 17 zur Messung von dreidimensionalen Oberflächentopologien eines Messobjektes, - einer Transporteinrichtung zum Transport des Messobjektes, - einer Synchronisierungseinrichtung, um die Geschwindigkeit des Transportes mit den Messungen der dreidimensionalen Oberflächentopologie zu synchronisieren, und - einer Auswerteeinrichtung, um die Messungen der dreidimensionalen Oberflächentopologie auszuwerten.Surface topology detection device with at least - one stereo camera system according to one of the Claims 1 to 17th for measuring three-dimensional surface topologies of a measurement object, - a transport device for transporting the measurement object, - a synchronization device to synchronize the speed of the transport with the measurements of the three-dimensional surface topology, and - an evaluation device to evaluate the measurements of the three-dimensional surface topology.
DE102019116506.7A 2019-06-18 2019-06-18 Stereo camera system Pending DE102019116506A1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102019116506.7A DE102019116506A1 (en) 2019-06-18 2019-06-18 Stereo camera system
PCT/EP2020/066826 WO2020254445A1 (en) 2019-06-18 2020-06-17 Stereo camera system
JP2021568480A JP2022536887A (en) 2019-06-18 2020-06-17 stereo camera system
KR1020217043368A KR20220024219A (en) 2019-06-18 2020-06-17 stereo camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019116506.7A DE102019116506A1 (en) 2019-06-18 2019-06-18 Stereo camera system

Publications (1)

Publication Number Publication Date
DE102019116506A1 true DE102019116506A1 (en) 2020-12-24

Family

ID=71170536

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019116506.7A Pending DE102019116506A1 (en) 2019-06-18 2019-06-18 Stereo camera system

Country Status (4)

Country Link
JP (1) JP2022536887A (en)
KR (1) KR20220024219A (en)
DE (1) DE102019116506A1 (en)
WO (1) WO2020254445A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019126419A1 (en) * 2019-05-08 2020-11-12 Docter Optics Se Device for the optical imaging of features of a hand
WO2024157611A1 (en) * 2023-01-25 2024-08-02 パナソニックIpマネジメント株式会社 Distance measuring device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002040970A1 (en) * 2000-11-15 2002-05-23 Real Time Metrology, Inc. Optical method and apparatus for inspecting large area planar objects
US6671397B1 (en) * 1998-12-23 2003-12-30 M.V. Research Limited Measurement system having a camera with a lens and a separate sensor
US7724362B1 (en) * 2006-03-14 2010-05-25 Kla-Tencor Corporation Oblique incidence macro wafer inspection
WO2014017977A1 (en) * 2012-07-24 2014-01-30 Generic Power Pte Ltd Method and apparatus for determining coplanarity in integrated circuit packages

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9720864D0 (en) * 1997-10-01 1997-12-03 Univ Nottingham Trent Line-scan imaging in 3-d
JP2011064482A (en) * 2009-09-15 2011-03-31 Kurabo Ind Ltd Device and method of high-speed three-dimensional measurement
DE102013103897A1 (en) 2012-04-25 2013-10-31 Chromasens Gmbh Camera module for line-wise scanning of object e.g. non-cuboid object, has line sensors that are arranged at different distances from lens so that image lines are imaged at different distances from lens on respective line sensors
JP6098731B2 (en) * 2013-11-15 2017-03-22 株式会社島津製作所 Surface shape measuring device
JP5789010B2 (en) * 2014-02-13 2015-10-07 Dmg森精機株式会社 Surface shape measuring device and machine tool provided with the same
DE102015111120A1 (en) 2015-07-09 2017-01-12 Chromasens Gmbh Method and device for scanning surfaces with a stereo camera
JP6702343B2 (en) * 2018-02-06 2020-06-03 株式会社ニコン Shape measuring device, structure manufacturing system, and shape measuring method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6671397B1 (en) * 1998-12-23 2003-12-30 M.V. Research Limited Measurement system having a camera with a lens and a separate sensor
WO2002040970A1 (en) * 2000-11-15 2002-05-23 Real Time Metrology, Inc. Optical method and apparatus for inspecting large area planar objects
US7724362B1 (en) * 2006-03-14 2010-05-25 Kla-Tencor Corporation Oblique incidence macro wafer inspection
WO2014017977A1 (en) * 2012-07-24 2014-01-30 Generic Power Pte Ltd Method and apparatus for determining coplanarity in integrated circuit packages

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PRASAD, Ajay K. ; JENSEN, Kirk: Scheimpflug stereocamera for particle image velocimetry in liquid flows. In: Applied Optics, Vol. 34, 1995, No. 30, S. 7092-7099. - ISSN 0003-6935 (P); 1539-4522 (E). DOI: 10.1364/AO.34.007092. URL: https://www.osapublishing.org/ao/viewmedia.cfm?uri=ao-34-30-7092&seq=0 [abgerufen am 2019-09-30] *

Also Published As

Publication number Publication date
WO2020254445A1 (en) 2020-12-24
JP2022536887A (en) 2022-08-22
KR20220024219A (en) 2022-03-03

Similar Documents

Publication Publication Date Title
DE102013008273B4 (en) Three-dimensional image capture device
DE69207176T2 (en) Optical sensor
EP0451474B1 (en) Procedure and device to measure without contact the surface contours of an object
EP3610637B1 (en) Devices for representing partial fields of view, multi-aperture representation devices and methods for providing the same
DE69225303T2 (en) Imaging device
DE69712872T2 (en) THREE-DIMENSIONAL COLOR IMAGE
DE112015007146T5 (en) DEVICE AND METHOD FOR THREE-DIMENSIONAL IMAGE MEASUREMENT
EP0449859B1 (en) Process and device for observing moire patterns on test surfaces by moireing with phase shifts
EP3433577B1 (en) Device and method for linking measurement signals from lighting signals
DE3686358T2 (en) OPTICAL LOW-PASS FILTER FOR A SOLID-COLOR CAMERA.
WO2016146105A1 (en) Method and device for calibrating a camera
DE102006058057B3 (en) Method and device for optically detecting a structure
DE102019116506A1 (en) Stereo camera system
DE3021448A1 (en) Spatial deviation detection of surfaces from smooth planes - using optical grid and video image signal analysis
EP3147700B1 (en) Method and device to increase the field of view of a camera and camera provided therewith
WO2016000764A1 (en) Chromatic confocal sensor arrangement
EP0708325A1 (en) Method and device for the inspection of objects, especially bottles
EP2208987B1 (en) Method and device for visual surface inspection
DE112019006322T5 (en) Contactless thickness measurement
EP0128119B1 (en) Process and appliance for focusing a light beam onto an object
DE102012102580A1 (en) Method for measuring an object and intraoral scanner
DE112006003559B4 (en) imaging device
DE102013105102A1 (en) Method and device for determining features on objects to be measured
DE3318983C2 (en) Method for determining a focus state in an optical imaging system
EP1862309B1 (en) Sensor device

Legal Events

Date Code Title Description
R163 Identified publications notified