DE102011089593A1 - Method for determining absolute outer orientation of camera system used in airplane, involves determining absolute outer orientation of camera system based on camera rotation angle and translation coordinates of position sensor - Google Patents
Method for determining absolute outer orientation of camera system used in airplane, involves determining absolute outer orientation of camera system based on camera rotation angle and translation coordinates of position sensor Download PDFInfo
- Publication number
- DE102011089593A1 DE102011089593A1 DE201110089593 DE102011089593A DE102011089593A1 DE 102011089593 A1 DE102011089593 A1 DE 102011089593A1 DE 201110089593 DE201110089593 DE 201110089593 DE 102011089593 A DE102011089593 A DE 102011089593A DE 102011089593 A1 DE102011089593 A1 DE 102011089593A1
- Authority
- DE
- Germany
- Prior art keywords
- outer orientation
- camera
- camera system
- objects
- absolute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/53—Determining attitude
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
- G03B15/006—Apparatus mounted on flying objects
Abstract
Description
Die Erfindung betrifft ein Verfahren und ein Kamerasystem zur Bestimmung der absoluten äußeren Orientierung eines Kamerasystems. The invention relates to a method and a camera system for determining the absolute outer orientation of a camera system.
Bei der Verwendung von flugzeuggetragenen Kamerasystemen müssen die erfassten Luftbilder in den meisten Fällen georeferenziert werden. Das heißt, dass die genaue Orientierung des Sensors bekannt sein muss, um aufgenommenes Bildmaterial in ein Weltkoordinatensystem einzuordnen. Es wird zwischen der inneren und äußeren Orientierung des Sensors unterschieden. Die innere Orientierung wird vorab im Labor bestimmt und beschreibt die Abbildungseigenschaften der Kamera. When using aircraft-borne camera systems, the captured aerial images must in most cases be georeferenced. This means that the exact orientation of the sensor must be known in order to arrange captured image material in a world coordinate system. It is distinguished between the inner and outer orientation of the sensor. The inner orientation is determined in advance in the laboratory and describes the imaging properties of the camera.
Um die äußere Orientierung eines Sensors oder auch Flugzeuges zu bestimmen, werden klassischerweise GNSS/IMU-Systeme (Global Navigation Satellite System / Inertial Measurement Unit) verwendet. Diese haben die Aufgabe, drei Koordinaten für die Position (GNSS) und drei Winkel (IMU) für die Rotation des Sensors zu erfassen. Diese Systeme haben jedoch den Nachteil, dass sie je nach Genauigkeit sehr kostspielig sein können. In order to determine the outer orientation of a sensor or aircraft, GNSS / Global Navigation Satellite System (ING) systems are conventionally used. These have the task of detecting three coordinates for the position (GNSS) and three angles (IMU) for the rotation of the sensor. However, these systems have the disadvantage that they can be very expensive depending on the accuracy.
Neben der erwähnten Verwendung von Inertialsystemen (Inertial Measurement Unit = IMU) zur Messung der äußeren Orientierung gibt es bereits eine Reihe von Ansätzen, Sensoren optisch zu orientieren. In addition to the aforementioned use of inertial measurement units (IMU) for measuring the outer orientation, there are already a number of approaches to optically orient sensors.
Die klassische Variante benutzt den so genannten räumlichen Rückwärtsschnitt. Dabei werden Passpunkte mit bekannten Weltkoordinaten (beispielsweise GPS) ihren Abbildungen im Bild zugeordnet. Jedoch müssen dafür die Passpunkte im Voraus vermessen werden. Auch die Zuordnung zu ihren Abbildungen geschieht manuell. The classic variant uses the so-called spatial reverse cut. In this case, control points with known world coordinates (for example GPS) are assigned to their images in the image. However, the control points must be measured in advance. The assignment to their pictures is done manually.
Des Weiteren sind verschiedene Ansätze bekannt, die Daten eines Inertialsystems zu stützen. Ein Ansatz kompensiert die ungenauen Daten eines Inertialsystems durch die Extraktion und Zuordnung von vorhandenen dreidimensionalen Gebäudemodellen zu ihren Abbildungen in der Aufnahme. Dadurch wird die Genauigkeit der äußeren Orientierung erhöht. Dies ist jedoch nur möglich, solange Gebäudemodelle der Umgebung existieren. Furthermore, various approaches are known to support the data of an inertial system. One approach compensates for the inaccurate data of an inertial system by extracting and mapping existing three-dimensional building models to their mappings in the image. This increases the accuracy of the outer orientation. However, this is only possible as long as building models of the environment exist.
Ein anderer Ansatz ermittelt den optischen Fluss aus aufeinanderfolgenden Aufnahmen. Durch automatische Festlegung und Verfolgung von Passpunkten werden die relativen äußeren Orientierungen zwischen den Aufnahmen errechnet und stützen somit die Daten des Inertialsystems. Ein Inertialsystem ist jedoch nach wie vor nötig, um die äußere Orientierung zu bestimmen. Another approach determines the optical flow from successive shots. By automatically setting and tracking the control points, the relative outer orientations between the images are calculated and thus support the data of the inertial system. However, an inertial system is still needed to determine the external orientation.
Der Erfindung liegt das technische Problem zugrunde, ein Verfahren und ein Kamerasystem zur Bestimmung der absoluten äußeren Orientierung eines Kamerasystems zu schaffen, die im Aufbau einfacher und kostengünstiger sind. The invention is based on the technical problem of providing a method and a camera system for determining the absolute outer orientation of a camera system, which are simpler and less expensive in construction.
Die Lösung des technischen Problems ergibt sich durch die Gegenstände mit den Merkmalen der Ansprüche 1 und 6. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen. The solution of the technical problem results from the objects with the features of
Hierzu umfasst das Verfahren zur Bestimmung der absoluten äußeren Orientierung eines Kamerasystems, mittels eines satellitengestützten Positionssensors und mindestens einer Recheneinheit, die folgenden Verfahrensschritte:
- a) Aufnehmen eines Bildes, wobei in die Aufnahme Objekte mit bekannter geografischer Position und Größe extrahiert werden,
- b) Projizieren von Modellen der Objekte aus einer Datenbasis (DB) mittels eines Kameramodells in eine virtuelle Aufnahme Bp,
- c) Durchführen eines Ausgleichsalgorithmus, wobei durch den Ausgleichsalgorithmus die Rotationswinkel der Kamera bestimmt werden, bei denen die projizierten Objekte und die extrahierten Objekte eine maximale Überlappung aufweisen, wobei die bestimmten Rotationswinkel und die gemessenen Translationskoordinaten des satellitengestützten Positionssensors die absolute äußere Orientierung des Kamerasystems bilden.
- a) taking an image, wherein objects of known geographic position and size are extracted into the image,
- b) projecting models of the objects from a database (DB) by means of a camera model into a virtual recording B p ,
- c) performing a compensation algorithm, wherein the compensation algorithm determines the rotation angles of the camera in which the projected objects and the extracted objects have a maximum overlap, the determined rotation angles and the measured translational coordinates of the satellite-based position sensor forming the absolute outer orientation of the camera system.
Hierdurch wird es möglich, vollständig auf ein Inertialsystem zu verzichten und ausschließlich mittels der gemessenen Positionsdaten die absolute äußere Orientierung zu bestimmen, wobei die zugehörigen Rotationswinkel aus dem Ausgleichsalgorithmus berechnet werden. Dies stellt eine extrem vereinfachte und kostengünstige Lösung für die Bestimmung der absoluten äußeren Orientierung dar. This makes it possible to completely dispense with an inertial system and to determine the absolute outer orientation exclusively by means of the measured position data, the associated rotation angles being calculated from the compensation algorithm. This represents an extremely simplified and cost-effective solution for the determination of the absolute outer orientation.
In einer weiteren Ausführungsform werden mindestens zwei Bilder aufgenommen, die sich überlappen, wobei im ersten Bild Passpunkte bestimmt werden, die im zweiten Bild mittels eines Bildmatching-Algorithmus wiedergefunden werden, wobei aus den Korrespondenzen der Passpunkte in den beiden Bildern eine relative äußere Orientierung der Bilder errechnet wird, wobei die absolute äußere Orientierung mit der relativen äußeren Orientierung zur Ermittlung einer robusten absoluten äußeren Orientierung fusioniert wird. Vorzugsweise werden die absolute äußere Orientierung und die relative äußere Orientierung durch ein Kalman-Filter fusioniert, wobei die relative äußere Orientierung als Prädiktion und die absolute äußere Orientierung als Innovationsschritt bzw. Messwert verwendet wird. Dabei kann sich die Fusion auf die Rotationswinkel beschränken, da die Positions- bzw. Translationswerte durch den satellitengestützten Positionssensor exakt bestimmt werden. Die Fusion aus beiden Messungen kann dabei Ausreißer der absoluten äußeren Orientierung (z.B. durch falsche Konvergenz in der Ausgleichsrechnung) erkennen und verwerfen. Gleichzeitig wird durch die absolute äußere Orientierung ein Abdriften der relativen äußeren Orientierung verhindert. Vorzugsweise ist das erste Bild die Aufnahme von einem vorangegangenen Messschnitt und das zweite Bilde das Bild, aus dem die Objekte extrahiert werden. In a further embodiment, at least two images are taken, which overlap, wherein in the first image control points are determined, which are found in the second image by means of a Bildmatching algorithm, wherein from the correspondences of the control points in the two images, a relative outer orientation of the images is calculated, wherein the absolute outer orientation is fused with the relative outer orientation to determine a robust absolute outer orientation. Preferably, the absolute outer orientation and the relative outer orientation are fused by a Kalman filter, using the relative outer orientation as the prediction and the absolute outer orientation as the innovation step. In this case, the fusion can be limited to the rotation angle, since the position or translation values be accurately determined by the satellite-based position sensor. The fusion of both measurements can detect outliers of the absolute outer orientation (eg due to incorrect convergence in the compensation calculation) and discard it. At the same time, drifting of the relative outer orientation is prevented by the absolute outer orientation. Preferably, the first image is the image of a previous measurement section and the second image is the image from which the objects are extracted.
In einer weiteren Ausführungsform werden als Objekte Straßensegmente gewählt. Diese sind einfach zu finden und deren Lage und Größe ist häufig bekannt. Da für die meisten Straßendatenbanken nur zweidimensionale Koordinaten verfügbar sind, müssen diese gegebenenfalls noch mit einer Höhenkoordinate versehen werden. Diese kann beispielsweise aus einem digitalen Oberflächenmodell abgeleitet werden. In a further embodiment, road segments are selected as objects. These are easy to find and their location and size is often known. Since only two-dimensional coordinates are available for most road databases, they must be provided with a height coordinate if necessary. This can be derived, for example, from a digital surface model.
Vorzugsweise wird in der Aufnahme die Straßenoberfläche auf Basis ihres Farbwertes und ihrer Sättigung extrahiert (HSV-Farbraum). Die Güte der Projektion wird durch die Konjunktion der projizierten und extrahierten Flächen bestimmt. Je mehr Fläche in der Aufnahme überlappt, desto genauer ist die Projektion der Straßenelemente. Der Ausgleichsalgorithmus ist beispielsweise ein Nelder-Mead-Algorithmus, der die drei Rotationswinkel optimiert. Preferably, in the photograph, the road surface is extracted based on its color value and its saturation (HSV color space). The quality of the projection is determined by the conjunction of the projected and extracted surfaces. The more area overlapped in the shot, the more accurate the projection of the road elements. The equalization algorithm is, for example, a Nelder-Mead algorithm that optimizes the three rotation angles.
Die Erfindung wird nachfolgend anhand eines bevorzugten Ausführungsbeispiels näher erläutert. Die einzige Figur zeigt ein schematisches Flussdiagramm eines Verfahrens zur Bestimmung der absoluten äußeren Orientierung eines Kamerasystems. The invention will be explained in more detail below with reference to a preferred embodiment. The single FIGURE shows a schematic flow diagram of a method for determining the absolute outer orientation of a camera system.
Eine Kamera
Der Rollwinkel beträgt 0°, der Nickwinkel 90° (Kamera zeigt senkrecht nach unten), der Gier- oder Kurswinkel wird aus der Flugrichtung zwischen zwei aufeinanderfolgenden GPS-Positionen ermittelt. Somit existieren für das Bild B bzw. für die Ermittlung einer virtuellen Aufnahme Bp Startwerte für die absolute äußere Orientierung. A
The roll angle is 0 °, the pitch angle 90 ° (camera points vertically downwards), the yaw or heading angle is determined from the direction of flight between two consecutive GPS positions. Thus, for the image B or for the determination of a virtual recording B p, there are start values for the absolute outer orientation.
In einem Verfahrensschritt S1 werden die Objekte bekannter Größe und Lage extrahiert und so ein Bild Be mit extrahierten Flächen der Objekte erzeugt. Die Objekte sind dabei vorzugsweise Straßensegmente. Die Extraktion der Straßensegmente erfolgt vorzugsweise auf Basis ihres Farbwertes und ihrer Sättigung (HSV-Farbraum). In a method step S1, the objects of known size and position are extracted, thus producing an image B e with extracted surfaces of the objects. The objects are preferably road segments. The extraction of the road segments preferably takes place on the basis of their color value and their saturation (HSV color space).
In einem weiteren Verfahrensschritt S2 werden die Modelle der Objekte aus der Datenbasis (DB) mittels eines virtuellen Kameramodells, welches dieselben Eigenschaften wie die reale Kamera hat, in eine virtuelle Aufnahme Bp projiziert. Da für die meisten Straßendatenbanken (DB) nur zweidimensionale Koordinaten verfügbar sind, müssen diese gegebenenfalls mit einer Höhenkoordinate versehen werden. Diese Höhenkoordinate kann beispielsweise aus einem digitalen Oberflächenmodell abgeleitet werden, was hier aber nicht dargestellt ist. In a further method step S2, the models of the objects from the database (DB) are projected into a virtual recording B p by means of a virtual camera model which has the same properties as the real camera. Since only two-dimensional coordinates are available for most road data bases (DB), they may need to be provided with a height coordinate. This height coordinate can be derived for example from a digital surface model, which is not shown here.
Die Güte der Projektion wird durch die Konjunktion der projizierten und extrahierten Flächen bestimmt. Je mehr Fläche in der bzw. den Aufnahmen Bp und Be überlappt, desto genauer ist die Projektion der Straßenelemente. The quality of the projection is determined by the conjunction of the projected and extracted surfaces. The more area in the images B p and B e overlaps, the more accurate the projection of the road elements.
Ein Ausgleichsalgorithmus AA, vorzugsweise ein Simplex-Ausgleichsalgorithmus (wie beispielsweise Nelder-Mead) optimiert die drei Rotationswinkel ω, φ, κ, bis sich die projizierten Straßenelemente optimal mit den extrahierten Straßenelementen decken. Diese Rotationswinkel ω, φ, κ sind die Winkel der absoluten äußeren Orientierung aOabs zum Zeitpunkt der Aufnahme B mit den Positionsdaten X, Y, Z, die mittels Positionssensor
Parallel werden zwei aufeinanderfolgende Bilder B1 und B2 durch die Kamera
Aus den Passpunktepaaren
In einem letzten Schritt werden die Ergebnisse der beiden Verfahren mittels eines Kalman-Filters KF fusioniert. Dabei wird die relative äußere Orientierung aOrel zusammen mit dem letzten Zustandswert ωt-1, φt-1, κt-1 als Prädiktion verwendet und die absolute äußere Orientierung aOabs als Innovationsschritt oder Messwert. Die Fusion aus beiden Messungen kann somit Ausreißer der absoluten äußeren Orientierung aOabs (X, Y, Z, ω, φ, κ) (z.B. durch falsche Konvergenz in der Ausgleichsrechnung) erkennen und verwerfen. Gleichzeitig wird durch die absolute äußere Orientierung aOabs (X, Y, Z, ω, φ, κ) ein Abdriften der relativen äußeren Orientierung aOrel verhindert. Dabei wird das Verfahren kontinuierlich wiederholt. Das Ergebnis des Kalman-Filters KF ist eine fusionierte robuste absolute äußere Orientierung aOfus, die ohne Verwendung eines Inertialsystems bestimmt wurde. In a last step, the results of the two methods are fused by means of a Kalman filter KF. In this case, the relative outer orientation aOrel is used together with the last state value ω t-1 , φ t-1 , κ t-1 as prediction and the absolute outer orientation aOabs as innovation step or measured value. The fusion of the two measurements can thus detect and reject outliers of the absolute outer orientation aOabs (X, Y, Z, ω, φ, κ) (eg due to incorrect convergence in the compensation calculation). At the same time, drifting of the relative outer orientation aOrel is prevented by the absolute outer orientation aOabs (X, Y, Z, ω, φ, κ). The process is repeated continuously. The result of the Kalman filter KF is a fused robust absolute outer orientation aOfus determined without using an inertial system.
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201110089593 DE102011089593A1 (en) | 2011-12-22 | 2011-12-22 | Method for determining absolute outer orientation of camera system used in airplane, involves determining absolute outer orientation of camera system based on camera rotation angle and translation coordinates of position sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201110089593 DE102011089593A1 (en) | 2011-12-22 | 2011-12-22 | Method for determining absolute outer orientation of camera system used in airplane, involves determining absolute outer orientation of camera system based on camera rotation angle and translation coordinates of position sensor |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102011089593A1 true DE102011089593A1 (en) | 2013-05-29 |
Family
ID=48287810
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE201110089593 Ceased DE102011089593A1 (en) | 2011-12-22 | 2011-12-22 | Method for determining absolute outer orientation of camera system used in airplane, involves determining absolute outer orientation of camera system based on camera rotation angle and translation coordinates of position sensor |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102011089593A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105651260A (en) * | 2015-12-30 | 2016-06-08 | 航天恒星科技有限公司 | Geometric positioning method and geometric positioning system for remote sensing satellite |
CN115164905A (en) * | 2022-08-15 | 2022-10-11 | 宁波市天一测绘设计研究有限公司 | Aerial survey precision determining method and system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000034803A2 (en) * | 1998-11-20 | 2000-06-15 | Geometrix, Inc. | Vision-assisted camera pose determination |
-
2011
- 2011-12-22 DE DE201110089593 patent/DE102011089593A1/en not_active Ceased
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000034803A2 (en) * | 1998-11-20 | 2000-06-15 | Geometrix, Inc. | Vision-assisted camera pose determination |
Non-Patent Citations (2)
Title |
---|
CONTE, C. und DOHERTY, P.: A Visual Navigation System for UAS Based on Geo-referenced imagery. In: UAV-g 2011, Conference on Unmanned Aerial Vehicle in Geomatics, Zürich, Schweiz, 14.-16. September 2011. * |
HEIPKE, C.: Automation of interior, relative, and absolute orientation. ISPRS Journal of Photogrammetry & Remote Sensing 52 (1997), 1-19. * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105651260A (en) * | 2015-12-30 | 2016-06-08 | 航天恒星科技有限公司 | Geometric positioning method and geometric positioning system for remote sensing satellite |
CN115164905A (en) * | 2022-08-15 | 2022-10-11 | 宁波市天一测绘设计研究有限公司 | Aerial survey precision determining method and system |
CN115164905B (en) * | 2022-08-15 | 2023-09-05 | 宁波市天一测绘设计研究有限公司 | Aerial survey precision determination method and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102013216892B4 (en) | Positioning of an object using visual data | |
US10203692B2 (en) | Structure from motion (SfM) processing for unmanned aerial vehicle (UAV) | |
EP2918972B1 (en) | Method and handheld distance measuring device for generating a spatial model | |
EP2060873B1 (en) | Method of supporting the inertial navigation of an aircraft | |
EP3005292B1 (en) | 3d recording device, method for producing a 3d image, and method for setting up a 3d recording device | |
DE10326943A1 (en) | Autonomous vehicle and associated method and device for motion determination, motion control and object detection | |
DE102016209625A1 (en) | Method for evaluating image data of a vehicle camera | |
EP1673589A1 (en) | Method and device for determining the actual position of a geodetic instrument | |
DE102008002241A1 (en) | Method for image-based measurement of room or partial area of room for e.g. craftsman to install windows, involves modeling virtual three-dimensional models of room by using image processing process with respect to distances | |
EP2573512A2 (en) | Method and assembly for determining the position of a measurement point in geometric space | |
DE102007043534A1 (en) | Arrangement for detecting an environment | |
DE102009040468A1 (en) | Portable mobile detection device for three-dimensional geometric detection of environment, has receiving device attached to sensor device, where sensor device has inertial measurement system and laser scanner | |
AT511460B1 (en) | METHOD FOR DETERMINING THE POSITION OF AN AIRCRAFT | |
DE102011089593A1 (en) | Method for determining absolute outer orientation of camera system used in airplane, involves determining absolute outer orientation of camera system based on camera rotation angle and translation coordinates of position sensor | |
EP3539085B1 (en) | 3d localization | |
DE102010042821B4 (en) | Method and apparatus for determining a basic width of a stereo detection system | |
DE102014115046B4 (en) | Method and assistance system for determining a flight parameter of a flying object during the flight | |
DE102005043753A1 (en) | Test sample surface point spatial coordinates determining method, involves computing spatial coordinates as projective reconstruction for all reference points, and converting coordinates of points into metric coordinates of surface points | |
DE102016109919A1 (en) | Device for measuring objects | |
DE102019209117A1 (en) | Method for locating a vehicle | |
DE102014108255A1 (en) | Georeferencing of image data | |
DE102016105405B4 (en) | Method and device arrangement for high-precision, (semi-) automatic in-situ calibration and registration of a projector-camera system to a component | |
DE102018010252A1 (en) | Method and system for dynamic structural analysis | |
DE102007055252A1 (en) | To determine the gaps of a given object within a complex structure, e.g. an automobile production line, images are taken from different positions for the images to be processed with a database | |
DE102007044314A1 (en) | Digital line scan camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R230 | Request for early publication | ||
R016 | Response to examination communication | ||
R002 | Refusal decision in examination/registration proceedings | ||
R003 | Refusal decision now final |
Effective date: 20130719 |