WO2006094637A1 - Method for comparing a real object with a digital pattern - Google Patents

Method for comparing a real object with a digital pattern Download PDF

Info

Publication number
WO2006094637A1
WO2006094637A1 PCT/EP2006/001632 EP2006001632W WO2006094637A1 WO 2006094637 A1 WO2006094637 A1 WO 2006094637A1 EP 2006001632 W EP2006001632 W EP 2006001632W WO 2006094637 A1 WO2006094637 A1 WO 2006094637A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
sequence
design model
viewing
viewing direction
Prior art date
Application number
PCT/EP2006/001632
Other languages
German (de)
French (fr)
Inventor
Thomas Wurdig
Original Assignee
Daimlerchrysler Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimlerchrysler Ag filed Critical Daimlerchrysler Ag
Publication of WO2006094637A1 publication Critical patent/WO2006094637A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying

Definitions

  • the invention relates to a method of a computer program product and a data processing system for generating a pictorial comparison between a physical object and a predetermined three-dimensional computer-available design model of the object.
  • the invention has for its object to provide a method and apparatus for comparing a physical object with a given design model of the object.
  • the object is achieved by a method having the features of claim 1, a computer program product having the features of claim 14 and a data processing system having the features of claim 16.
  • Advantageous embodiments are specified in the subclaims.
  • the method and the computer program product create a comparison between the physical item and the given three-dimensional computer-available design model of the item.
  • Provided is a sequence of pictures of the object. For each image of the sequence, the viewing direction and viewing position relative to the design model are determined. A representation of the object that the object from the Viewing direction and the viewing position of the image is generated and inserted into the image. The sequence of images with inserted representations provides the comparison.
  • FIG. 1 The interaction of different software programs in carrying out the method according to the invention.
  • FIG. 2 shows an example of the connection of reference points and reference points
  • Fig. 3. the first part of a flow chart which explains the embodiment of the method
  • FIG. 7 shows a coordinate transformation in the image plane
  • the embodiment refers to a factory floor as the physical object.
  • This factory building was or will be built using a given computer-accessible three-dimensional design model.
  • This design model acts as a geometric specification of the factory floor.
  • the process can also be used for other buildings, eg. B. Buildings for exhibiting and demonstrating objects, for museums, office buildings, railway stations or manufacturing plants.
  • the design model specifies whether the SoIl geometry of the factory floor coincides with the actual geometry. Deviations between nominal and actual geometry can, for. For example, due to coordination and communication errors between the companies involved in the construction or due to errors in the production of architectural drawings from the design model.
  • the procedure can be applied after completion of the factory floor. But it can also be applied after completion of selected stages of construction during construction, z. B. after the shell has been completed and before the components of the interior are installed.
  • the method can also be used to determine subsequent structural changes to the factory floor, which were not tracked in the design model.
  • the process can be both for a finished factory hall for the factory hall in different stages of construction, z. B. after completion of the shell, apply.
  • a design model is given, the factory hall including the interior, z. B. together with the doors and supply lines for the manufacturing equipment, specified.
  • a reduced design model is specified. This reduced design model geometrically specifies only those components of the interior that already exist after completion of the corresponding construction phase. Should z. As the shell are examined, a reduced design model is used, which specifies only the components of the shell geometrically, but not the components of the interior.
  • the reduced design model is preferably generated from the complete design model by using ones Components are removed, which are not available after completion of the respective construction phase.
  • Fig. 1 shows the interaction of different software programs and databases in carrying out the method according to the invention.
  • the sequence 1 taken by a recording device 40 is predefined from images of the factory floor, in the image format of the recording device 40.
  • a first transformer 10 has read access to this image sequence 1 and generates therefrom an image sequence 2 of images from a data processing system processable data format.
  • a second transformer 11 has read access to this design model 3 and generates a design model 4 in a data format that can handle both a mapping program 16 and a path generation program 13. Both the mapping program 16 and the path generation program 13 have read access to the image sequence 2 as well as to the design model 4.
  • the mapping program 16 generates a computer-available mapping 7 between reference points in the images and reference points of the design model 3.
  • the path generation program 13 additionally has read access to the mapping 7 and generates a computer-accessible path 5 through the design model 3 by determining its viewing direction and viewing position relative to the design model 4 for each image of the sequence 1.
  • a third transformer 12 also has read access to the given design model 3 and generates a design model 6 in a data format that a rendering generator 14 can process.
  • the presentation generator 14 has read access to the design model 6 as well as to the path 5. It generates a sequence 7 of Representations showing the factory hall respectively from the viewing direction and viewing position, which the path 5 defines.
  • a merge program 15 has read access to the image sequence 2 as well as to the sequence 7 of representations. It inserts in each image of the sequence 2 the corresponding representation of the sequence 7. As a result, a comparison 8 is generated in the form of a sequence.
  • Fig. 3 and Fig. 4 show a flow chart which explains the embodiment of the method.
  • distinctive reference points are selected (step S12) and given the method.
  • such reference points are selected that correspond to points that can be easily identified automatically in the images of the factory floor. If the factory hall has rectangular pillars, the upper and lower corner points of these parallelepiped pillars are preferred reference points.
  • Each pillar thus provides eight reference points: four points are in the corners of the lower boundary surface of the buttress, four points in the corners of the upper boundary surface. Corner points can be easily recognized automatically in the pictures.
  • Every reference point. of the design model 3 corresponds to a reference point of the real factory hall.
  • the vertices of buttresses are thus reference points. How many corner points of abutments occur in an image depends on the position and viewing direction of the recorder 40 at the moment of recording.
  • each reference point in the exemplary embodiment so each pillar, the design model 3 receives a unique in the entire design model 3 identifier, eg. B. similar to the 64 fields of a chessboard. Furthermore, each reference point of a buttress receives a relative to the support pillar unique identifier, eg. As an integer between 1 and 8. Thus, each reference point of the design model 3 is assigned a unique identifier.
  • the marking of a reference point of the real factory hall contains the identifier of the reference point corresponding to the reference point, for.
  • the identifier of the buttress and the number of the vertex for.
  • a sequence 1 of images of the factory floor is generated. Preferably, 25 frames per second are recorded. Each image shows the factory floor from a particular viewing direction and from a particular viewing position. Preferably, each image shows multiple vertices of multiple buttresses. Sequence 1 includes pictures showing the water and electricity supply to the production facilities in the factory floor. Furthermore, the sequence 1 images, the manufacturing cells, robots, conveyor belts u. in the hall. If the method is applied to the shell of a factory building, part of the sequence 1 images showing those places where installed water and power lines later and manufacturing cells' are so positioned.
  • the images of sequence 1 are generated with a high definition film or video camera.
  • each image has a resolution of 1920 x 1080 pixels, ie 1920 pixels per line and 1080 pixels per column.
  • the resolution is chosen such that the ratio of pixels per line to pixels per column is 16: 9. It is also possible, the images with a standard digital camera or a usual video camera, even with a device that is used for private users.
  • the recording device 40 so the camera mounted during recording on a tripod or a lift, so that the images are generated without blurring and the recording device 40 is rotatably mounted about a vertical axis of rotation.
  • the camera can be moved along this vertical axis of rotation, so it is mounted vertically adjustable. This makes it possible to bypass items in the factory floor, if these items obscure the unobstructed view of that area of the factory floor that the pictures are to show. For example, transport containers, rack storage or manufacturing facilities can affect this clear view.
  • the recorder 40 is preferably measured in the factory floor. This calibration improves the evaluation of the images described below.
  • the position and the viewing direction with respect to a given coordinate system, for. The first image is taken from this line of sight and from this position, and it is clear from which viewing direction and from what viewing position this first image shows the factory floor.
  • Viewing direction and the viewing position of the first image are given to the method.
  • a design model 3 is specified which geometrically specifies the factory floor. Furthermore, a three-dimensional coordinate system and a scale for the design model 3 are given. Each reference point is uniquely identified by its position in this coordinate system. Viewing directions are called vectors in this Coordinate system specified. The origin of this coordinate system is linked with a point of the reference coordinate system for the real factory hall, the coordinate axes with coordinate axes of this reference coordinate system. The predetermined scale indicates the size relationship between the design model 3 and the real factory floor. Through the links and the scale, each point of the factory floor corresponds exactly to one point of the design model 3 and vice versa.
  • the sequence 1 of images is transferred into a sequence 2 of images in a form that is automatically evaluable by a data processing system.
  • a data processing system For example, one file is created for each image in a graphic data format. Examples' for such data formats are JPEG, GIF or TIF.
  • the sequence of files is stored in a data store to which the data processing system performing the method has read access.
  • step S2 some pictures are selected (step S2 with the result 29). How many shots are selected depends on the speeds at which the viewing direction and viewing position of the recorder 40 are changed between shots. The larger these speeds are, the greater the proportion of selected images in the total number of images.
  • the first picture belongs to the selected pictures. For example, every hundredth image is selected. In particular, if the position and viewing direction of the recording device 40 is varied uniformly during recording, it is also possible that a fixed period of time, for. B. ten seconds, and the images are selected so that between the recording times for two consecutive selected images is the time.
  • any picture taken in a certain period of time will be selected. For example, 25 Frames per second and takes the period of a length of 10 seconds, so 250 consecutive images are selected.
  • each vertex of each buttress is provided with an identifier.
  • the reference points in each selected image are determined and provided with the identifier.
  • the design model 3 is transformed into a data format that can be processed by the display generator 14 as well as by a mapping program 16 described below (step S5). As a result, a processable design model 6 is generated.
  • This data format is preferably "Virtual Reality Modeling Language” (VRML), for example VRML is described in U. Debacher: “VRML Introduction", 2003, available at http: // www. , queried on 16. 9. 2004, is described. Instead of VRML can be z. B. also use STEP.
  • VRML Virtual Reality Modeling Language
  • a reference point of the factory floor and a reference point of the design model correspond to each other when the position of the reference point in the reference coordinate system corresponds to the position of the reference point in the coordinate system of the design model.
  • a comparison 20 is preferably generated. This step S3 is preferred by the assignment Program 16 performed.
  • the comparison 20 shows on the one hand the selected image of the factory hall with the registered identifications of the supporting pillars, on the other hand a representation of the factory hall which was produced with the aid of the design model 6 and which shows the factory hall from a specific viewing direction and from a specific viewing position. This viewing direction and viewing position of the representation are changeable.
  • One reference point in the image and one reference point of the design model 6 are marked one after the other. It is determined that these two points correspond to each other. Thereby, an association 21 reference points and reference points in each selected image is generated in step S4.
  • each predetermined reference point of the design model 3 has been taken into account. For this purpose, it is checked whether each reference point corresponds to a reference point that occurs in at least one selected image. For these tests, the mappings produced. automatically searched. In this way, it is also determined whether a buttress is present only in the design model 3, but not in the real factory hall. If this is the case, a corresponding message is output.
  • step S7 it is determined which points of the non-selected images correspond to the reference points.
  • the reference points that is, the vertices of abutments, are automatically determined (step S6).
  • the corner points can be automatically identified as intersections of pillars with floor or ceiling of the factory floor. This will be a lot 22 of Reference points in the non-selected image of the sequence 2 determined.
  • the position of a reference point in the image is preferably indicated in a two-dimensional coordinate system, e.g. By specifying the pixel (number of the row and number of the column in the digitized image).
  • each reference point of the image is compared with the positions of the reference points in the last or the first subsequent selected or previously examined image of the sequence 2. In the last selected image it is known which reference point corresponds to this reference point. The position comparison determines which reference point of the unselected image is the same as the reference point of the selected image.
  • the closest reference point in the last selected image is determined and used as the same reference point.
  • the position of the reference point relative to the neighboring object is taken into account both in the unselected and in the selected image.
  • Fig. 2 shows an example of the combination of reference points and reference points.
  • the reference point BP in BI corresponds to the reference point RP in the design model.
  • BP-I and BP-2 are cornerstones of buttresses. Therefore, BP-I and BP-2 are reference points that occur in B-2.
  • Image analysis reveals that BP-1 in B-2 is the front left corner point of the lower boundary surface of the buttress and that BP-2 is the front right corner point. Further, it is determined that BP in BI is the front left corner point of the lower boundary surface. This will become automatically concluded that BP in BI is the same reference point as BP-2 in B-2.
  • BP and BP-2 both correspond to the reference point RP of the design model.
  • This method is preferably carried out forward, each starting from a selected image.
  • N be the indent of a selected image in the sequence.
  • the image is examined for the selected image, ie the image with the index N + 1.
  • the image with index N + 2 is examined and so on.
  • this method for a non-selected image does not provide a clear assignment of a reference point to a reference point.
  • the image is subsequently selected and the association of the reference point with a reference point is established by means of the comparison as described above.
  • step S7 provides for each non-selected image a computer-available mapping 23 between reference points and reference points in the non-selected image.
  • step S8 is performed by the path generation program 13.
  • the given design model 3 is transformed into a design model 4 in a data format that is processable by the path generation program 13 (step S9).
  • the path generation program 13 imports the design model 4 and the set 27 of the reference points. For each image of the sequence 2, the path generation program 13 uses the positions of the reference points in the image and the positions of the corresponding reference points 27. Each reference point is characterized by its position in the three-dimensional coordinate system of the design model 3. Each reference point has a determined position in the respective image of the sequence 2. The viewing direction and viewing position of the image relative to the design model 3 is determined from this information (result 24). This determination is performed by the path generation program 13. The determination provides a point (the viewing position) and a vector (the viewing direction) in the coordinate system of the design model 3. Methods for determining the viewing direction and viewing position of an image will be described in more detail below.
  • the sequence of viewing directions and viewing positions of the images provides a path 5 of the recorder 40 through the design model 3.
  • a representation of the factory floor is created showing the factory floor from the same viewing direction and viewing position as the picture.
  • This perspective view is generated using the given three-dimensional design model. It shows how the factory floor should look from the viewing direction and the viewing position, while the captured image shows what it actually looks like.
  • a presentation generation program 14 generates a sequence 8 of perspective views of the factory floor.
  • the design model 4 is preferably imported in the above-mentioned data format "Virtual Reality Modeling Language” (VRML) .
  • This display generation program 14 uses the design model 4 and generates the sequence 8 of perspective representations. For this purpose, it uses the previously determined viewing directions and viewing positions of the images, which is stored in the form of a computer-accessible path 5.
  • the sequence of the viewing positions and viewing directions is preferably stored in the form of a script in a standardized data format.
  • the presentation generation program 14 reads this script and executes it automatically.
  • the execution of this script reflects the work of a designer.
  • This designer uses a data processing system with input devices, a screen and a CAD program to create perspective views of the factory floor using the design model 3 and display it on the screen device. With the input devices he specifies the viewing direction and the viewing position of the representations and changes them. Running the script replaces this user's preference.
  • the sequence 8 of representations and the sequence of images are mixed together to produce the target-actual comparison.
  • the predetermined sequence 1 is used directly for this, in another embodiment the image sequence 2 in the processable form.
  • the corresponding representation is inserted into each image of the sequence 1.
  • the geometric objects of the representations are characterized as being different from the objects shown in the images. For example, the objects of the representations receive a specific coloration. Mixing together provides a comparison 9.
  • Fig. 5 illustrates the Lochtremodell, in a simplified form vividly illustrates the structure of a camera.
  • a pinhole camera can be understood as a cube, on whose one side (on the focal plane FO) there is a small hole, the optical camera center C. The opposite side is a semitransparent side, the image plane R, on which the recorded object appears upside down. G is the height of the object.
  • Perpendicular to the focal plane through the camera center is the optical axis Ac.
  • the distance between the mutually parallel focal and image planes is referred to as focal length or camera constant f.
  • the projection laws illustrated by FIG. 6 describe the mapping from a three-dimensional object point M in the world coordinate system to a two-dimensional image point m in the image coordinate system.
  • the origin of the coordinate system is placed in the camera center C, with the z-axis in the direction of the optical axis.
  • An object point M with the coordinates (x, y, z) is projected into the image plane R onto the image point m with the coordinates (u, v).
  • the pixel coordinates (u, v) refer to the coordinate system with the origin c, which represents the point of intersection between the optical axis Ac and the image plane R.
  • the origin c is the intersection of the optical axis c with the image plane R.
  • the central projection can be represented as a linear image and written in matrix form.
  • the figure can be represented as follows:
  • the depth information is lost.
  • the pixel m corresponds to an infinite number of object points, the are on the projection beam through m and through the camera center C. Therefore, this image is not unique when reversing a pixel into an object point of the world coordinate system.
  • the projection law in the pinhole camera model represents a simplification of the general projection laws.
  • images of the sequence 2 are used in a digitized computer-accessible form, which necessitates both an extension and a specification of the pinhole camera model.
  • the image is stored in a matrix of pixels. In the event that these cells are not square, a computational balance must be made so that the image does not appear compressed or stretched in one direction.
  • k u and k v represent the scaling factors in order to adjust the cell size, and U 05 V 0 the shift into the
  • Fig. 7 illustrates this coordinate transformation.
  • C is the optical camera center
  • e_u_old and ev old the units on the axes of the old one Coordinate system
  • e_u_new and e_v_new the units on the axes of the new coordinate system
  • u_0 and v_0 the coordinates of C in the new coordinate system.
  • Recording device 40 As a camera, and are therefore referred to as intrinsic parameters of the recording device 40. In a few exceptional cases, there is an additional skew parameter, which is zero for most recording devices.
  • the recording device 40 Since the recording device 40 is at a different position in the world coordinate system (see Fig. 8) and also has a different orientation in each case, it becomes necessary to move this from one position and viewing direction u to the next by using a suitably changed world coordinate system to compensate.
  • This transformation matrix is also used to map two cameras onto a common coordinate system.
  • the internal (intrinsic) parameters need only be calculated once.
  • the external (extrinsic) parameters must be calculated several times when the position and / or the viewing direction change.
  • the projection matrix PM is calculated.
  • a solution can be found which, however, is often too inaccurate due to inaccurate image coordinates x.
  • a larger number of correspondences are chosen, resulting in an overdetermined system of equations.
  • This can be calculated using the usual numerical methods, such as the Householder method (QR decomposition) and the singular value decomposition. Thereafter, a decomposition into the inner and outer parameters takes place with the same numerical methods, cf. z. B. Faugeras, supra.
  • points in the three-dimensional world coordinate system and pixels are associated with each other by means of the reference points and reference points.
  • Fig. 9 illustrates the epipolar geometry by way of example.
  • M is a point in the three-dimensional world coordinate system whose coordinates are not known.
  • Rl the image plane
  • ml and m2 are the pixels of M in R1 and R2, respectively.
  • El is the image of C2 in Rl
  • E2 is the image of Cl in R2.
  • El and ml define the epipolar straight line epl, E2 and m2 the epipolar straight line ep2.
  • the two vectors C 1 C 2 and C 1 M span the so-called epipolar plane, which intersects the two image planes R 1 and R 2 in the epipolar lines epl and ep 2. This means that the associated pixel m2 is thus located on the intersection line of the right projection plane.
  • projective geometry methods are used for the calculations. This will be described below using the example of a two-dimensional space 9t 2 .
  • the following relationships are evaluated:
  • a straight line 1 through two points p and g is calculated using the cross-product 1-p y .q.
  • the projective geometry helps to determine the fundamental matrix FM described below and thus to determine the intrinsic and extrinsic parameters, since it simplifies the calculations by their properties.
  • the second projection matrix PM2 with PM 2 KM 2 * [RM
  • KMl and KM2 are the two calibration matrices using the relationship
  • the fundamental matrix FM is calculated from two corresponding images.
  • the corresponding 3D point X is calculated by the so-called back projection with the two corresponding pixels ml and m2.
  • the backprojecting beams are cut together.
  • ml and m2 are given, and X is according to the
  • the fundamental matrix FM is z. B. by means of the normalized 8-point algorithm, the z. From P. Hartley, supra, or by the minimum 7-point algorithm. In order to calculate the path 5, at least seven correspondences (pixels) between different images of the sequence must have been calculated.
  • a so-called essential matrix EM is calculated.
  • a numerical method e.g. The singular value decomposition.
  • the intrinsic parameters of the recording device 40 must be known. If these are not known, a self-calibration procedure is used, e.g. For example, the method of Kruppa equations. This method is based on the idea that the five intrinsic parameters are defined by the projection of the absolute conic to the ideal plane. Knowing at least five control points or assignments between the 3D world coordinates and 2D image coordinates is directly reconstructed.
  • the three-dimensional point X is calculated by calculating X as the intersection of the two backprojecting lines.
  • X is calculated as the midpoint of the connection line.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The invention relates to a method and computer program product for producing a comparison between a physical object and a predefined three-dimensional computer-accessible construction pattern (3). An object image sequence (2) is predefined. A viewing direction and a viewing position are determined for each image of the sequence (2) with respect to the construction pattern (3). The depiction of the object viewed from the viewing direction and position is produced and inserted into the image. The image sequence (9) comprising the inserted image depictions delivers a comparison.

Description

Verfahren zum Vergleich eines realen Gegenstandes mit einem digitalen Modell Method for comparing a real object with a digital model
Die Erfindung betrifft ein Verfahren ein Computerprogramm- Produkt und eine Datenverarbeitungsanlage zum Erzeugen eines bildlichen Vergleichs zwischen einem physikalischen Gegenstand und einem vorgegebenen dreidimensionalen rechnerverfügbaren Konstruktionsmodell des Gegenstandes.The invention relates to a method of a computer program product and a data processing system for generating a pictorial comparison between a physical object and a predetermined three-dimensional computer-available design model of the object.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zum Vergleichen eines physikalischen Gegenstandes mit einem vorgegebenen Konstruktionsmodell des Gegenstandes bereitzustellen.The invention has for its object to provide a method and apparatus for comparing a physical object with a given design model of the object.
Die Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1, ein Computerprogramm-Produkt mit den Merkmalen des Anspruchs 14 und eine Datenverarbeitungsanlage mit den Merkmalen des Anspruchs 16 gelöst. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben. Durch das Verfahren und das Computerprogramm-Produkt wird ein Vergleich zwischen dem physikalischen Gegenstand und dem vorgegebenen dreidimensionalen rechnerverfügbaren Konstruktionsmodell des Gegenstandes erzeugt. Vorgegeben wird eine Abfolge von Bildern des Gegenstandes. Für jedes Bild der Abfolge dessen Betrachtungsrichtung und Betrachtungsposition relativ zum Konstruktionsmodell ermittelt. Eine Darstellung des Gegenstandes, die den Gegenstand aus der Betrachtungsrichtung und der Betrachtungsposition des Bildes zeigt, wird erzeugt und in das Bild eingefügt. Die Abfolge von Bildern mit eingefügten Darstellungen liefert den Vergleich.The object is achieved by a method having the features of claim 1, a computer program product having the features of claim 14 and a data processing system having the features of claim 16. Advantageous embodiments are specified in the subclaims. The method and the computer program product create a comparison between the physical item and the given three-dimensional computer-available design model of the item. Provided is a sequence of pictures of the object. For each image of the sequence, the viewing direction and viewing position relative to the design model are determined. A representation of the object that the object from the Viewing direction and the viewing position of the image is generated and inserted into the image. The sequence of images with inserted representations provides the comparison.
Im Folgenden wird ein Ausführungsbeispiel der Erfindung anhand der beiliegenden Figuren näher beschrieben. Dabei zeigen:In the following an embodiment of the invention will be described in more detail with reference to the accompanying figures. Showing:
Fig. 1. das Zusammenwirken von verschiedenen Software- Programmen bei der Durchführung des erfindungsgemäßen Verfahrens ;Fig. 1. The interaction of different software programs in carrying out the method according to the invention;
Fig. 2. ein Beispiel für die Verknüpfung von Bezugspunkten und Referenzpunkten;FIG. 2 shows an example of the connection of reference points and reference points; FIG.
Fig. 3. den ersten Teil eines Flußdiagramms, welches das Ausführungsbeispiel des Verfahrens erläutert;Fig. 3. the first part of a flow chart which explains the embodiment of the method;
Fig. 4. den zweiten Teil des Flußdiagramms von Fig. 3,-4 shows the second part of the flowchart of FIG. 3,
Fig. 5. das Lochkameramodell;Fig. 5. the Lochkameramodell;
Fig. 6. die Projektionsgesetze des Lochkameramodells;6 shows the projection laws of the hole camera model;
Fig. 7. eine Koordinatentransformation in der Bildebene;FIG. 7 shows a coordinate transformation in the image plane; FIG.
Fig. 8. eine Koordinatentransformation zwischen zwei dreidimensionalen Koordinatensystemen;8 shows a coordinate transformation between two three-dimensional coordinate systems;
Fig. 9. die epipolare Geometrie.9 shows the epipolar geometry.
Das Ausführungsbeispiel bezieht sich auf eine Fabrikhalle als dem physikalischen Gegenstand. Diese Fabrikhalle wurde oder wird anhand eines vorgegebenen rechnerverfügbaren dreidimensionalen Konstruktionsmodells erbaut. Dieses Konstruktionsmodell fungiert als eine geometrische Spezifikation der Fabrikhalle. In gleicher Weise läßt sich das Verfahren auch für andere Gebäude , z . B . Gebäude zum Ausstellen und Vorführen von Gegenständen, für Museen, Bürogebäude, Bahnhöfen oder Fertigungsanlagen anwenden.The embodiment refers to a factory floor as the physical object. This factory building was or will be built using a given computer-accessible three-dimensional design model. This design model acts as a geometric specification of the factory floor. In the same way, the process can also be used for other buildings, eg. B. Buildings for exhibiting and demonstrating objects, for museums, office buildings, railway stations or manufacturing plants.
Durch Anwendung des Verfahrens soll ermittelt werden, ob die Fabrikhalle tatsächlich so erbaut wurde oder wird wie durch das Konstruktionsmodell spezifiziert, ob also die SoIl- Geometrie der Fabrikhalle mit der Ist-Geometrie übereinstimmt. Abweichungen zwischen Soll- und Ist-Geometrie können z. B. aus Abstimmungs- und Kommunikationsfehlern zwischen den am Bau beteiligten Unternehmen oder durch' Fehler bei der Erzeugung von Bauzeichnungen aus dem Konstruktionsmodell resultieren.By applying the method, it should be ascertained whether the factory building was actually built or will be like this the design model specifies whether the SoIl geometry of the factory floor coincides with the actual geometry. Deviations between nominal and actual geometry can, for. For example, due to coordination and communication errors between the companies involved in the construction or due to errors in the production of architectural drawings from the design model.
Das Verfahren läßt sich nach Fertigstellung der Fabrikhalle ■ anwenden. Es läßt sich aber auch nach Abschluß ausgewählter Bauphasen während des Erbauens anwenden, z. B. nachdem der Rohbau fertiggestellt wurde und bevor die Bestandteile der Inneneinrichtung eingebaut werden. Das Verfahren läßt sich auch dazu anwenden, um nachträgliche bauliche Änderungen an der Fabrikhalle zu ermitteln, die nicht im Konstruktionsmodell nachgeführt wurden.The procedure can be applied after completion of the factory floor. But it can also be applied after completion of selected stages of construction during construction, z. B. after the shell has been completed and before the components of the interior are installed. The method can also be used to determine subsequent structural changes to the factory floor, which were not tracked in the design model.
Wie oben erwähnt, läßt sich das Verfahren sowohl für eine fertiggestellte Fabrikhalle auch für die Fabrikhalle in verschiedenen Bauphasen, z. B. nach Abschluß des Rohbaus, anwenden. Wird das Verfahren für eine fertiggestellte Fabrikhalle angewendet, so wird ein Konstruktionsmodell vorgegeben, das die Fabrikhalle mitsamt der Inneneinrichtung, z. B. mitsamt den Türen und Versorgungsleitungen für die Fertigungsanlagen, spezifiziert. Wird hingegen die Fabrikhalle nach Abschluß einer Bauphase untersucht, so wird ein reduziertes Konstruktionsmodell vorgegeben. Dieses reduzierte Konstruktionsmodell spezifiziert nur diejenigen Bestandteile der Inneneinrichtung geometrisch, die nach Abschluß der entsprechenden Bauphase bereits vorhanden sind. Soll z. B. der Rohbau untersucht werden, so wird ein reduziertes Konstruktionsmodell verwendet, das nur die Bestandteile des Rohbaus geometrisch spezifiziert, aber nicht die Bestandteile der Inneneinrichtung. Das reduzierte Konstruktionsmodell wird vorzugsweise aus dem vollständigen Konstruktionsmodell dadurch erzeugt, dass diejenigen Bestandteile entfernt werden, die nach Abschluß der jeweiligen Bauphase noch nicht vorhanden sind.As mentioned above, the process can be both for a finished factory hall for the factory hall in different stages of construction, z. B. after completion of the shell, apply. If the procedure for a finished factory hall is applied, a design model is given, the factory hall including the interior, z. B. together with the doors and supply lines for the manufacturing equipment, specified. If, on the other hand, the factory building is examined after completion of a construction phase, then a reduced design model is specified. This reduced design model geometrically specifies only those components of the interior that already exist after completion of the corresponding construction phase. Should z. As the shell are examined, a reduced design model is used, which specifies only the components of the shell geometrically, but not the components of the interior. The reduced design model is preferably generated from the complete design model by using ones Components are removed, which are not available after completion of the respective construction phase.
Fig. 1 zeigt das Zusammenwirken von verschiedenen Software- Programmen und Datenbeständen bei der Durchführung des erfindungsgemäßen Verfahrens. Vorgegeben wird die von einem Aufnahmegerät 40 aufgenommene Abfolge 1 von Bildern der Fabrikhalle, und zwar im Bildformat des Aufnahmegeräts 40. Ein erster Transformierer 10 hat Lesezugriff auf diese Bild- Abfolge 1 und erzeugt aus ihr eine Bild-Abfolge 2 von Bildern einem von einer Datenverarbeitungsanlage verarbeitbaren Datenformat .Fig. 1 shows the interaction of different software programs and databases in carrying out the method according to the invention. The sequence 1 taken by a recording device 40 is predefined from images of the factory floor, in the image format of the recording device 40. A first transformer 10 has read access to this image sequence 1 and generates therefrom an image sequence 2 of images from a data processing system processable data format.
Vorgegeben ist ein rechnerverfügbares dreidimensionales Konstruktionsmodell 3 der Fabrikhalle. Ein zweiter Transformierer 11 hat Lesezugriff auf dieses Konstruktionsmodell 3 und erzeugt ein Konstruktionsmodell 4 in einem Datenformat, das sowohl ein Zuordnungs-Programm 16 als auch ein Pfad-Generierungs-Programm 13 verarbeiten kann. Sowohl das Zuordnungs-Programm 16 als auch das Pfad- Generierungs-Programm 13 haben Lesezugriff auf die Bild- Abfolge 2 sowie auf das Konstruktionsmodell 4. Das Zuordnungs-Programm 16 erzeugt eine rechnerverfügbare Zuordnung 7 zwischen Bezugspunkten in den Bildern und Referenzpunkten des Konstruktionsmodells 3. Das Pfad- Generierungs-Programm 13 hat zusätzlich Lesezugriff auf die Zuordnung 7 und erzeugt einen rechnerverfügbaren Pfad 5 durch das Konstruktionsmodell 3, indem es für jedes Bild der Abfolge 1 dessen Betrachtungsrichtung und Betrachtungsposition relativ zum Konstruktionsmodell 4 ermittelt .Provided is a computer-available three-dimensional design model 3 of the factory floor. A second transformer 11 has read access to this design model 3 and generates a design model 4 in a data format that can handle both a mapping program 16 and a path generation program 13. Both the mapping program 16 and the path generation program 13 have read access to the image sequence 2 as well as to the design model 4. The mapping program 16 generates a computer-available mapping 7 between reference points in the images and reference points of the design model 3. The path generation program 13 additionally has read access to the mapping 7 and generates a computer-accessible path 5 through the design model 3 by determining its viewing direction and viewing position relative to the design model 4 for each image of the sequence 1.
Ein dritter Transformierer 12 hat ebenfalls Lesezugriff auf das vorgegebene Konstruktionsmodell 3 und erzeugt ein Konstruktionsmodell 6 in einem Datenformat, das ein Darstellungs-Erzeuger 14 verarbeiten kann. Der Darstellungs- Erzeuger 14 hat Lesezugriff auf das Konstruktionsmodell 6 sowie auf den Pfad 5. Er erzeugt eine Abfolge 7 von Darstellungen, die die Fabrikhalle jeweils aus der Betrachtungsrichtung und Betrachtungsposition zeigt, die der Pfad 5 festlegt.A third transformer 12 also has read access to the given design model 3 and generates a design model 6 in a data format that a rendering generator 14 can process. The presentation generator 14 has read access to the design model 6 as well as to the path 5. It generates a sequence 7 of Representations showing the factory hall respectively from the viewing direction and viewing position, which the path 5 defines.
Ein Misch-Programm 15 hat Lesezugriff auf die Bild-Abfolge 2 sowie auf die Abfolge 7 von Darstellungen. Es fügt in jedes Bild der Abfolge 2 die entsprechende Darstellung der Abfolge 7 ein. Dadurch wird ein Vergleich 8 in Form einer Abfolge erzeugt .A merge program 15 has read access to the image sequence 2 as well as to the sequence 7 of representations. It inserts in each image of the sequence 2 the corresponding representation of the sequence 7. As a result, a comparison 8 is generated in the form of a sequence.
Fig. 3 und Fig. 4 zeigen ein Flußdiagramm, welches das Ausführungsbeispiel des Verfahrens erläutert .Fig. 3 and Fig. 4 show a flow chart which explains the embodiment of the method.
Im Konstruktionsmodell 3 werden markante Referenzpunkte ausgewählt (Schritt S12) und dem Verfahren vorgegeben. Vorzugsweise werden solche Referenzpunkte ausgewählt, die Punkten entsprechen, die sich in den Bildern der Fabrikhalle leicht automatisch identifizieren lassen. Falls die Fabrikhalle quaderförmige Stützpfeiler aufweist, zählen zu den Referenzpunkten bevorzugt die oberen und unteren Eckpunkte dieser quaderförmigen Stützpfeiler. Jeder Stützpfeiler liefert demnach acht Referenzpunkte: vier Punkte liegen in den Ecken der unteren Begrenzungsfläche des Stützpfeilers, vier Punkte in den Ecken der oberen Begrenzungsfläche. Eckpunkte lassen sich in den Bildern leicht automatisch erkennen.In the design model 3 distinctive reference points are selected (step S12) and given the method. Preferably, such reference points are selected that correspond to points that can be easily identified automatically in the images of the factory floor. If the factory hall has rectangular pillars, the upper and lower corner points of these parallelepiped pillars are preferred reference points. Each pillar thus provides eight reference points: four points are in the corners of the lower boundary surface of the buttress, four points in the corners of the upper boundary surface. Corner points can be easily recognized automatically in the pictures.
Jedem Referenzpunkt . des Konstruktionsmodells 3 entspricht ein Bezugspunkt der realen Fabrikhalle. Im Ausführungsbeispiel sind die Eckpunkte von Stützpfeilern also Bezugspunkte. Wie viele Eckpunkte von Stützpfeilern in einem Bild auftreten, hängt von der Position und Blickrichtung des Aufnahmegeräts 40 im Moment des Aufnehmens ab.Every reference point. of the design model 3 corresponds to a reference point of the real factory hall. In the exemplary embodiment, the vertices of buttresses are thus reference points. How many corner points of abutments occur in an image depends on the position and viewing direction of the recorder 40 at the moment of recording.
Insbesondere dann, wenn die Stützpfeiler nicht quaderförmig sind, werden die den Referenzpunkten entsprechenden Bezugspunkte in der realen Fabrikhalle optisch markiert, z. B. mit Aufklebern, die sich optisch deutlich von der Umgebung abheben . Jeder Referenzpunkt, im Ausführungsbeispiel also jeder Stützpfeiler, des Konstruktionsmodells 3 erhält eine in dem gesamten Konstruktionsmodell 3 eindeutige Kennung, z. B. ähnlich den 64 Feldern eines Schachbretts. Weiterhin erhält jeder Referenzpunkt eines Stützpfeilers eine bezogen auf den Stützpfeiler eindeutige Kennung, z. B. eine ganz Zahl zwischen 1 und 8. Dadurch ist jedem Referenzpunkt des Konstruktionsmodells 3 eine eindeutige Kennung zugeordnet.In particular, when the pillars are not cuboid, the reference points corresponding reference points in the real factory hall are optically marked, z. B. with stickers that stand out visually clearly from the environment. Each reference point, in the exemplary embodiment so each pillar, the design model 3 receives a unique in the entire design model 3 identifier, eg. B. similar to the 64 fields of a chessboard. Furthermore, each reference point of a buttress receives a relative to the support pillar unique identifier, eg. As an integer between 1 and 8. Thus, each reference point of the design model 3 is assigned a unique identifier.
Bevorzugt enthält die Markierung eines Bezugspunkts der realen Fabrikhalle die Kennung des dem Bezugspunkt entsprechenden Referenzpunkts, z. B. die Kennung des Stützpfeilers und die Nummer des Eckpunkts.Preferably, the marking of a reference point of the real factory hall contains the identifier of the reference point corresponding to the reference point, for. Example, the identifier of the buttress and the number of the vertex.
Eine Abfolge 1 von Bildern der Fabrikhalle wird erzeugt. Vorzugsweise werden 25 Bilder pro Sekunde aufgenommen. Jedes Bild zeigt die Fabrikhalle aus einer bestimmten Betrachtungsrichtung und von einer bestimmten Betrachtungsposition aus. Bevorzugt zeigt jedes Bild mehrere Eckpunkte von mehreren Stützpfeilern. Zu der Abfolge 1 gehören Bilder, die die Leitungen zur Versorgung der Fertigungsanlagen in der Fabrikhalle mit Wasser und Strom zeigen. Weiterhin gehören zur Abfolge 1 Bilder, die Fertigungszellen, Roboter, Förderbänder u. ä. in der Halle zeigen. Falls das Verfahren auf den Rohbau einer Fabrikhalle angewendet wird, gehören zur Abfolge 1 Bilder, die diejenigen Orte zeigen, an denen später Wasser- und Stromleitungen eingebaut und Fertigungszellen' usw. aufgestellt werden.A sequence 1 of images of the factory floor is generated. Preferably, 25 frames per second are recorded. Each image shows the factory floor from a particular viewing direction and from a particular viewing position. Preferably, each image shows multiple vertices of multiple buttresses. Sequence 1 includes pictures showing the water and electricity supply to the production facilities in the factory floor. Furthermore, the sequence 1 images, the manufacturing cells, robots, conveyor belts u. in the hall. If the method is applied to the shell of a factory building, part of the sequence 1 images showing those places where installed water and power lines later and manufacturing cells' are so positioned.
In einer Ausführungsform werden die Bilder der Abfolge 1 mit einer hochauflösenden Film- oder Videokamera erzeugt. Beispielsweise weist jedes Bild eine Auflösung von 1920 x 1080 Bildpunkten auf, also 1920 Bildpunkte pro Zeile und 1080 Bildpunkte pro Spalte. Bevorzugt wird die Auflösung so gewählt, dass das Verhältnis von Bildpunkten pro Zeile zu Bildpunkten pro Spalte 16 : 9 beträgt. Möglich ist aber auch, die Bilder mit einer handelsüblichen Digitalkamera oder einer üblichen Videokamera aufzunehmen, auch mit einem Gerät, das für private Nutzer verwendet wird.In one embodiment, the images of sequence 1 are generated with a high definition film or video camera. For example, each image has a resolution of 1920 x 1080 pixels, ie 1920 pixels per line and 1080 pixels per column. Preferably, the resolution is chosen such that the ratio of pixels per line to pixels per column is 16: 9. It is also possible, the images with a standard digital camera or a usual video camera, even with a device that is used for private users.
Bevorzugt wird das Aufnahmegerät 40, also die Kamera, während des Aufnehmens auf ein Stativ oder eine Hebebühne montiert, so dass die Bilder ohne Verwackeln erzeugt werden und das Aufnahmegerät 40 um eine vertikale Drehachse drehbar gelagert ist. Vorzugsweise läßt sich die Kamera entlang dieser vertikalen Drehachse verschieben, ist also höhenverstellbar montiert. Dadurch wird ermöglicht, Gegenstände in der Fabrikhalle zu umgehen, falls diese Gegenstände die freie Sicht auf denjenigen Bereich der Fabrikhalle, den die Bilder zeigen sollen, verdeckt. Beispielsweise können Transportbehälter, Regallager oder Fertigungsanlagen diese freie Sicht beeinträchtigen.Preferably, the recording device 40, so the camera mounted during recording on a tripod or a lift, so that the images are generated without blurring and the recording device 40 is rotatably mounted about a vertical axis of rotation. Preferably, the camera can be moved along this vertical axis of rotation, so it is mounted vertically adjustable. This makes it possible to bypass items in the factory floor, if these items obscure the unobstructed view of that area of the factory floor that the pictures are to show. For example, transport containers, rack storage or manufacturing facilities can affect this clear view.
Vor dem Aufnehmen des ersten Bildes wird vorzugsweise das Aufnahmegerät 40 in der Fabrikhalle eingemessen. Dieses Einmessen verbessert die nachfolgend beschriebene Auswertung der Bilder. Beim Einmessen werden die aktuelle Position und die aktuelle Blickrichtung des Aufnahmegeräts 40 ermittelt. Bevorzugt werden die Position und die Blickrichtung bezüglich eines vorgegebenen Koordinatensystems, z. B. dem „Welt- Koordinatensystem" nach Gauß-Krüger, ermittelt. Das erste Bild wird aus dieser Blickrichtung und von dieser Position aus durchgeführt. Durch das Einmessen steht fest, aus welcher Betrachtungsrichtung und von welcher Betrachtungsposition aus dieses erste Bild die Fabrikhalle zeigt. DieBefore capturing the first image, the recorder 40 is preferably measured in the factory floor. This calibration improves the evaluation of the images described below. When measuring the current position and the current direction of the recording device 40 are determined. Preferably, the position and the viewing direction with respect to a given coordinate system, for. The first image is taken from this line of sight and from this position, and it is clear from which viewing direction and from what viewing position this first image shows the factory floor. The
Betrachtungsrichtung und die Betrachtungsposition des ersten Bildes werden dem Verfahren vorgegeben.Viewing direction and the viewing position of the first image are given to the method.
Wie oben beschrieben, wird ein Konstruktionsmodell 3 vorgegeben, welches die Fabrikhalle geometrisch spezifiziert. Weiterhin werden ein dreidimensionales Koordinatensystem und ein Maßstab für das Konstruktionsmodell 3 vorgegeben. Jeder Referenzpunkt ist durch seine Position in diesem Koordinatensystem eindeutig gekennzeichnet. Betrachtungsrichtungen werden als Vektoren in diesem Koordinatensystem angegeben. Der Ursprung dieses Koordinatensystems wird mit einem Punkt des Bezugs- Koordinatensystems für die reale Fabrikhalle verknüpft, die Koordinatenachsen mit Koordinatenachsen dieses Bezugs- Koordinatensystems . Der vorgegebene Maßstab gibt das Größenverhältnis zwischen dem Konstruktionsmodell 3 und der realen Fabrikhalle an. Durch die Verknüpfungen und dem Maßstab entspricht jeder Punkt der Fabrikhalle genau einem Punkt des Konstruktionsmodells 3 und umgekehrt.As described above, a design model 3 is specified which geometrically specifies the factory floor. Furthermore, a three-dimensional coordinate system and a scale for the design model 3 are given. Each reference point is uniquely identified by its position in this coordinate system. Viewing directions are called vectors in this Coordinate system specified. The origin of this coordinate system is linked with a point of the reference coordinate system for the real factory hall, the coordinate axes with coordinate axes of this reference coordinate system. The predetermined scale indicates the size relationship between the design model 3 and the real factory floor. Through the links and the scale, each point of the factory floor corresponds exactly to one point of the design model 3 and vice versa.
Die Abfolge 1 von Bildern wird in eine Abfolge 2 von Bildern in einer Form, die von einer Datenverarbeitungsanlage automatisch auswertbar ist, überführt. Beispielsweise wird für jedes Bild je eine Datei in einem Graphik-Datenformat erzeugt. Beispiele' für derartige Datenformate sind JPEG, GIF oder TIF. Die Abfolge von Dateien wird in einem Datenspeicher abgespeichert, auf den die Datenverarbeitungsanlage, die das Verfahren durchführt, lesenden Zugriff hat.The sequence 1 of images is transferred into a sequence 2 of images in a form that is automatically evaluable by a data processing system. For example, one file is created for each image in a graphic data format. Examples' for such data formats are JPEG, GIF or TIF. The sequence of files is stored in a data store to which the data processing system performing the method has read access.
Unter den Bildern der Abfolge 2 werden einige Aufnahmen ausgewählt (Schritt S2 mit dem Ergebnis 29) . Wie viele Aufnahmen ausgewählt werden, hängt von den Geschwindigkeiten ab, mit denen die Betrachtungsrichtung und die Betrachtungsposition des Aufnahmegeräts 40 zwischen den Aufnahmen verändert werden. Je größer diese Geschwindigkeiten sind, desto größer ist der Anteil der ausgewählten Bilder an der Gesamtzahl der Bilder. Zu den ausgewählten Bildern gehört das erste Bild. Beispielsweise wird jedes hundertste Bild ausgewählt. Insbesondere dann, wenn die Position und Blickrichtung des Aufnahmegeräts 40 beim Aufnehmen gleichmäßig variiert wird, ist es auch möglich, dass eine feste Zeitspanne, z. B. zehn Sekunden, vorgegeben wird und die Bilder so ausgewählt werden, dass zwischen den Aufnahmezeitpunkten für zwei aufeinander folgende ausgewählte Bilder die Zeitspanne liegt.Among the pictures of the sequence 2, some pictures are selected (step S2 with the result 29). How many shots are selected depends on the speeds at which the viewing direction and viewing position of the recorder 40 are changed between shots. The larger these speeds are, the greater the proportion of selected images in the total number of images. The first picture belongs to the selected pictures. For example, every hundredth image is selected. In particular, if the position and viewing direction of the recording device 40 is varied uniformly during recording, it is also possible that a fixed period of time, for. B. ten seconds, and the images are selected so that between the recording times for two consecutive selected images is the time.
Oder jedes Bild, das in einer bestimmten Zeitspanne aufgenommen wurde, wird ausgewählt. Werden beispielsweise 25 Bilder pro Sekunde aufgenommen und dauert die Zeitspanne eine Länge von 10 Sekunden, so werden 250 aufeinander folgende Bilder ausgewählt.Or any picture taken in a certain period of time will be selected. For example, 25 Frames per second and takes the period of a length of 10 seconds, so 250 consecutive images are selected.
Die Bezugspunkte in jedem ausgewählten Bild werden ermittelt (Schritt S13) . Bevorzugt wird in jedem ausgewählten Bild jeder Eckpunkt jedes Stützpfeilers mit einer Kennung versehen. Für jedes ausgewählte Bild wird hierfür ermittelt, welche Eckpunkte welcher Stützpfeiler in dem Bild auftreten. Dadurch werden die Bezugspunkte in jedem ausgewählten Bild ermittelt und mit der Kennung versehen. Eine alternative Ausgestaltung sieht vor, dass dann, wenn mehrere nacheinander folgende Bilder der Abfolge ausgewählt werden, im ersten Bild der ausgewählten Sequenz jeder Eckpunkt jedes Stützpfeilers mit einer Kennung versehen wird.The reference points in each selected image are determined (step S13). Preferably, in each selected image, each vertex of each buttress is provided with an identifier. For each selected image, it is determined which corner points of which pillars occur in the image. As a result, the reference points in each selected image are determined and provided with the identifier. An alternative embodiment provides that, when a plurality of successive images of the sequence are selected, each vertex of each buttress is provided with an identifier in the first image of the selected sequence.
Das Konstruktionsmodell 3 wird in ein Datenformat transformiert, das vom Darstellungs-Erzeuger 14 sowie von einem im folgenden beschriebenen Zuordnungs-Programm 16 verarbeitet werden kann (Schritt S5) . Dadurch wird ein verarbeitbares Konstruktionsmodell 6 erzeugt. Dieses Datenformat ist vorzugsweise „Virtual Reality Modeling Language" (VRML) . VRML wird beispielsweise in U. Debacher: „VRML-Einführung", 2003, verfügbar unter http: //www. debacher.de/yrml/yrml .htm, abgefragt am 16. 9. 2004, beschrieben wird. Anstelle VRML läßt sich z. B. auch STEP verwenden.The design model 3 is transformed into a data format that can be processed by the display generator 14 as well as by a mapping program 16 described below (step S5). As a result, a processable design model 6 is generated. This data format is preferably "Virtual Reality Modeling Language" (VRML), for example VRML is described in U. Debacher: "VRML Introduction", 2003, available at http: // www. , queried on 16. 9. 2004, is described. Instead of VRML can be z. B. also use STEP.
Eine Zuordnung dieser Eckpunkte in den Bildern zu den entsprechenden Referenzpunkten des Konstruktionsmodells 6 wird hergestellt. Ein Bezugspunkt der Fabrikhalle und ein Referenzpunkt des Konstruktionsmodells entsprechen einander, wenn die Position des Bezugspunkts im Bezugs- Koordinatensystem der Position des Referenzpunkts im Koordinatensystem des Konstruktionsmodells entspricht.An association of these corner points in the images to the corresponding reference points of the design model 6 is established. A reference point of the factory floor and a reference point of the design model correspond to each other when the position of the reference point in the reference coordinate system corresponds to the position of the reference point in the coordinate system of the design model.
Um die Zuordnung von Bezugspunkten zu Referenzpunkten herzustellen, wird bevorzugt eine Gegenüberstellung 20 generiert. Dieser Schritt S3 wird bevorzugt vom Zuordnungs- Programm 16 durchgeführt. Die Gegenüberstellung 20 zeigt einerseits das ausgewählte Bild der Fabrikhalle mit den eingetragenen Kennungen der Stützpfeiler, andererseits eine Darstellung der Fabrikhalle, die mit Hilfe des Konstruktionsmodells 6 erzeugt wurde und die die Fabrikhalle aus einer bestimmten Betrachtungsrichtung und von einer bestimmten Betrachtungsposition aus zeigt . Diese Betrachtungsrichtung und diese Betrachtungsposition der Darstellung sind veränderbar. Nacheinander werden je ein Bezugspunkt in dem Bild und ein Referenzpunkt des Konstruktionsmodells 6 markiert. Festgelegt wird, dass diese beiden Punkte einander entsprechen. Dadurch wird im Schritt S4 eine Zuordnung 21 Bezugspunkten und Referenzpunkten in jedem ausgewählten Bild erzeugt.In order to establish the assignment of reference points to reference points, a comparison 20 is preferably generated. This step S3 is preferred by the assignment Program 16 performed. The comparison 20 shows on the one hand the selected image of the factory hall with the registered identifications of the supporting pillars, on the other hand a representation of the factory hall which was produced with the aid of the design model 6 and which shows the factory hall from a specific viewing direction and from a specific viewing position. This viewing direction and viewing position of the representation are changeable. One reference point in the image and one reference point of the design model 6 are marked one after the other. It is determined that these two points correspond to each other. Thereby, an association 21 reference points and reference points in each selected image is generated in step S4.
Vorzugsweise wird nach dem Auswählen von Bildern der Abfolge 2 (Schritt S2) und nach dem Herstellen der Zuordnung (Schritt S4) überprüft, ob jeder vorgegebene Referenzpunkt des Konstruktionsmodells 3 berücksichtigt wurde. Hierfür wird überprüft, ob jedem Referenzpunkt ein Bezugspunkt, der in mindestens einem ausgewählten Bild auftritt, entspricht. Für diese Prüfungen werden die hergestellten Zuordnungen . automatisch durchsucht. Hierdurch wird zusätzlich festgestellt, ob ein Stützpfeiler nur im Konstruktionsmodell 3, aber nicht in der realen Fabrikhalle vorhanden ist. Ist dies der Fall, wird eine entsprechende Meldung ausgegeben.Preferably, after selecting images of the sequence 2 (step S2) and after establishing the assignment (step S4), it is checked whether each predetermined reference point of the design model 3 has been taken into account. For this purpose, it is checked whether each reference point corresponds to a reference point that occurs in at least one selected image. For these tests, the mappings produced. automatically searched. In this way, it is also determined whether a buttress is present only in the design model 3, but not in the real factory hall. If this is the case, a corresponding message is output.
Durch den gerade beschriebenen Schritt werden Zuordnungen zwischen den Referenzpunkten und den Bezugspunkten in den ausgewählten Bildern durchgeführt. Als nächstes wird ermittelt, welche Punkte der nicht ausgewählten Bilder den Referenzpunkten entsprechen (Schritt S7) . In jedem nicht ausgewählten Bild werden zunächst automatisch die Bezugspunkte, also die Eckpunkte von Stützpfeilern, ermittelt (Schritt S6) . Die Eckpunkte lassen sich als Schnittpunkte von Stützpfeilern mit Boden oder Decke der Fabrikhalle automatisch identifizieren. Damit wird eine Menge 22 von Bezugspunkten im nicht ausgewählten Bild der Abfolge 2 ermittelt .Through the step just described, associations are made between the reference points and the reference points in the selected images. Next, it is determined which points of the non-selected images correspond to the reference points (step S7). In each unselected image, the reference points, that is, the vertices of abutments, are automatically determined (step S6). The corner points can be automatically identified as intersections of pillars with floor or ceiling of the factory floor. This will be a lot 22 of Reference points in the non-selected image of the sequence 2 determined.
Damit steht fest, an welchen Positionen im jeweiligen Bild Bezugspunkte auftreten, aber noch nicht, welchen Referenzpunkten diese Bezugspunkte entsprechen. Die Position eines Bezugspunkts in dem Bild wird bevorzugt in einem zweidimensionalen Koordinatensystem angegeben, z. B. durch Angabe des Bildpunkts (Nummer der Zeile und Nummer der Spalte im digitalisierten Bild) .It is thus clear at which positions in the respective image reference points occur, but not at which reference points these reference points correspond. The position of a reference point in the image is preferably indicated in a two-dimensional coordinate system, e.g. By specifying the pixel (number of the row and number of the column in the digitized image).
Als nächstes wird die Position jedes Bezugspunkts des Bilds mit den Positionen der Bezugspunkte in dem letzten oder dem ersten nachfolgenden ausgewählten oder in einem bereits zuvor untersuchten Bild der Abfolge 2 verglichen. In dem letzten ausgewählten Bild ist bekannt, welchem Referenzpunkt dieser Bezugspunkt entspricht. Durch den Positionsvergleich wird ermittelt, welcher Bezugspunkt des nicht ausgewählten Bildes welchem Bezugspunkt des ausgewählten Bildes gleicht.Next, the position of each reference point of the image is compared with the positions of the reference points in the last or the first subsequent selected or previously examined image of the sequence 2. In the last selected image it is known which reference point corresponds to this reference point. The position comparison determines which reference point of the unselected image is the same as the reference point of the selected image.
Beispielsweise wird der nächstgelegene Bezugspunkt in dem letzten ausgewählten Bild ermittelt und als der gleiche Bezugspunkt verwendet. Oder die Lage des Bezugspunkts relativ zum benachbarten Objekt wird sowohl im nicht ausgewählten als auch im ausgewählten Bild berücksichtigt .For example, the closest reference point in the last selected image is determined and used as the same reference point. Or the position of the reference point relative to the neighboring object is taken into account both in the unselected and in the selected image.
Fig. 2 zeigt ein Beispiel für die Verknüpfung von Bezugspunkten und Referenzpunkten. In der Abfolge wurden zunächst das Bild B-I und dann das Bild B-2 erzeugt. B-I wurde ausgewählt, B-2 nicht. Durch die Zuordnung ist bekannt, dass der Bezugspunkt BP in B-I dem Referenzpunkt RP im Konstruktionsmodell entspricht. Ermittelt wurde, dass BP-I und BP-2 Eckpunkte von Stützpfeilern sind. Daher sind BP-I und BP-2 Bezugspunkte, die in B-2 auftreten. Durch eine Bildanalyse wird ermittelt, dass BP-I in B-2 der vordere linke Eckpunkt der unteren Begrenzungsfläche des Stützpfeilers ist und dass BP-2 der vordere rechte Eckpunkt. Weiterhin wird ermittelt, dass BP in B-I der vordere linke Eckpunkt der unteren Begrenzungsfläche ist . Hieraus wird automatisch gefolgert, dass BP in B-I der gleiche Bezugspunkt wie BP-2 in B-2 ist. Demnach entsprechen BP und BP-2 beide dem Referenzpunkt RP des Konstruktionsmodells.Fig. 2 shows an example of the combination of reference points and reference points. In the sequence, first the image BI and then the image B-2 were generated. BI was selected, B-2 not. Through the assignment, it is known that the reference point BP in BI corresponds to the reference point RP in the design model. It has been determined that BP-I and BP-2 are cornerstones of buttresses. Therefore, BP-I and BP-2 are reference points that occur in B-2. Image analysis reveals that BP-1 in B-2 is the front left corner point of the lower boundary surface of the buttress and that BP-2 is the front right corner point. Further, it is determined that BP in BI is the front left corner point of the lower boundary surface. This will become automatically concluded that BP in BI is the same reference point as BP-2 in B-2. Thus, BP and BP-2 both correspond to the reference point RP of the design model.
Dieses Verfahren wird vorzugsweise vorwärts, ausgehend jeweils von einem ausgewählten Bild, durchgeführt. Sei N der Indes eines ausgewählten Bildes in der Abfolge. Zunächst wird das Bild nach dem ausgewählten Bild untersucht, also das Bild mit dem Index N+l . Dann wird das Bild mit dem Index N+2 untersucht und so fort .This method is preferably carried out forward, each starting from a selected image. Let N be the indent of a selected image in the sequence. First, the image is examined for the selected image, ie the image with the index N + 1. Then the image with index N + 2 is examined and so on.
Möglich ist, dass dieses Verfahren für ein nicht ausgewähltes Bild keine eindeutige Zuordnung eines Bezugspunkts zu einem Referenzpunkt liefert. In diesem Fall wird das Bild nachträglich ausgewählt, und die Zuordnung des Bezugspunkts zu einem Referenzpunkt wird wie oben beschrieben mittels der Gegenüberstellung hergestellt.It is possible that this method for a non-selected image does not provide a clear assignment of a reference point to a reference point. In this case, the image is subsequently selected and the association of the reference point with a reference point is established by means of the comparison as described above.
Der Schritt S7 liefert für jedes nicht ausgewählte Bild als Ergebnis eine rechnerverfügbare Zuordnung 23 zwischen Bezugspunkten und Referenzpunkten im nicht ausgewählten Bild.As a result, step S7 provides for each non-selected image a computer-available mapping 23 between reference points and reference points in the non-selected image.
Anschließend wird für jedes Bild der Abfolge 2 dessen Betrachtungsrichtung und Betrachtungsposition relativ zum Konstruktionsmodell ermittelt. Dieser Schritt S8 wird vom Pfad-Generierungs-Programm 13 durchgeführt. Zuvor wird das vorgegebene Konstruktionsmodell 3 in ein Konstruktionsmodell 4 in einem Datenformat transformiert, das vom Pfad- Generierungs-Programm 13 verarbeitbar ist (Schritt S9) .Subsequently, for each image of the sequence 2, its viewing direction and viewing position are determined relative to the design model. This step S8 is performed by the path generation program 13. Previously, the given design model 3 is transformed into a design model 4 in a data format that is processable by the path generation program 13 (step S9).
Das Pfad-Generierungs-Programm 13 importiert das Konstruktionsmodell 4 und die Menge 27 der Referenzpunkte. Für jedes Bild der Abfolge 2 verwendet das Pfad-Generierungs- Programm 13 die Positionen der Bezugspunkte im Bild und die Positionen der ihnen entsprechenden Referenzpunkte 27. Jeder Referenzpunkt ist durch seine Position im dreidimensionalen Koordinatensystem des Konstruktionsmodells 3 gekennzeichnet. Jeder Bezugspunkt besitzt eine ermittelte Position in dem jeweiligen Bild der Abfolge 2. Die Betrachtungsrichtung und Betrachtungsposition des Bildes relativ zum Konstruktionsmodell 3 wird aus diesen Informationen ermittelt (Ergebnis 24) . Diese Ermittlung führt das Pfad-Generierungs-Programm 13 durch. Die Ermittlung liefert einen Punkt (die Betrachtungsposition) und einen Vektor (die Betrachtungsrichtung) im Koordinatensystem des Konstruktionsmodells 3. Verfahren zur Ermittlung von Betrachtungsrichtung und Betrachtungsposition eines Bildes werden am Schluß detaillierter beschrieben.The path generation program 13 imports the design model 4 and the set 27 of the reference points. For each image of the sequence 2, the path generation program 13 uses the positions of the reference points in the image and the positions of the corresponding reference points 27. Each reference point is characterized by its position in the three-dimensional coordinate system of the design model 3. Each reference point has a determined position in the respective image of the sequence 2. The viewing direction and viewing position of the image relative to the design model 3 is determined from this information (result 24). This determination is performed by the path generation program 13. The determination provides a point (the viewing position) and a vector (the viewing direction) in the coordinate system of the design model 3. Methods for determining the viewing direction and viewing position of an image will be described in more detail below.
Die Abfolge von Betrachtungsrichtungen und Betrachtungspositionen der Bilder liefert einen Pfad 5 des Aufnahmegeräts 40 durch das Konstruktionsmodell 3.The sequence of viewing directions and viewing positions of the images provides a path 5 of the recorder 40 through the design model 3.
Nach Abschluß dieses Verfahrensschrittes S8 ist für jedes Bild der Abfolge ermittelt :After completion of this step S8 is determined for each image of the sequence:
- welche Bezugspunkte in dem Bild auftreten (Ergebnisse 28 und 22) , welche Positionen im Bild diese Bezugspunkte haben und welchen Referenzpunkten des Konstruktionsmodells 3 welcher Bezugspunkt des Bildes entspricht (Ergebnisse 21 und 23) .what reference points occur in the image (results 28 and 22), which positions in the image have these reference points and which reference points of the design model 3 corresponds to which reference point of the image (results 21 and 23).
Als nächstes wird für jedes Bild der Abfolge eine Darstellung der Fabrikhalle erzeugt, die die Fabrikhalle aus derselben Betrachtungsrichtung und Betrachtungsposition zeigt wie das Bild. Diese perspektivische Darstellung wird unter Verwendung des vorgegebenen dreidimensionalen Konstruktionsmodells erzeugt. Sie zeigt, wie die Fabrikhalle aus der Betrachtungsrichtung und der Betrachtungsposition aussehen soll, während das aufgenommene Bild zeigt, wie sie tatsächlich aussieht.Next, for each frame of the sequence, a representation of the factory floor is created showing the factory floor from the same viewing direction and viewing position as the picture. This perspective view is generated using the given three-dimensional design model. It shows how the factory floor should look from the viewing direction and the viewing position, while the captured image shows what it actually looks like.
Ein Darstellungs-Erzeugungs-Programm 14 erzeugt eine Abfolge 8 von perspektivischen Darstellungen der Fabrikhalle. Hierfür wird das Konstruktionsmodell 4 vorzugsweise im oben erwähnten Datenformat „Virtual Reality Modeling Language" (VRML) importiert. Dieses Darstellungs-Erzeugungs-Programm 14 verwendet das Konstruktionsmodell 4 und erzeugt die Abfolge 8 von perspektivischen Darstellungen. Hierfür verwendet es die zuvor ermittelten Betrachtungsrichtungen und Betrachtungspositionen der Bilder, die in Form eines rechnerverfügbaren Pfades 5 abgespeichert wird.A presentation generation program 14 generates a sequence 8 of perspective views of the factory floor. For this purpose, the design model 4 is preferably imported in the above-mentioned data format "Virtual Reality Modeling Language" (VRML) .This display generation program 14 uses the design model 4 and generates the sequence 8 of perspective representations. For this purpose, it uses the previously determined viewing directions and viewing positions of the images, which is stored in the form of a computer-accessible path 5.
Die Abfolge der Betrachtungspositionen und Betrachtungsrichtungen wird vorzugsweise in Form eines Skripts in einem standardisierten Datenformat abgespeichert. Das Darstellungs-Erzeugungs-Programm 14 liest dieses Skript ein und führt es automatisch aus. Die Ausführung dieses Skripts bildet das Arbeiten eines Konstrukteurs nach. Dieser Konstrukteur verwendet eine Datenverarbeitungsanlage mit Eingabegeräten, einem Bildschirm und einem CAD-Programm, um sich perspektivische Darstellungen der Fabrikhalle unter Verwendung des Konstruktionsmodells 3 erzeugen und auf dem Bildschirmgerät anzeigen zu lassen. Mit den Eingabegeräten gibt er die Betrachtungsrichtung und die Betrachtungsposition der Darstellungen vor und verändert diese. Das Ausführen des Skripts ersetzt diese Vorgaben des Benutzers.The sequence of the viewing positions and viewing directions is preferably stored in the form of a script in a standardized data format. The presentation generation program 14 reads this script and executes it automatically. The execution of this script reflects the work of a designer. This designer uses a data processing system with input devices, a screen and a CAD program to create perspective views of the factory floor using the design model 3 and display it on the screen device. With the input devices he specifies the viewing direction and the viewing position of the representations and changes them. Running the script replaces this user's preference.
Die Abfolge 8 von Darstellungen und die Abfolge von Bildern werden zusammengemischt, um den Soll-Ist-Vergleich zu erzeugen. In einer Ausführungsform wird hierfür direkt die vorgegebene Abfolge 1 verwendet, in einer anderen Ausführungsform die Bilder-Abfolge 2 in der verarbeitbaren Form. Hierbei wird in jedes Bild der Abfolge 1 die entsprechende Darstellung eingefügt. Bevorzugt werden die geometrischen Objekte der Darstellungen so gekennzeichnet, dass sie sich von den Gegenständen, die in den Bildern gezeigt werden, unterscheiden. Beispielsweise erhalten die Objekte der Darstellungen eine bestimmte Farbgebung. Das Zusammen-Mischen liefert einen Vergleich 9.The sequence 8 of representations and the sequence of images are mixed together to produce the target-actual comparison. In one embodiment, the predetermined sequence 1 is used directly for this, in another embodiment the image sequence 2 in the processable form. In this case, the corresponding representation is inserted into each image of the sequence 1. Preferably, the geometric objects of the representations are characterized as being different from the objects shown in the images. For example, the objects of the representations receive a specific coloration. Mixing together provides a comparison 9.
Im folgenden wird erläutert, wie die Betrachtungsrichtung und die Betrachtungsposition eines Bildes ermittelt werden. Verfahren zur Analyse von rechnerverfügbaren Bildern sind z. B. aus R. Rome & M. Kolesnik: „3D-Szenerekonstruktion aus Bilddaten", 1998, verfügbar unter http: //www. ais . fraunhofer.de/projects/Makro/reports/makro- report-VI-1.pdf , ausThe following explains how to determine the viewing direction and the viewing position of an image. Methods for analyzing computer-accessible images are, for. B. off R. Rome & M. Kolesnik: "3D Scene Reconstruction from Image Data", 1998, available at http://www.is.fraunhofer.de/projects/Makro/reports/macro-report VI-1.pdf, from
R. Hartles & A. Zisserman: „Multiple View Geometry in Computer Vision", Cambridge University Press, Cambridge, 4th ed. 2002, sowie ausR. & A. Hartles Zisserman: "Multiple View Geometry in Computer Vision", Cambridge University Press, Cambridge, 4 th ed 2002, as well as from.
0. Faugeras & Q. -T. Luong: „Three-Dimensional Computer Vision", MIT Press, 2001, bekannt .0. Faugeras & Q. -T. Luong: "Three-Dimensional Computer Vision," known by Press, 2001.
Zunächst wird das sogenannte Kameramodell der Zentralprojektion an Hand einer Lochkamera dargestellt. Aufbauend auf die einfachen Projektionsgesetze beim Lochkameramodell wird der Allgemeinfall derFirst, the so-called camera model of the central projection is displayed by means of a pinhole camera. Based on the simple projection laws in Lochkameramodell the general case of
Projektionsgesetze einer Kameraabbildung für den Zusammenhang zwischen einem Objekt und einem Bild aufgezeigt. Des Weiteren wird erläutert, wie die Beziehung zweier Bilder und dem abgebildeten Objekt mit Hilfe der epipolaren Geometrie herzustellen ist. Mit dieser Darstellungsform wird die Stereoanalyse zweier Aufnahmen beschrieben, die mittels einer sogenannten Fundamentalmatrix mit Hilfe korrespondierender Punkte beider Bilder gelöst wird.Projection laws of a camera image for the relationship between an object and a picture shown. It also explains how to make the relationship between two images and the imaged object using epipolar geometry. This representation describes the stereo analysis of two images, which are solved by means of a so-called fundamental matrix with the help of corresponding points of both images.
Fig. 5 veranschaulicht das Lochkameramodell, in vereinfachter Form anschaulich den Aufbau einer Kamera darstellt. Eine Lochkamera kann als Würfel verstanden werden, auf dessen einen Seite (auf der Fokalebene FO) sich ein kleines Loch befindet, das optische Kamerazentrum C. Die dazu gegenüberliegende Seite ist eine halbtransparente Seite, die Bildebene R, auf der der aufgenommene Gegenstand kopfüber erscheint. Mit g wird die Höhe des Gegenstands bezeichnet. Senkrecht zur Fokalebene durch das Kamerazentrum befindet sich die optische Achse Ac. Der Abstand zwischen den zueinander parallelen Fokal- und Bildebenen wird als Brennweite oder Kamerakonstante f bezeichnet. Die durch Fig. 6 veranschaulichten Projektionsgesetze beschreiben die Abbildung von einem dreidimensionalen Objektpunkt M im Weltkoordinatensystem auf einen zweidimensionalen Bildpunkt m im Bildkoordinatensystem. Vereinfachend wird der Ursprung des Koordinatensystems in das Kamerazentrum C gelegt, mit der z-Achse in Richtung der optischen Achse. Ein Objektpunkt M mit den Koordinaten (x,y,z) wird in die Bildebene R auf den Bildpunkt m mit den Koordinaten (u,v) projiziert. Dabei beziehen sich die Bildpunkt-Koordinaten (u,v) auf das Koordinatensystem mit dem Ursprung c, der den Schnittpunkt zwischen optischer Achse Ac und Bildebene R darstellt. Der Ursprung c ist der Schnittpunkt der optischen Achse c mit der Bildebene R.Fig. 5 illustrates the Lochkameramodell, in a simplified form vividly illustrates the structure of a camera. A pinhole camera can be understood as a cube, on whose one side (on the focal plane FO) there is a small hole, the optical camera center C. The opposite side is a semitransparent side, the image plane R, on which the recorded object appears upside down. G is the height of the object. Perpendicular to the focal plane through the camera center is the optical axis Ac. The distance between the mutually parallel focal and image planes is referred to as focal length or camera constant f. The projection laws illustrated by FIG. 6 describe the mapping from a three-dimensional object point M in the world coordinate system to a two-dimensional image point m in the image coordinate system. For simplification, the origin of the coordinate system is placed in the camera center C, with the z-axis in the direction of the optical axis. An object point M with the coordinates (x, y, z) is projected into the image plane R onto the image point m with the coordinates (u, v). In this case, the pixel coordinates (u, v) refer to the coordinate system with the origin c, which represents the point of intersection between the optical axis Ac and the image plane R. The origin c is the intersection of the optical axis c with the image plane R.
Aus dieser Beschreibung leiten sich folgende Gleichungen ab, die sich mit Hilfe der Ähnlichkeitsdreiecke oder mit Hilfe der Strahlengesetze ergeben: f_ u V z X yFrom this description the following equations are derived, which result with the help of the similarity triangles or with the aid of the laws of radiation: f_ u V z X y
Mit Hilfe homogener Koordinaten läßt sich die Zentralprojektion als lineare Abbildung darstellen und in Matrixform schreiben. Dabei sind die homogenen Koordinaten (X5Y, Z,T)T des Objektpunktes M im dreidimensionalen Raum SR3 mit x = X/T,y = Y/T, z = Z/T,T≠0 und die Koordinaten (U,V,S)τ des Bildpunktes m im zweidimensionalen Raum SR2 mit u = U/S,v = V/S, S≠O beschrieben. In Matrixform läßt sich daher die Abbildung folgendermaßen darstellen:With the aid of homogeneous coordinates, the central projection can be represented as a linear image and written in matrix form. The homogeneous coordinates (X 5 Y, Z, T) T of the object point M in the three-dimensional space SR 3 with x = X / T, y = Y / T, z = Z / T, T ≠ 0 and the coordinates (U , V, S) τ of the pixel m in the two-dimensional space SR 2 with u = U / S, v = V / S, S ≠ O. In matrix form, therefore, the figure can be represented as follows:
Figure imgf000018_0001
Figure imgf000018_0001
Jedoch geht bei dieser Projektion vom dreidimensionalen in den zweidimensionalen Raum die Tiefeninformation verloren. Dem Bildpunkt m entsprechen unendlich viele Obj ektpunkte , die sich auf dem Projektionsstrahl durch m und durch das Kamerazentrum C befinden. Daher ist diese Abbildung bei der Umkehrung eines Bildpunktes in einen Objektpunkt des Weltkoordinatensystems nicht eindeutig.However, in this projection from the three-dimensional to the two-dimensional space, the depth information is lost. The pixel m corresponds to an infinite number of object points, the are on the projection beam through m and through the camera center C. Therefore, this image is not unique when reversing a pixel into an object point of the world coordinate system.
Das Projektionsgesetz beim Lochkameramodell stellt eine Vereinfachung der allgemeinen Projektionsgesetze dar. Im Regelfall werden Bilder der Abfolge 2 in einer digitalisierten rechnerverfügbaren Form verwendet, was sowohl eine Erweiterung als auch eine Spezifizierung des Lochkameramodells nötig macht. Das Bild wird in einer Matrix von Bildpunkten (Pixel) abgespeichert. Für den Fall, dass diese Zellen nicht quadratisch sind, muß ein rechnerischer Ausgleich erfolgen, damit das Bild nicht in eine Richtung gestaucht oder gestreckt erscheint. Darüber hinaus ist es von Vorteil, wenn der Koordinatenursprung nicht in der Bildmitte, sondern in einer Ecke des Bildes liegt. Diese Änderungen in ein Pixelkoordinatensystem sind mit einer Koordinatentransformation mit der folgenden Transformationsmatrix H möglich.The projection law in the pinhole camera model represents a simplification of the general projection laws. As a rule, images of the sequence 2 are used in a digitized computer-accessible form, which necessitates both an extension and a specification of the pinhole camera model. The image is stored in a matrix of pixels. In the event that these cells are not square, a computational balance must be made so that the image does not appear compressed or stretched in one direction. In addition, it is advantageous if the origin of the coordinates is not in the center of the image, but in a corner of the image. These changes in a pixel coordinate system are possible with a coordinate transformation with the following transformation matrix H.
Figure imgf000019_0001
Figure imgf000019_0001
HH
ku und kv stellen dabei die Skalierungsfaktoren dar, um die Zellengröße anzupassen, und U05V0 die Verschiebung in diek u and k v represent the scaling factors in order to adjust the cell size, and U 05 V 0 the shift into the
Bildecke .Picture corner.
Fig. 7 veranschaulicht diese Koordinatentransformation. Hierbei sind C das optische Kamerazentrum, e_u_alt und e v alt die Einheiten auf den Achsen des alten Koordinatensystems, e_u_neu und e_v_neu die Einheiten auf den Achsen des neuen Koordinatensystems sowie u_0 und v_0 die Koordinaten von C im neuen Koordinatensystem. Es ist e u neu _ , e v neu k_u = und k_v = . e_u_alt e_v_altFig. 7 illustrates this coordinate transformation. Here, C is the optical camera center, e_u_old and ev old the units on the axes of the old one Coordinate system, e_u_new and e_v_new the units on the axes of the new coordinate system and u_0 and v_0 the coordinates of C in the new coordinate system. It is new _, ev new k_u = and k_v =. e_u_alt e_v_old
Werden die beiden Transformationsmatrizen H und P miteinander multipliziert, ergibt sich eine Kombination A=HP der beiden Transformationen, die eine Abbildung von homogenen dreidimensionalen Weltkoordinaten in homogene zweidimensionale Pixelkoordinaten ausdrückt :If the two transformation matrices H and P are multiplied together, the result is a combination A = HP of the two transformations, which expresses a mapping of homogeneous three-dimensional world coordinates into homogeneous two-dimensional pixel coordinates:
Figure imgf000020_0001
Figure imgf000020_0001
Die Parameter fku,fkv,uQ,vϋ stellen den inneren Aufbau desThe parameters fk u , fk v , u Q , v ϋ represent the internal structure of the
Aufnahmegeräts 40, z. B. einer Kamera, dar und werden daher als intrinsische Parameter des Aufnahmegeräts 40 bezeichnet. In wenigen Ausnahmefällen gibt es einen zusätzlichen Verzerrungsparameter („skew parameter") s, der jedoch bei den meisten Aufnahmegeräten gleich Null ist .Recording device 40, z. As a camera, and are therefore referred to as intrinsic parameters of the recording device 40. In a few exceptional cases, there is an additional skew parameter, which is zero for most recording devices.
-fkt uf -fk t u f
A= 0A = 0
0 0 1 00 0 1 0
Da sich das Aufnahmegerät 40 bei verschiedenen Aufnahmen jeweils an einer anderen Position im Weltkoordinatensystem (vgl. Fig. 8) befindet und auch jeweils eine andere Orientierung hat, wird es nötig diese Bewegung von einer Position und Blickrichtung u einer nächsten durch Verwendung eines passend geänderten Weltkoordinatensystem zu kompensieren.Since the recording device 40 is at a different position in the world coordinate system (see Fig. 8) and also has a different orientation in each case, it becomes necessary to move this from one position and viewing direction u to the next by using a suitably changed world coordinate system to compensate.
Dabei wird die Ausgangssituation hergestellt, in der sich das Kamerazentrum ohne Verdrehung im Ursprung des Weltkoordinatensystems befindet. Diese Transformation setzt sich aus einer Translation und Rotation zusammen und kann mit Hilfe der homogenen Transformationsmatrix E dargestellt werden. Da das Kamerazentrum vom dreidimensionalen Raum in den dreidimensionalen Raum transformiert wird, wird von einer sogenannten Kollineation gesprochen, die sich mit Hilfe der folgenden Gleichung berechnen läßt :The initial situation is established, in which the camera center without twisting at the origin of the World coordinate system is located. This transformation consists of translation and rotation and can be represented by the homogeneous transformation matrix E. Since the camera center is transformed from three-dimensional space into three-dimensional space, we speak of a so-called collineation, which can be calculated using the following equation:
Figure imgf000021_0001
Figure imgf000021_0001
Ee
Dabei sind r^ (1 <= i,j <= 3) die einzelnen Elemente der Rotationsmatrix und tk die einzelnen Elemente der Transformationsmatrix. Diese Parameter beschreiben die Position und Orientierung der Kamera zum Weltkoordinatensystem und werden daher als extrinsische Parameter bezeichnet. Diese Transformationsmatrix wird ebenfalls verwendet, um zwei Kameras auf ein gemeinsames Koordinatensystem abzubilden.R ^ (1 <= i, j <= 3) are the individual elements of the rotation matrix and t k the individual elements of the transformation matrix. These parameters describe the position and orientation of the camera to the world coordinate system and are therefore referred to as extrinsic parameters. This transformation matrix is also used to map two cameras onto a common coordinate system.
Die vollständige Projektionsgleichung wird durch die Multiplikation der beiden Transformationsmatrizen A und E beschrieben. Dabei ergibt sich die Projektionsmatrix PM = AE mit a„
Figure imgf000021_0002
i=1,2,3 :
The complete projection equation is described by the multiplication of the two transformation matrices A and E. The result is the projection matrix PM = AE with a "
Figure imgf000021_0002
i = 1,2,3:
Figure imgf000021_0003
Figure imgf000021_0003
PM Wenn bei verschiedenen Aufnahmen dasselbe Aufnahmegerät 40 verwendet wird, müssen die internen (intrinsischen) Parameter nur einmal berechnet werden. Die externen (extrinsischen) Parameter hingehen müssen bei einer Veränderung der Position und/oder der Blickrichtung mehrfach berechnet werden.PM If the same recorder 40 is used in different recordings, the internal (intrinsic) parameters need only be calculated once. The external (extrinsic) parameters must be calculated several times when the position and / or the viewing direction change.
Für die Projektionsmatrix PM wird parallel eine andere Schreibweise eingeführt. Die Matrix A wird in eine 3x3 Kalibrierungsmatrix KM und in einen Nullvektor 0 aufgeschlüsselt . Dadurch ergibt sich folgender Ausdruck A = KM*[I|0] (mit der Einheitsmatrix I) . Die Matrix E wird inFor the projection matrix PM another notation is introduced in parallel. The matrix A is broken down into a 3x3 calibration matrix KM and into a zero vector 0. This yields the following expression A = KM * [I | 0] (with the unit matrix I). The matrix E is in
RM tv der Kurzschreibweise mit der 3x3 Rotationsmatrix RMRM tv shorthand with the 3x3 rotation matrix RM
01 und dem Translationsvektor tv dargestellt. Dadurch ergibt sich insgesamt folgende Rechenvorschrift:0 1 and the translation vector tv shown. This results in the following calculation rule:
RM tvRM tv
PM =KM*[I|0]* =KM*[RM|tv] bzw. KM*RM*[l|tv]PM = KM * [I | 0] * = KM * [RM | tv] or KM * RM * [l | tv]
01 10 1 1
Im Falle einer Korrespondenz von 3D-Weltkoordinaten und Bildpunkten ( x <r» X ) wird die Projektionsmatrix PM berechnet. Dabei kann für die zwölf Matrixkoeffizienten mit sechs linear, unabhängigen Gleichungspaaren eine Lösung gefunden werden, die jedoch häufig auf Grund nicht exakter Bildkoordinaten x zu ungenau ist. Aus diesem Grund wird eine größere Anzahl von Korrespondenzen gewählt, was zu einem überbestimmten Gleichungssystem führt . Dieses läßt sich mit den gängigen Verfahren aus der Numerik berechnen, wie mit dem Householder-Verfahren (QR-Zerlegung) und der SingulärwertZerlegung. Danach erfolgt mit den gleichen numerischen Verfahren eine Zerlegung in die inneren und äußeren Parameter, vgl. z. B. 0. Faugeras, a.a.O.In the case of a correspondence of 3D world coordinates and pixels (x <r »X), the projection matrix PM is calculated. In this case, for the twelve matrix coefficients with six linear, independent equation pairs, a solution can be found which, however, is often too inaccurate due to inaccurate image coordinates x. For this reason, a larger number of correspondences are chosen, resulting in an overdetermined system of equations. This can be calculated using the usual numerical methods, such as the Householder method (QR decomposition) and the singular value decomposition. Thereafter, a decomposition into the inner and outer parameters takes place with the same numerical methods, cf. z. B. Faugeras, supra.
Vorzugsweise werden Punkte im dreidimensionalen Welt- Koordinatensystem und Bildpunkte mit Hilfe der Bezugspunkte und Referenzpunkte einander zugeordnet .Preferably, points in the three-dimensional world coordinate system and pixels are associated with each other by means of the reference points and reference points.
Tritt der Fall auf, dass bei einem Bild die zugehörigen dreidimensionalen Koordinaten des Weltkoordinatensystems nicht gegeben und die Kameraparameter unbekannt sind, kann ein geometrischer Zusammenhang zweier Bilder zum abgebildeten Objekt mit korrespondierenden Bildpunkten auch mit Hilfe der epipolaren Geometrie berechnet werden.If the case occurs, the image of an associated three-dimensional coordinates of the world coordinate system not given and the camera parameters are unknown, a geometric relationship of two images to the imaged object with corresponding pixels can also be calculated using the epipolar geometry.
Fig. 9 veranschaulicht die epipolare Geometrie an einem Beispiel. In Fig. 9 ist M ein Punkt im dreidimensionalen Weltkoordinatensystem, dessen Koordinaten nicht bekannt sind. Gegeben ist das in Fig. 9 links gezeigte Bild mit der Bildebene Rl, in dem der Punkt M an der Stelle ml auftritt. Gesucht ist der Bildpunkt m2 in der Bildebene R2. Cl und C2 sind in Fig. 9 die beiden optischen Kamerazentren, Rl und R2 sind die beiden Bildebenen für Cl bzw. C2 , und ml und m2 sind die Bildpunkte von M in Rl bzw. R2. El ist das Abbild von C2 in Rl, E2 das Abbild von Cl in R2. El und ml definieren die epipolare Gerade epl, E2 und m2 die epipolare Gerade ep2. Die beiden Vektoren C1C2 und C1M spannen dabei die sogenannte Epipolarebene auf, die die beiden Bildebenen Rl und R2 in den epipolaren Geraden epl und ep2 schneidet. Dies bedeutet, dass sich der zugehörige Bildpunkt m2 somit auf der Schnittgeraden der rechten Projektionsebene befindet.Fig. 9 illustrates the epipolar geometry by way of example. In Fig. 9, M is a point in the three-dimensional world coordinate system whose coordinates are not known. Given the image shown on the left in Fig. 9 with the image plane Rl, in which the point M occurs at the point ml. We are looking for the pixel m2 in the image plane R2. Cl and C2 are the two optical camera centers in Fig. 9, R1 and R2 are the two image planes for C1 and C2, respectively, and ml and m2 are the pixels of M in R1 and R2, respectively. El is the image of C2 in Rl, E2 is the image of Cl in R2. El and ml define the epipolar straight line epl, E2 and m2 the epipolar straight line ep2. The two vectors C 1 C 2 and C 1 M span the so-called epipolar plane, which intersects the two image planes R 1 and R 2 in the epipolar lines epl and ep 2. This means that the associated pixel m2 is thus located on the intersection line of the right projection plane.
Für die Berechnungen werden vorzugsweise Verfahren der projektiven Geometrie verwendet. Diese wird im Folgenden am Beispiel eines zweidimensionalen Raums 9t2 beschrieben. Eine Gerade in der projektiven Ebene SR2 wird mittels der impliziten Form der Geradengleichung ax+by +c = 0 als homogener Vektor lτ =[a b c]τ beschrieben. Folgende Zusammenhänge werden ausgewertet :Preferably, projective geometry methods are used for the calculations. This will be described below using the example of a two-dimensional space 9t 2 . A straight line in the projective plane SR 2 is described by means of the implicit form of the line equation ax + by + c = 0 as a homogeneous vector l τ = [abc] τ . The following relationships are evaluated:
Dadurch gelten folgende Gesetzmäßigkeiten:As a result, the following laws apply:
Ein Punkt pτ = (u,v,w)τ liegt auf der Geraden 1, oder eine Gerade 1 geht durch den Punkt p, wenn lτp = pτl = au +bv+cw=0 gilt.A point p τ = (u, v, w) τ lies on the straight line 1, or a straight line 1 passes through the point p if l τ p = p τ l = au + bv + cw = 0.
Eine Gerade 1 durch zwei Punkte p und g wird mit Hilfe des Kreuzprodukts 1-py.q berechnet. Der Schnittpunkt zweier Geraden / und m wird ebenfalls mit Hilfe des Kreuzprodukts berechnet : p = lxmA straight line 1 through two points p and g is calculated using the cross-product 1-p y .q. The intersection of two lines / and m is also calculated using the cross product: p = lxm
Drei Punkte p, q und r sind kollinear, wenn ihre Determinante Null ist, also wenn gilt: det[p,q,r] = 0Three points p, q, and r are collinear if their determinant is zero, that is, if: det [p, q, r] = 0
Die projektive Geometrie ist bei der Bestimmung der im folgenden beschriebenen Fundamentalmatrix FM und damit der Bestimmung der intrinsischen und extrinsischen Parameter behilflich, da sie die Berechnungen durch ihre Eigenschaften vereinfacht .The projective geometry helps to determine the fundamental matrix FM described below and thus to determine the intrinsic and extrinsic parameters, since it simplifies the calculations by their properties.
Wie oben beschrieben und in Fig. 9 illustriert, wird die epipolare Geometrie angewendet, um den zweiten Bildpunkt m2 zu bestimmen, wenn der erste Bildpunkt ml sowie die epipolare Gerade ep2 bekannt oder bereits berechnet sind. Hierfür werden lediglich die inneren (intrinsischen) und äußeren (extrinsischen) Parameter der beiden Kameras verwendet. Um diese Parameter zu nutzen, werden die Projektionsmatrizen PMl und PM2 verwendet, um eine sogenannte Fundamentalmatrix FM mit drei Reihen und drei Spalten zu berechnen. Sie wird so berechnet, dass gilt: ep2 = FM*ml . Entsprechend gilt die Umkehrung : epl = FMτ*m2. Denn FM ist invariant unter einer räumlichen projektiven Transformation. Da sich m2 auf der epipolaren Gerade ep2 befindet, wird folgende Epipolar-Bedingung ausgewertet: mζ *ep2
Figure imgf000024_0001
*FM*m1 = 0. Mit dieser Bedingung wird die Korrespondenz zwischen zwei Bildpunkten ml und m2 berechnet .
As described above and illustrated in FIG. 9, the epipolar geometry is used to determine the second pixel m2 when the first pixel ml as well as the epipolar straight line ep2 are known or already calculated. Only the inner (intrinsic) and outer (extrinsic) parameters of both cameras are used. To use these parameters, the projection matrices PM1 and PM2 are used to calculate a so-called fundamental matrix FM with three rows and three columns. It is calculated so that: ep2 = FM * ml. Similarly, the inverse applies: epl = FM τ * m2. FM is invariant under a spatial projective transformation. Since m2 is located on the epipolar straight line ep2, the following epipolar condition is evaluated: mζ * ep 2
Figure imgf000024_0001
* FM * m 1 = 0. With this condition, the correspondence between two pixels ml and m2 is calculated.
Im folgenden werden vier Schritte beschrieben, um die Fundamentalmatrix FM zu berechnen und anzuwenden. Zunächst wird die erste Projektionsmatrix PMl orthogonal zum Weltkoordinatensystem ausgerichtet, d.h. PM1 =KM*[I\ 0] . Die zweite Projektionsmatrix PM2 mit PM2 = KM2 *[RM | tv] , wobei RM eine Rotationsmatrix und tv ein Translationsvektor ist, wird mit Hilfe der Fundamentalmatrix FM bestimmt. Für ep2 entsteht folgende Rechenvorschrift: ep2 =(KM2 *tv)x(K2 *RM*KM1 "1 *m,) , Hierbei sind KMl und KM2 die beiden Kalibrierungsmatrizen, der unter Verwendung der BeziehungFour steps are described below to calculate and apply the fundamental matrix FM. First, the first projection matrix orthogonal pML is aligned to the world coordinate system, ie, PM = 1 KM * [I \ 0]. The second projection matrix PM2 with PM 2 = KM 2 * [RM | tv], where RM is a rotation matrix and tv is a translation vector, is determined using the fundamental matrix FM. For ep2, the following calculation rule arises: ep 2 = (KM 2 * tv) x (K 2 * RM * KM 1 "1 * m,), Here, KMl and KM2 are the two calibration matrices using the relationship
(M*a)x(M*b) = c*M-τ*(axb) mit einem Skalierungsfaktor sf in die Form ep2 =KMf *tvx(RK'1 *sf*mι)=KM;T *[t]x *RM*KM1 '1 *sf*w, überführt wird.(M * a) x (M * b) = c * M- τ * (axb) with a scaling factor sf into the form ep 2 = KMf * tvx (RK '1 * sf * m ι ) = KM; T * [t] x * RM * KM 1 '1 * sf * w.
Da für den Bildpunkt ml homogene Koordinaten verwendet werden, kann direkt der Skalierungsfaktor sf=l gesetzt werden und damit ergibt sich insgesamt : ep2 = KMf * [tv]x * RM * KM1 -1Hi1 = FM * Hi1 und für die Fundamentalmatrix FM : FM = KM"T * [tv]x * RM * KM1 "1 Since homogenous coordinates are used for the pixel ml, the scaling factor sf = 1 can be set directly, resulting in a total of: ep 2 = KMf * [tv] x * RM * KM 1 -1 Hi 1 = FM * Hi 1 and for the fundamental matrix FM: FM = KM "T * [tv] x * RM * KM 1 " 1
Hierbei bezeichnet [tv]x die Matrixschreibweise eines Kreuzprodukts , d . h . [tv]x = tvx v mitHere, [tv] x denotes the matrix notation of a cross product, i. H . [tv] x = tvx v with
0 - V3 V2 0 - V 3 V 2
[tv]x = 0 - V1 [tv] x = 0 - V 1
- V2 V1 0- V 2 V 1 0
Die Fundamentalmatrix FM weist zwei Epipole El und E2 auf. Für diese gilt: FM*E1 = 0 und FMT*E2 = 0. Der Grund ist, dass für jeden beliebigen Bildpunkt ml gilt: E2 *ep2 = E2 *FM*m1 = 0 , da sich der jeweilige Epipol auf jeder epipolaren Gerade befindet.The fundamental matrix FM has two epipoles El and E2. The following applies to this: FM * E1 = 0 and FM T * E2 = 0. The reason is that for any pixel ml: E 2 * ep 2 = E 2 * FM * m 1 = 0, since the respective epipole located on each epipolar line.
Mit Hilfe der Fundamentalmatrix FM und der epipolaren Geometrie werden eine dreidimensionale Rekonstruktion sowie die Position und Blickrichtung des Aufnahmegeräts 40 für jedes Bild berechnet. Die gerade beschriebene Vorgehensweise wird insbesondere im Schritt S8 angewendet .With the aid of the fundamental matrix FM and the epipolar geometry, a three-dimensional reconstruction and the position and viewing direction of the recording device 40 are calculated for each image. The procedure just described is used in particular in step S8.
Zunächst wird aus zwei korrespondierenden Bildern die Fundamentalmatrix FM berechnet. Mit Hilfe der Fundamentalmatrix FM werden anschließend die beiden Projektionsmatrizen PMl und PM2 gemäß den Rechenvorschriften PM1 =KM*[I\0] und PM2 = KM2 *[RM \ tv] berechnet. Dadurch wird durch die sogenannte Rückprojektion mit den beiden korrespondierenden Bildpunkten ml und m2 der zugehörige 3D- Punkt X berechnet. Dabei werden, geometrisch betrachtet, die rückprojizierenden Strahlen miteinander geschnitten. Hierbei werden ml und m2 vorgegeben, und X wird gemäß derFirst, the fundamental matrix FM is calculated from two corresponding images. With the aid of the fundamental matrix FM, the two projection matrices PM1 and PM2 are subsequently processed in accordance with the calculation rules PM 1 = KM * [I \ 0] and PM 2 = KM 2 * [RM \ tv] calculated. As a result, the corresponding 3D point X is calculated by the so-called back projection with the two corresponding pixels ml and m2. In this case, geometrically considered, the backprojecting beams are cut together. Here ml and m2 are given, and X is according to the
Rechenvorschrift X = berechnet.
Figure imgf000026_0001
Calculation rule X = calculated.
Figure imgf000026_0001
Die Fundamentalmatrix FM wird z. B. mittels des normierten 8- Punkt-Algorithmus, der z. B. aus P. Hartley, a.a.O., oder mittels des minimalen 7-Punkt-Algorithmus berechnet. Um den Pfad 5 zu berechnen, müssen mindestens sieben Korrespondenzen (Bildpunkte) zwischen verschiedenen Bildern der Abfolge berechnet worden sein.The fundamental matrix FM is z. B. by means of the normalized 8-point algorithm, the z. From P. Hartley, supra, or by the minimum 7-point algorithm. In order to calculate the path 5, at least seven correspondences (pixels) between different images of the sequence must have been calculated.
Um die Projektionsmatrizen PM und die extrinsischen Parameter zu bestimmen, wird eine sogenannte essentielle Matrix EM berechnet. Vorzugsweise wird ein numerisches Verfahren, z. B. die SingulärwertZerlegung, verwendet. Die intrinsischen Parameter des Aufnahmegeräts 40 müssen bekannt sein. Falls diese nicht bekannt sind, wird ein Verfahren der Selbstkalibrierung angewendet, z. B. die Methode der Kruppa- Gleichungen. Diese Methode beruht auf der Idee, dass die fünf intrinsischen Parameter durch die Projektion des absoluten Kegelschnitts auf die ideale Ebene definiert sind. Bei der Kenntnis von mindestens fünf Passpunkten oder Zuordnungen zwischen den 3D-Weltkoordinaten und 2D-Bildkoordinaten wird auf direktem Wege rekonstruiert.To determine the projection matrices PM and the extrinsic parameters, a so-called essential matrix EM is calculated. Preferably, a numerical method, e.g. The singular value decomposition. The intrinsic parameters of the recording device 40 must be known. If these are not known, a self-calibration procedure is used, e.g. For example, the method of Kruppa equations. This method is based on the idea that the five intrinsic parameters are defined by the projection of the absolute conic to the ideal plane. Knowing at least five control points or assignments between the 3D world coordinates and 2D image coordinates is directly reconstructed.
Der dreidimensionale Punkt X wird berechnet, indem X als Schnittpunkt der beiden rückproj izierenden Geraden berechnet wird. Das lineare GleichungsSystem PMl*X = ml und PM2*X = m2 wird gelöst. In der praktischen Umsetzung ergeben sich durch die nicht exakt bestimmbaren Bildpunktkoordinaten Schwierigkeiten. Folglich muß geometrisch betrachtet der kürzeste Abstand der beiden Projektionsgeraden ermittelt werden. X wird als der Mittelpunkt der Verbindungsgeraden berechnet .The three-dimensional point X is calculated by calculating X as the intersection of the two backprojecting lines. The linear equation system PMl * X = ml and PM2 * X = m2 is solved. In the practical implementation arise through the not exactly determinable pixel coordinates difficulties. Consequently, geometrically speaking, the shortest distance of the two projection straight lines must be determined become. X is calculated as the midpoint of the connection line.
Liste der verwendeten Bezugszeichen und SymboleList of used reference signs and symbols
Figure imgf000027_0001
Figure imgf000028_0001
BP, BP-I, Bezugspunkte BP-2
Figure imgf000027_0001
Figure imgf000028_0001
BP, BP-I, references BP-2
C BildzentrumC picture center
C, Cl, C2 Optische KamerazentrenC, Cl, C2 Optical Camera Centers
El Abbild von C2 in RlEl replica of C2 in Rl
E2 Abbild von Cl in R2 epl , ep2 epipolare Geraden f BrennweiteE2 image of Cl in R2 epl, ep2 epipolar line f focal length
F FokalebeneF focal plane
FM Fundamentalmatrix g GegenstandshöheFM Fundamental Matrix g Item height
I EinheitsmatrixI unit matrix
KM, KMl, KM2 KalibrierungsmatrizenKM, KMl, KM2 calibration matrices
M abzubildender Punkt im dreidimensionalen Welt-KoordinatensystemM point to be imaged in the three-dimensional world coordinate system
M, ml, m2 Bildpunkte von M in den Bildebenen R, Rl bzw. R2M, ml, m2 Pixels of M in the image planes R, Rl and R2, respectively
PM, PMl , PM2 Proj ektionsmatrizenPM, PMl, PM2 Projection matrices
R, Rl, R2 BildebenenR, Rl, R2 image planes
RM RotationsmatrixRM rotation matrix
RP ReferenzpunktRP reference point
Sl Transformierung der Bilder-Abfolge 1 in die verarbeitbare Bilder-Abfolge 2Sl transformation of the image sequence 1 into the processable image sequence 2
S2 Auswählen von Bildern der Bilder-Abfolge 2S2 Select pictures in the picture order 2
S3 Erzeugen der Gegenüberstellung des Konstruktionsmodells 6 und des ausgewählten BildesS3 generating the juxtaposition of the design model 6 and the selected image
S4 Zuordnen von Bezugspunkten des ausgewählten
Figure imgf000030_0001
S4 Assigning reference points of the selected
Figure imgf000030_0001

Claims

Patentansprüche claims
1. Verfahren zum Erzeugen eines Vergleichs zwischen einem physikalischen Gegenstand und einem vorgegebenen dreidimensionalen rechnerverfügbaren Konstruktionsmodell (3) des Gegenstandes, wobei zum Erzeugen eine Datenverarbeitungsanlage verwendet wird, eine Abfolge (2) von Bildern des Gegenstandes in einer von der Datenverarbeitungsanlage verarbeitbaren Form vorgegeben wird und und das Verfahren die automatisch von der Datenverarbeitungsanlage durchgeführten Schritte umfaßt, dass für jedes Bild der Abfolge (2) dessenA method for generating a comparison between a physical object and a predetermined three-dimensional computer-available design model (3) of the object, wherein a data processing system is used for generating, a sequence (2) of images of the object is given in a form processable by the data processing system, and and the method comprising the steps automatically performed by the data processing system, that for each image of the sequence (2)
Betrachtungsrichtung und Betrachtungsposition relativ zum Konstruktionsmodell (3) ermittelt wird, für jedes Bild der Abfolge (2) unter Verwendung des Konstruktionsmodells (3) eine Darstellung (25) des Gegenstandes erzeugt wird, die den Gegenstand aus der Betrachtungsrichtung und der Betrachtungsposition des Bildes zeigt, und für jedes Bild der Abfolge (2) die jeweils erzeugte Darstellung (25) dergestalt in das Bild eingefügt wird, dass die Betrachtungsrichtung und die Betrachtungsposition der Darstellung mit der Betrachtungsrichtung und der Betrachtungsposition des Bildes übereinstimmen. Viewing direction and viewing position relative to the design model (3) is determined, for each image of the sequence (2) using the design model (3) a representation (25) of the object is generated showing the object from the viewing direction and the viewing position of the image, and for each image of the sequence (2) the respective generated representation (25) is inserted into the image in such a way that the viewing direction and the viewing position of the representation coincide with the viewing direction and the viewing position of the image.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Betrachtungsrichtung und die Betrachtungsposition des ersten Bildes vorgegeben wird und für jedes nachfolgende Bild der Abfolge (2) dessen Betrachtungsrichtung und Betrachtungsposition relativ zum Konstruktionsmodell (3) ermittelt wird, wofür die Betrachtungsrichtung und die Betrachtungsposition mindestens eines vorherigen Bildes der Abfolge (2) verwendet werden.2. The method according to claim 1, characterized in that the viewing direction and the viewing position of the first image is specified and for each successive image of the sequence (2) whose viewing direction and viewing position relative to the design model (3) is determined, for which the viewing direction and the viewing position at least one previous picture of the sequence (2).
3. Verfahren nach Anspruch 1 oder Anspruch 2 , dadurch gekennzeichnet, dass3. The method according to claim 1 or claim 2, characterized in that
Punkte des Konstruktionsmodells (3) ausgewählt und als Referenzpunkte vorgegeben werden,Points of the design model (3) are selected and given as reference points,
- die Positionen dieser Referenzpunkte im Konstruktionsmodell (3) ermittelt werden, für jedes Bild der Abfolge (2) ermittelt wird, welche Bezugspunkte im Bild welchen Referenzpunkt des Konstruktionsmodells (3) entsprechen und an welchen Positionen im Bild welche dieser Bezugspunkte auftreten, und für jedes nachfolgende Bild der Abfolge (2) die Betrachtungsrichtung und die Betrachtungsposition des Bildes relativ zum Konstruktionsmodell (3) unter Verwendung der Positionen der Bezugspunkte in dem Bild und der Positionen der diesen Bezugspunkten entsprechenden Referenzpunkten des Konstruktionsmodells (3) ermittelt werden.the positions of these reference points are determined in the design model (3), for each image of the sequence (2) it is determined which reference points in the image correspond to which reference point of the design model (3) and at which positions in the image which of these reference points occur, and for each subsequent image of the sequence (2) the viewing direction and the viewing position of the image relative to the design model (3) are determined using the positions of the reference points in the image and the positions of the reference points of the design model (3) corresponding to these reference points.
4. Verfahren nach Anspruch 3 , dadurch gekennzeichnet, dass4. The method according to claim 3, characterized in that
- Bilder der Abfolge (2) ausgewählt werden, für jedes ausgewählte Bild der Abfolge (2) eine- Pictures of the sequence (2) are selected for each selected image of the sequence (2) one
Zuordnung jedes im Bild auftretenden Bezugspunkts zu dem dem Bezugspunkt entsprechenden Referenzpunkt desAssignment of each reference point occurring in the image to the reference point of the reference point corresponding to the reference point
Konstruktionsmodells (3) hergestellt wird, für jedes ausgewählte Bild die Positionen der auftretenden Bezugspunkte im ausgewählten Bild ermittelt wird und für jedes nicht ausgewählte Bild der Abfolge (2) die Ermittlung, welche Bezugspunkte im Bild welchen Referenzpunkt desFor each non-selected image of the sequence (2), the determination of which reference points in the image which reference point of the image
Konstruktionsmodells (3) entsprechen und an welchenDesign model (3) and to which
Positionen im Bild welche dieser Bezugspunkte auftreten, unter Verwendung der hergestellten Zuordnung und derPositions in the image which of these reference points occur using the established mapping and the
Positionen der Bezugspunkte in den ausgewähltenPositions of the reference points in the selected
Bildern durchgeführt wird.Pictures is performed.
5. Verfahren nach Anspruch 4 , dadurch gekennzeichnet, dass die Auswahl von Bildern der Abfolge (2) dergestalt durchgeführt wird, dass für jeden Referenzpunkt mindestens ein Bild ausgewählt wird, in der der diesem Referenzpunkt entsprechende Bezugspunkt auftritt.5. The method according to claim 4, characterized in that the selection of images of the sequence (2) is performed such that for each reference point at least one image is selected in which the reference point corresponding to this reference point occurs.
6. Verfahren nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass als Referenzpunkte eine Klasse von Punkten des Konstruktionsmodells (3) ausgewählt werden, welche einer Klasse von Bezugspunkten des Gegenstandes entsprechen, die in den Bildern des Gegenstandes automatisch identifizierbar sind. A method according to any one of claims 3 to 5, characterized in that as reference points a class of points of the design model (3) are selected which correspond to a class of reference points of the object which are automatically identifiable in the images of the object.
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Abfolge (2) von Bildern des Gegenstandes dergestalt vorgegeben wird, dass jedes Bild der Abfolge (2) den Gegenstand aus einer anderen Betrachtungsrichtung und/oder Betrachtungsposition als das vorhergehende Bild zeigt.A method according to any one of claims 1 to 6, characterized in that the sequence (2) of images of the object is given such that each image of the sequence (2) the object from a different viewing direction and / or viewing position than the preceding image shows.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass dass für jedes Bild der Abfolge (2) eine perspektivische Darstellung des Gegenstandes erzeugt wird.8. The method according to any one of claims 1 to 7, characterized in that for each image of the sequence (2) a perspective view of the object is generated.
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass eine Abfolge (1) von Bildern des Gegenstandes in einem Bildformat eines Aufnahmegeräts (40) zum Aufnehmen der Bilder vorgegeben wird und durch Transformation der Bilder in Bilder in einem von der Datenverarbeitungsanlage verarbeitbaren Datenformat die verarbeitbare Abfolge (2) vorgegeben wird.9. The method according to any one of claims 1 to 8, characterized in that a sequence (1) of images of the object in an image format of a recording device (40) for recording the images is given and by transforming the images into images in one of the data processing system processable data format, the processable sequence (2) is specified.
10. Verwendung des Verfahrens nach einem der Ansprüche 1 bis 9, zum Erzeugen eines Vergleichs zwischen einem Gebäude und einem Konstruktionsmodell des Gebäudes.10. Use of the method according to one of claims 1 to 9, for generating a comparison between a building and a construction model of the building.
11. Verwendung des Verfahrens nach einem der Ansprüche 1 bis11. Use of the method according to one of claims 1 to
9, zum Erzeugen eines Vergleichs zwischen einer Inneneinrichtung eines Gebäudes und einem Konstruktionsmodell der Inneneinrichtung des Gebäudes. 9, for making a comparison between an interior of a building and a design model of the interior of the building.
12. Computerprogramm-Produkt , das in den internen Speicher eines Computers geladen werden kann und12. Computer program product that can be loaded into the internal memory of a computer and
Softwareabschnitte umfaßt, mit denen ein Verfahren nach einem der Ansprüche 1 bis 9 ausführbar ist, wenn das Produkt auf einem Computer läuft.Software sections with which a method according to any one of claims 1 to 9 is executable when the product is running on a computer.
13. Computerprogramm-Produkt , das auf einem von einem Computer lesbaren Medium gespeichert ist und das von einem Computer lesbare Programm-Mittel aufweist, die den Computer veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 9 auszuführen.A computer program product stored on a computer readable medium and having computer readable program means for causing the computer to execute a method according to any one of claims 1 to 9.
14. Computerprogramm-Produkt , das eine Informationsweiterleitungsschnittstelle zu einem ersten Datenspeicher mit einem Konstruktionsmodell (3) eines physikalischen Gegenstandes und eine Informationsweiterleitungsschnittstelle zu einem zweiten Datenspeicher, in dem eine Abfolge (2) von Bildern des Gegenstandes in einer vom Computerprogramm-Produkt verarbeitbaren Form abgespeichert ist, aufweist und zur automatischen Durchführung der folgenden Schritte ausgestaltet ist: für jedes Bild der Abfolge (2) Ermittlung von dessen Betrachtungsrichtung und Betrachtungsposition relativ zum Konstruktionsmodell (3) unter Verwendung der, für jedes Bild der Abfolge Erzeugen einer Darstellung (25) des Gegenstandes, die den Gegenstand aus der Betrachtungsrichtung und der Betrachtungsposition des Bildes zeigt, und für jedes Bild der Abfolge Einfügen der erzeugten Darstellung (25) in das Bild dergestalt, dass die Betrachtungsrichtung und die Betrachtungsposition der Darstellung mit der Betrachtungsrichtung und der Betrachtungsposition des Bildes übereinstimmen.A computer program product that stores an information forwarding interface to a first data store having a physical object design model (3) and an information forwarding interface to a second data store, wherein a sequence (2) of images of the article is stored in a form processable by the computer program product for each image of the sequence (2) determining its viewing direction and viewing position relative to the design model (3) using, for each image of the sequence, a representation (25) of the article showing the object from the viewing direction and the viewing position of the image, and for each image of the sequence, inserting the generated image (25) into the image such that the viewing direction and the viewing position of the image Representation with the viewing direction and the viewing position of the image match.
15. Computerprogramm-Produkt nach Anspruch 14, dadurch gekennzeichnet, dass im zweiten Datenspeicher eine rechnerverfügbare15. Computer program product according to claim 14, characterized in that in the second data store a computer-accessible
Beschreibung der Betrachtungsrichtung und dieDescription of the viewing direction and the
Betrachtungsposition des ersten Bildes abgespeichert sind und das Computerprogramm-Produkt so ausgestaltet ist, dass es bei der Ermittlung der Betrachtungsrichtung undViewing position of the first image are stored and the computer program product is designed so that it in the determination of the viewing direction and
Betrachtungsposition eines Bildes der Abfolge die Betrachtungsrichtung und Betrachtungsposition mindestens eines vorherigen Bildes verwendet.Viewing position of an image of the sequence used the viewing direction and viewing position of at least one previous image.
16. Datenverarbeitungsanlage, die eine Informationsweiterleitungsschnittstelle zu einem ersten Datenspeicher mit einem Konstruktionsmodell (3) eines physikalischen Gegenstandes und eine Informationsweiterleitungsschnittstelle zu einem zweiten Datenspeicher, in dem eine Abfolge (2) von Bildern des Gegenstandes in einer vom Computerprogramm-Produkt verarbeitbaren Form abgespeichert ist, aufweist und zur automatischen Durchführung der folgenden Schritte ausgestaltet ist : für jedes Bild der Abfolge (2) Ermittlung von dessen Betrachtungsrichtung und Betrachtungsposition relativ zum Konstruktionsmodell (3) unter Verwendung der, für jedes Bild der Abfolge Erzeugen einer Darstellung (25) des Gegenstandes, die den Gegenstand aus der Betrachtungsrichtung und der Betrachtungsposition des Bildes zeigt, und für jedes Bild der Abfolge Einfügen der erzeugten Darstellung (25) in das Bild dergestalt, dass die Betrachtungsrichtung und die Betrachtungsposition der Darstellung mit der Betrachtungsrichtung und der Betrachtungsposition des Bildes übereinstimmen. 16. A data processing system having an information forwarding interface to a first data store having a physical object design model (3) and an information forwarding interface to a second data store storing a sequence (2) of images of the article in a form processable by the computer program product. and for automatically performing the following steps: for each image of the sequence (2) determining its viewing direction and viewing position relative to the design model (3) using, for each image of the sequence, a representation (25) of the article comprising shows the object from the viewing direction and the viewing position of the image, and for each image of the sequence, inserting the generated representation (25) into the image such that the viewing direction and the viewing position of the representation match the viewing direction and the viewing position of the image.
PCT/EP2006/001632 2005-03-05 2006-02-23 Method for comparing a real object with a digital pattern WO2006094637A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102005010225.5 2005-03-05
DE200510010225 DE102005010225A1 (en) 2005-03-05 2005-03-05 Method for comparing a real object with a digital model

Publications (1)

Publication Number Publication Date
WO2006094637A1 true WO2006094637A1 (en) 2006-09-14

Family

ID=36061363

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2006/001632 WO2006094637A1 (en) 2005-03-05 2006-02-23 Method for comparing a real object with a digital pattern

Country Status (2)

Country Link
DE (1) DE102005010225A1 (en)
WO (1) WO2006094637A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010047444A1 (en) * 2010-10-04 2012-04-05 Audi Ag Method for visualization of deviations between actual geometry and target geometry of component, particularly vehicle door panel, involves calculating actual-target comparison deviations of virtually stored target geometry

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007057887A1 (en) 2007-11-29 2009-06-04 Daimler Ag Multidimensional area e.g. factory building, and/or object e.g. pipes, representation displaying and changing method, involves adapting actual condition of area and/or object for comparison with reference condition
DE102010011297A1 (en) 2009-09-17 2010-10-21 Daimler Ag Method for displaying and modification of representation of multidimensional space or object in space, involves moving electronic unit in two degrees of freedom to detect actual position of space or object
DE102015104065A1 (en) * 2015-03-18 2016-09-22 Connaught Electronics Ltd. A method for determining a position of an object in a three-dimensional world coordinate system, computer program product, camera system and motor vehicle
CN109883349B (en) * 2019-01-24 2020-12-25 深圳市新杰斯锐电子科技有限公司 Transformer pin detection system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19502459A1 (en) * 1995-01-28 1996-08-01 Wolf Henning Three dimensional optical measurement of surface of objects
DE19646702A1 (en) * 1995-11-22 1997-05-28 Europ Gas Turbines Ltd Method for detecting production defects in an article
DE19925462C1 (en) * 1999-06-02 2001-02-15 Daimler Chrysler Ag Method and system for measuring and testing a 3D body during its manufacture has a measuring system with an optical 3D sensor, a data processor and a testing system storing 3D theoretical data records of a 3D body's surface.
DE10102943A1 (en) * 2001-01-23 2002-07-25 Volkswagen Ag Measurement system for determination of the geometrical data of an object uses cameras to record input data, which is locally evaluated to produce 2-D data, which is then transferred to a central server to produce 3-D data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19502459A1 (en) * 1995-01-28 1996-08-01 Wolf Henning Three dimensional optical measurement of surface of objects
DE19646702A1 (en) * 1995-11-22 1997-05-28 Europ Gas Turbines Ltd Method for detecting production defects in an article
DE19925462C1 (en) * 1999-06-02 2001-02-15 Daimler Chrysler Ag Method and system for measuring and testing a 3D body during its manufacture has a measuring system with an optical 3D sensor, a data processor and a testing system storing 3D theoretical data records of a 3D body's surface.
DE10102943A1 (en) * 2001-01-23 2002-07-25 Volkswagen Ag Measurement system for determination of the geometrical data of an object uses cameras to record input data, which is locally evaluated to produce 2-D data, which is then transferred to a central server to produce 3-D data

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
M. KOLESNIK ET AL.: "3D-Szenenrekonstruktion aus Bilddaten", 1998, pages 1 - 23, XP002381739, Retrieved from the Internet <URL:http://gonzo.uni-weimar.de/~hahne/optical/makro-report-VI-1.pdf> [retrieved on 20060519] *
M. RÖDER ET AL.: "3D-Digitalisierung im Werkzeug- und Formenbau", VDI-Z, vol. 145, no. 10, October 2003 (2003-10-01), pages 62 - 65, XP002381669 *
STYLIADIS ET AL., POSE DETERMINATION FROM A SINGLE IMAGE IN A CONTROLLED CAD ENVIRONMENT, vol. 11, February 2003 (2003-02-01), XP002381670, Retrieved from the Internet <URL:http://wscg.zcu.cz/wscg2003/Papers_2003/E11.pdf> [retrieved on 20060517] *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010047444A1 (en) * 2010-10-04 2012-04-05 Audi Ag Method for visualization of deviations between actual geometry and target geometry of component, particularly vehicle door panel, involves calculating actual-target comparison deviations of virtually stored target geometry
DE102010047444B4 (en) * 2010-10-04 2014-04-03 Audi Ag Method for visualizing dimensional deviations between an actual and a target geometry of a component

Also Published As

Publication number Publication date
DE102005010225A1 (en) 2006-09-07

Similar Documents

Publication Publication Date Title
DE69521739T2 (en) Image processing method and apparatus
DE69430182T2 (en) Image processing method and device for generating a target image from a source image with a change in perspective
DE69126611T2 (en) IMAGING DEVICE
DE69129427T2 (en) Pixel interpolation in perspective space
DE69818888T2 (en) Image processing apparatus and method
DE102005010250A1 (en) Sweet spot tracking method for e.g. multi-user-display, involves utilizing optical component in path of rays for inverse ray analysis, and detecting and considering defined angle of diffractive unit and viewing angle of display observer
DE19858306A1 (en) C arm calibration system for 2D to 3D X ray image reconstruction
DE102007048857A1 (en) Method for generating and / or updating textures of background object models, video surveillance system for carrying out the method and computer program
DE112012001984T5 (en) Integrate video metadata into 3D models
WO2003036566A2 (en) Method and device for producing light-microscopy, three-dimensional images
DE4211385A1 (en) DATA PROJECTION SYSTEM
DE19825302A1 (en) System for setting up a three-dimensional waste mat, which enables a simplified setting of spatial relationships between real and virtual scene elements
DE19906995A1 (en) Virtual and real image data combination method for virtual studio
DE102009007477A1 (en) Model construction of a production facility with scale models of manufacturing facilities and method for entering a spatial structure of manufacturing facilities in a computer-aided planning program
DE102012223047B4 (en) Multi-part correspondent (corresponder) for several cameras
DE69732465T2 (en) Image processing apparatus and method
WO2006094637A1 (en) Method for comparing a real object with a digital pattern
DE10297343T5 (en) Expandable tracking by line auto-calibration
DE10112732C2 (en) Method for determining the position of measurement images of an object relative to the object
DE102018218611A1 (en) Method and computing device for generating a three-dimensional CAD model
DE102018118422A1 (en) METHOD AND SYSTEM FOR PRESENTING DATA FROM A VIDEO CAMERA
EP2940624B1 (en) Three-dimensional virtual model of an environment for applications for determining positions
DE102007056835A1 (en) Image processing module for estimating an object position of a surveillance object, method for determining an object position of a surveillance object and computer program
DE19818991A1 (en) Method of locating objects in an observation volume or display region in computer graphics
DE102013106280A1 (en) Method for visualizing a CAD model

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

WWW Wipo information: withdrawn in national office

Country of ref document: RU

122 Ep: pct application non-entry in european phase

Ref document number: 06707192

Country of ref document: EP

Kind code of ref document: A1

WWW Wipo information: withdrawn in national office

Ref document number: 6707192

Country of ref document: EP