WO2008043550A1 - Verfahren zur texturierung virtueller dreidimensionaler objekte - Google Patents

Verfahren zur texturierung virtueller dreidimensionaler objekte Download PDF

Info

Publication number
WO2008043550A1
WO2008043550A1 PCT/EP2007/008825 EP2007008825W WO2008043550A1 WO 2008043550 A1 WO2008043550 A1 WO 2008043550A1 EP 2007008825 W EP2007008825 W EP 2007008825W WO 2008043550 A1 WO2008043550 A1 WO 2008043550A1
Authority
WO
WIPO (PCT)
Prior art keywords
raw texture
raw
library
texture
comparison
Prior art date
Application number
PCT/EP2007/008825
Other languages
English (en)
French (fr)
Inventor
Peter Lieckfeldt
Original Assignee
Gta Geoinformatik Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gta Geoinformatik Gmbh filed Critical Gta Geoinformatik Gmbh
Priority to US12/311,684 priority Critical patent/US8705843B2/en
Priority to CA2671661A priority patent/CA2671661C/en
Priority to AT07818896T priority patent/ATE459063T1/de
Priority to EP07818896A priority patent/EP2016561B1/de
Priority to DE502007002939T priority patent/DE502007002939D1/de
Publication of WO2008043550A1 publication Critical patent/WO2008043550A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Definitions

  • the invention relates to a method for texturing virtual three-dimensional objects, in particular virtual three-dimensional building objects and city models, according to the preamble of claim 1.
  • texture or texturing in a computer-generated graphic representation of a virtual three-dimensional object, the image that is displayed on the surface of the three-dimensional object is designated.
  • digital textured 3D modeling as part of a building or town planning scheme displays façade surfaces on the surface of objects that have a certain recognition of views of facades of real objects; real houses or other buildings.
  • a first method photorealistic texturing is carried out.
  • a photographic image of the surface of the real object is projected onto the surface of the virtual object.
  • methods for image processing are used.
  • due to the use of real image data many details of the real object are reproduced, so that the virtual three-dimensional object offers a high information content.
  • this method requires a high image quality of the photographic source material, which in some circumstances can not be guaranteed from the beginning and is not readily correctable for some photographic material.
  • texturing is also associated with a high manual processing effort, in which the textures of the virtual objects are checked individually for their correctness and the real photographic image data are adapted to the virtual object, in particular scaled and may need to be freed from interference. Due to the use of real image data, the generated virtual objects on a large volume of data, and even with a reduced representation of the object all image information of the original image material must be stored together with the virtual object.
  • a generic texturing can be used.
  • graphic elements are positioned in the sense of a schematic representation of the real object on the surface of the virtual object, so that the entire surface of the virtual model is artificially generated.
  • Such a representation reflects fewer details of the real object, the information content achieved in this case is much lower in comparison to the photo-realistic representation.
  • the advantage of such a method is the use of already prefabricated graphic elements on the modular principle, whereby a high degree of automation can be achieved.
  • the generated virtual objects are also much smaller in their data volume than the photorealistic textured 3D objects.
  • the three-dimensional model as detailed as possible with a minimum storage capacity to be played or edited but all too often shows the lack of a practical method in which for the 3D objects on the one hand secured a high level of detail and on the other hand, a small volume of data can be achieved.
  • the optimal rendering of a real object in the virtual model is just at some point between the photorealistic and generic representation, a virtual object does not have to reproduce all the details of the real object, but the purely generic representation of the object is too coarse and too low in detail.
  • texturing processes also often require a great deal of manual effort. Depending on the complexity of the object, texturing can be up to 60% of one Total expenditure of a project. For typical projects, where three-dimensional city models are generated on the computer, large amounts of the expenses must be provided manually at present, despite sometimes highly effective partial solutions. This may require thousands of hours of highly specialized technical personnel.
  • a further object is to make available the use of oblique views, which are obtained as aerial images, for large-scale projects by automated procedures and to combine the effective capture of real object surfaces and real textures with the fastest and most effective implementation in textures for virtual three-dimensional objects ,
  • the texturing method is intended to ensure that the characteristic features of the objects represented that are visible in the photorealistic representation are reproduced as extensively as possible or almost completely on the virtual object, even though the virtual object has an essentially generic surface.
  • the method should allow the image of the real Object can be transferred as individually as possible and with a maximum of automation in the generic representation.
  • the objects are achieved with a method for texturing virtual three-dimensional objects, in particular virtual three-dimensional building objects and city models with a photographic image of a real object, in particular a facade photo.
  • the method is characterized by the following method steps according to the invention:
  • a projection of the photographic image on the corresponding surface of the virtual three-dimensional object to create a raw texture.
  • a raw texture element is located by a classification process.
  • the localized raw texture element is described by a formal feature set, in particular a feature vector, computer-compatible.
  • the formal feature set of the raw texture element is compared with a respective feature set of predefined library elements, and similarity measures are determined between the raw texture element and one respective library element.
  • the localized raw texture element is now replaced by a library element that has a similarity measure in a defined size.
  • the raw texture is finally transformed into a generalized texture of the virtual object with a replacement of all raw texture element by a library element.
  • the method according to the invention is thus based on the idea, first as far as possible of all structure-forming elements on a photorealistic texture, ie. to capture the raw texture elements that significantly determine the look of the texture. These include, for example, the shape and color of the facade and the plaster, special decorative elements on the façade, windows and rows of windows, doors, balconies and the like Shapes and structures that are recognizable in a photorealistic image of the real object. This step thus forms the recognition and localization of the respective raw texture element.
  • This localization is linked to a classification process.
  • the properties of the raw texture element e.g. Color, shape, size, position and position are captured and stored in the photographic image.
  • the properties thus acquired form a formal feature set or a feature vector, with each of which a raw texture element is unambiguously and comparably designated, recorded and prepared for subsequent data processing.
  • This formal feature set is now compared to feature sets of predefined library elements. It can also be used to construct library elements.
  • the library elements are faceplates or picture elements from which a generalized texture can be composed.
  • the comparison between the formal feature set and the feature set of the library element now aims to determine a suitable library element with which the raw texture element can be replaced by the library element. For this purpose, a similarity measure between the formal feature set of the raw texture element and the feature set of the library element is determined.
  • the photographic image for creating the raw texture can come from different sources. Particularly advantageous is the use of a georeferenced terrestrial digital photos, in which the recording location and the direction of recording in the terrestrial coordinate system can be clearly determined. Such a photo is already digitized.
  • Another advantageous source for the projected photographic image is an aerial image, in particular a nadir or an oblique view.
  • image processing steps are performed for image enhancement to eliminate noise in the raw texture.
  • this can be a weakening and / or an elimination of disadvantageous shadow edges as well as a deburring and / or a sharpening. This avoids that artifacts that are exclusive of e.g. were formed by exposure conditions when taking the image data, are treated as raw texture elements in the further course of the process.
  • the classification method for locating the raw texture element includes position, shape, color, area, and / or edge detection according to predefined search parameters.
  • the localized raw texture element is selected at least with regard to its position in the raw texture, shape, color and / or edge structure and the like features.
  • Such a procedure means that, for example, doors or windows are recognized on a facade and distinguishable from other facade elements, such as stucco moldings or downpipes, by their rectangular shape distinguishable.
  • structures such as window crosses and skylights are additionally recognized.
  • the object thus recognized is identified, for example, as a window, in particular as a window with a skylight or a window cross.
  • Scalable features of the raw texture element in particular height and width and / or pixel numbers of the raw texture element, are appropriately rescaled to a normalized comparison size.
  • This comparison variable then forms part of the formal feature set of the raw texture element.
  • Such an approach reduces the library elements that may be necessary to replace a raw texture element.
  • the normalized comparison variable now offers the possibility to perform a very simple comparison between the raw texture element and the library element and to test the consistency of both elements in a straightforward way.
  • Scaling-independent features of the raw texture element form a predominantly absolute comparison quantity in the formal feature set of the raw texture element.
  • a color scale for different illuminated parts of the facades is possible, for example, to represent effects of light and shadow.
  • An example of this is a façade color, which does not change even if the size of the façade is scaled.
  • Such a feature can only assume an absolute value and therefore can only be compared absolutely.
  • the comparison of the formal feature set of the raw texture element and the feature set of a respective library element includes a comparison of the normalized comparison variables, wherein a similarity test is performed on an invariant under scale ratio between a first normalized comparison variable and a second normalized comparison variable.
  • Similarity transformation are transferred to the raw texture element and thus covers in its shape the image area of the raw texture element.
  • the comparison of the formal feature set of the raw texture element and the feature set of the library element further includes a comparison of the absolute comparison sizes. In this case, a test is carried out for the greatest possible match of the absolute comparison variables.
  • This test essentially determines the degree of correspondence between absolute quantities, for example color values. It is a direct comparison between properties of the raw texture element and the library element, wherein an adaptation of the next best available variant of the library element to the raw texture element is in principle possible by the corresponding absolute size of the library element is changed accordingly.
  • the similarity measure is predefined in an expedient embodiment. In this case, all library elements with a similarity measure lying within a tolerance range are output as possible substitutions for the raw texture element as selection options, sorted according to the size of the similarity.
  • Replacement of the raw texture element by the library element is accomplished by cutting out the point set of the raw texture element from the raw texture and inserting the point set of the library element into the raw texture.
  • a cut-and-paste method known as cut and copy is performed in which as many areas of the raw texture as possible are replaced by library elements in order to transfer the raw texture as completely as possible into the generalized texture.
  • This replacement operation expediently includes a manual post-processing. With this, any necessary corrections can be made.
  • unclassified sections are expediently inserted into the generalized texture as pixel groups, in particular bitmaps, in the raw texture.
  • These unclassified areas such as ornaments with a complicated shape, then form an image component that is subsequently inserted into the generalized texture.
  • At least partial tiling of the virtual object by a periodic sequence of a can at the transformation of the raw texture into the generalized texture
  • Raw text element adapted library element done.
  • library elements are essentially adapted only for one position of the raw texture, whereby these adapted elements are arranged in tiling and cover the virtual object.
  • FIG. 1 shows an exemplary terrestrial photo of a house facade in a black and white coding
  • FIG. 2 a for the house facade of FIG. 1 created virtual three-dimensional object in a the photo of FIG. 1 corresponding view
  • Fig. 6 shows an exemplary tree structure for some library elements
  • FIG. 8 Replacements of unclassified raw texture structures on the example of stucco elements of a door arch
  • Fig. 1 shows a facade image 1
  • FIG. 2 shows the associated surface of the virtual three-dimensional object 2 created for it in a perspective corresponding to the image in FIG.
  • the facade image shown here in Fig. 1 has been created in the form of a terrestrial digital photo.
  • the terrestrial image is georeferenced. That is, the location of the photographic arrangement in the coordinate system of the earth and its orientation with respect to the coordinate axes are clearly known at the location of the photograph.
  • the virtual three-dimensional object shown in Fig. 2 is one of the real object, i. the facade or the house belonging to it, abstracted contour, the limitations of which reproduce the body boundaries of the real object on a smaller scale with sufficient accuracy.
  • the virtual contour must be so precise that the detected facade image is to be inserted on the corresponding side surface of the virtual object accurately and distortion-free.
  • Fig. 3 shows basic method steps of the method according to the invention.
  • the facade image 1 is applied in a method step a on the virtual three-dimensional object on a designated surface as a texture.
  • This texture is referred to below as the raw texture.
  • software modules can be used, which are usually used to create photorealistic textures.
  • the creation of the raw texture is thus essentially fully automatic.
  • image processing for an improvement of the image quality and in preparation of the structure recognition are executed on the set of pixels of the facade image, if necessary. This applies above all to shadows and the resulting disruptive edge structures on the image data. For this purpose, especially a deburring or sharpening of edges can be made.
  • a conversion of an originally colored facade image into a façade image in the form of a copy in grayscale or black and white mode is characterized by very striking black, intersected by light lines surfaces in front of a lighter facade background.
  • window and window crosses are characterized by very striking black, intersected by light lines surfaces in front of a lighter facade background.
  • facade designs with different colors are to be determined in their structure.
  • the stripe-shaped clinker elements are very well identified by the conversion of the image to the black-and-white mode.
  • the classification procedure is applied to the thus prepared raw texture in a step b.
  • special raw texture elements for example window structures or other Facade elements such as balconies, doors, stucco, etc. located on the raw texture and compared to other with pre-stored library elements 4.
  • the raw texture elements are formed as windows having a characteristic rectangular shape with a certain relationship between height and width and typical shapes of window crosses, which also show a typical color or contrast effect.
  • library elements 4 pixels are available, with which the captured raw texture elements are compared in their features.
  • the localization of the raw texture element, its description and its comparison with the library elements forms the method step of the classification. Their conclusion is the selection of a library element that reproduces the properties of the raw texture element with a particularly close similarity. A detailed description of the classification will be given later in the description.
  • the entire raw texture is converted into a generalized texture 5 in a final step c.
  • all classified raw texture elements i. Windows and other structures on the façade, replaced by library elements and the generic texture assembled like a box.
  • all the windows from the raw texture and the clinker structures extending over the facade in vertical stripes are replaced by the corresponding library elements.
  • the exemplary facade image has two different dormer windows 31 and 32.
  • the dormer window 31 consists in this example of two closely spaced individual windows.
  • the dormer window 32 forms a single window with a T-shaped window cross. Both the window 31 and the window 32 stand out clearly from the background by their white frames.
  • the windows 33, 34 and 35 form in this example substantially black, interrupted by a white T-shaped window cross shapes that stand out clearly from here essentially white façade background.
  • the window 36 substantially corresponds in shape to the windows 33 to 35, but is influenced in shape by an object located behind the discs, which interferes with the black disc surfaces and makes them appear inhomogeneous. This effect occurs more clearly in a further window 36, in which a curtain impairs the black pane structure and makes the shape of the window cross almost unrecognizable.
  • stucco elements 37, 38 and 39 are added, which can be considered as further raw texture elements and whose contour is more indistinguishable from the façade background.
  • the raw texture elements 31 and 32 and 33 to 35 can be localized by shape recognition on the black and white coded image.
  • the pixels of the raw texture are evaluated, whereby the areas of the black lifting discs in front of the white surroundings and the shape of the window crosses are read out by a software.
  • the rectangular shape of the black window contours and their regular arrangement with each other are registered.
  • the white window crosses form in this image recognition white sets of stripe-shaped pixels in a well-defined width and length, which are inserted between the rectangular black areas of the windowpanes.
  • the pixel set of white stripes and black areas is then recognized and read out together with its position in the image as a raw texture element.
  • Inhomogeneities such as window structure 36
  • image manipulation which precedes localization of the raw texture elements.
  • several image processing is possible for this purpose.
  • inhomogeneities can be eliminated by color coding the facade image in an appropriate manner.
  • Regular structures such as window frames and window crosses, stand out due to their uniform coloring and can then be better identified for structure recognition.
  • the black and white coding shown in the figure proves to be particularly useful if regular structures are to be located on a light facade.
  • the correspondingly recoded image is then used as a copy for structure recognition.
  • the stucco elements 37 to 39 are characterized by more irregular or complicated structures, which, however, differ significantly from the otherwise unstructured and white facade. Such areas can either be read out as areas with a certain average gray value, or a cut-out of these image areas can take place in the form of a bitmap. Corresponding method steps will be explained in more detail later.
  • FIG. 5 shows the classification method by way of example on a window cross.
  • the figure shows on the left a raw texture element determined by the image recognition.
  • the amount of pixels determined in the image recognition must be compared with a library element 4.
  • a structure, a size and a color balance are performed for this purpose.
  • feature sets between the raw texture element and the library element are compared.
  • the size of the raw texture element plays an essential role in its feature amount. Of importance in this case, however, is not primarily the absolute size of the raw texture element, because this changes with each scaling process and therefore can not be compared with an absolute size of a library element. Rather, the size comparison between raw texture element and library element checks whether the dimensions obey the geometric laws for similarity transformations.
  • FIG. 5 shows a raw texture element 3 having a width b and a height In 1 .
  • the raw texture element has a window cross whose transverse bar is at a height h 2 , while the vertical bar of the window cross divides the width of the raw texture element into a base point ratio bi / b 2 .
  • a raw texture element and any library element will match in their shapes if the size ratios of any links in the raw texture element or in the library element match. Under this condition, a library element can be scaled by similarity transformations to the shape of the raw texture element.
  • color information of individual image areas of the raw texture element is read from the image data of the raw texture.
  • the colors fi and f 2 of the window surfaces or of the window cross or the color f 3 of the window frame are the colors fi and f 2 of the window surfaces or of the window cross or the color f 3 of the window frame.
  • the values of the feature vector m remain unchanged even when the raw texture element is scaled.
  • the ratios V 1 to V 3 and f x to f 3 remain constant, although the dimensions of the now smaller raw texture element have assumed different values.
  • a library element 4 is shown in comparison to which a comparable feature vector is assigned from the outset in analogy to the parameters defined in relation to the raw texture element.
  • the feature vector m of the raw texture element is compared component by component with the feature vector of the library element. A similarity measure between both vectors is determined.
  • the tolerances for the deviations of the individual values during the comparison can be predetermined and fundamentally changed as desired.
  • the tolerance ranges for the deviations of the ratios V n and V n in both vectors are selected to be narrower and the deviation tolerances for the deviations of the color values greater.
  • a correct reproduction of the size or the size ratios of the raw texture element by the library element is therefore more important than a correct color rendering.
  • such preferences may be chosen differently as required.
  • the color values f n and F n it is possible to use the usual color systems for image processing programs, in particular the RGB or CMYK system, be resorted to.
  • three library elements are provided as choices, each containing color values F la , F 2a , F 3a ; F lb , F lb , F 3b and F lc , F 2c , F 3c .
  • the finally selected library element corresponds to the library element with the colors F lb / F 2b , F 3b .
  • the raw texture element is thus classified both in its size and in its color.
  • the library elements are arranged in this embodiment mainly by functional criteria. There are z. B. library elements for windows, doors, facade surfaces, etc. included. In principle, it is also possible to sort library elements according to other, in particular purely graphical criteria. In this case, the tree would contain a branch for rectangular, circular, elliptical and the like other library elements, regardless of their functional references. Such an alternative tree structure would be more advantageous in that the raw texture elements are predominantly localized via the image via image processing.
  • a user can specify in advance that raw texture elements which are detected within a specific predetermined image section in the raw texture are treated exclusively as a window or exclusively as a door or the like element. This can be done in some ways a faster classification of the raw texture elements, for example, because a raw texture element with a T-shaped image structure that is not in the vicinity of the lower edge of the image, refers to a window. In this case, a search algorithm would find the appropriate library item do not scan all rectangular shapes, but switch to the "Window" directory from the beginning.
  • a directory A 1 is provided for high rectangular windows, a directory A 2 for wide rectangular windows and a directory A 3 for round or differently shaped windows.
  • the directory A 2 also contains further subgroups A 2 i and A 22 , which are related to different pitches of the window area.
  • the directory Ai contains a sub-group An for windows with a skylight, a sub-group Ai 2 for two-part windows with a skylight and a sub-group Ai 3 for two-part windows with a two-part skylight.
  • the library elements of the respective subgroup are linked to feature vectors, which are distinguished by different parameter sets.
  • the feature vectors of the subgroup Au do not contain a parameter for the above-mentioned base point ratio, since there is no window cross.
  • the mathematical shape of the feature vector, d. H. the number of provided parameters and components thus represents the graphical construction of the library element.
  • the database of the library elements expediently contains data vectors and data fields which are dimensioned in accordance with the feature vectors, but essentially no graphics or images of the library elements themselves. Graphically, the library elements are only then replaced by corresponding ones Program routines are generated when the corresponding sections of the generalized texture are created.
  • the scope of the database can thus be kept very compact, the determination of the structure of the feature vectors and some boundary conditions also allows, for. B. to represent the mentioned directories of the type Ai and A 2 by a single shape of the feature vector, wherein the components of this feature vector corresponding to the library elements contained in the directories or are assigned corresponding values.
  • the directory T comprises library elements for doors.
  • doors are all raw texture elements that are located in the area of a lower edge of the image or a lower edge of the three-dimensional virtual object or the raw texture.
  • Exemplary subdirectories are formed by a directory for single doors Ti and a directory for double doors T 2 .
  • a directory for facade surfaces is provided.
  • This directory essentially contains fill patterns or fill images of different colors and textures dimensioned according to a pattern recognition performed on the raw texture. So is For example, a directory P 1 for rough plaster and a directory P 2 provided for a clinker facade.
  • the library elements stored in these directories are essentially bitmaps or other graphics files in which patterns are stored via defined brightness and color values, which are compared with given structures in the raw texture.
  • the region P contains a simple color palette with different color values, which are compared with colors on the raw texture.
  • a color area of a library element A "window” can be filled with a color or a pattern from the sub-directory P "pattern”.
  • a first routine determines the shape and type of the library element "window”
  • a second routine determines and classifies the exact color or pattern structures from the raw texture
  • Subdirectories and areas in the tree diagram of Fig. 6 may be associated with different classification routines.
  • Another area of the library elements is formed by simple ornamental elements for facades, for example ledges, keystones, simple stucco elements and the like. Their assignment to corresponding raw texture elements essentially takes place via a combination of shape recognition and scaling, as has already been described in the example according to FIG. 5.
  • FIG. 7 shows some exemplary substitutions of raw texture elements by library elements using the example of windows with façade ornaments.
  • the examples of FIG. 7 are intended to illustrate in particular how the resulting generalized texture 5 is assembled in a modular manner.
  • the figure shows the raw textures on the left and the generalized texture on the right.
  • Example a) shows a window with a triangular stucco element 40a, an underlying rectangular section 41a and a lintel 42a.
  • columnar flanks 43a are present.
  • the window surface 44a consists of a window cross with split skylight.
  • the stucco element 40a in the generalized texture 5 is replaced by a triangle 40b which is partially filled with a darker color to make the shade structure of the stucco element 40a look like.
  • the section 41a is replaced by a rectangle 41b, which is framed on the left and right by darker sections.
  • the lintel 42a and the flanks 43b are also modeled as rectangles.
  • a corresponding library element is used in accordance with the previous description.
  • the elements 40b, 41b, 42b, 43b and 44b now form the generalized texture 5 of the relevant raw texture element, ie. of the window shown on the left.
  • the raw texture element has flanges 43a that are simpler in design, and a window surface 44a that has only one crossbar.
  • a decorative element 45a is to be found, which shows a relatively complicated image motif, in this example a lion's head.
  • This lion's head represents an unclassifiable element. This means that either its structure can not be detected by an image recognition, or that no library element exists for its structure.
  • the image area of the lion's head is transferred as a bitmap 45b in the generalized texture shown on the right. Together with the library elements 43b and 44b, the bitmap 45b forms the corresponding generalized texture in example b) Fig. 7 from.
  • This generalized texture forms a mixture of a section of the raw texture element and majority substitutions by individual library elements. As a result, the raw texture element can be transferred into the generalized texture with sufficient accuracy, while retaining the feature of the lion's head.
  • Example c) shows a raw texture element in the form of a window with an unadorned frame and a wedge-shaped cap stone 47a in conjunction with a clinker facade 46a.
  • the keystone in the generalized texture on the right forms a library element 47b in the shape of a trapezoid.
  • the clinker facade was classified in a pattern recognition and is here replaced by a library element 46b with a corresponding filling structure "wall".
  • a visualization library is valid for one or more projects.
  • Fig. Figure 8 shows a final example of a treatment of unclassifiable structures in the raw texture.
  • a door arch is shown comprising a lion's head in the form of a first raw texture 48a, various ornaments 49a and 50a.
  • the comparison with the generalized texture 5 shows that in this example the raw textures 48a and 49a have been transferred as bitmaps into the generalized texture.
  • the raw texture 50a has been provided with a uniform color fill as the image section and now forms a component 50b of the generalized texture.
  • Such a treatment of unclassifiable raw texture structures is particularly suitable when extended areas with memory-intensive pixel structures are not classifiable and therefore the transfer of these structures as bitmaps would lead to disproportionately complicated generalized textures.
  • a medium color or Brightness value of the area concerned determined and used as a fill for the intended area of the generalized texture.
  • the method can be considerably simplified by tiling the virtual object. This is always the case when highly periodic façade structures are to be reproduced, as is the case in particular with prefabricated buildings and tenements.
  • a tile structure is created from repetitive library elements that covers the entire surface of the textured object.
  • V 1 raw texture element ratio width / height
  • V 2 raw texture element ratio of crossbar height / total height
  • V 1 library element ratio width / height
  • V 2 library element ratio of crossbar height / total height
  • a n window, two-part, two-part skylight A 2 directory wide rectangle windows A 3 directory round windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Texturierung virtueller dreidimensionaler Objekte, insbesondere virtueller dreidimensionaler Gebäudeobjekte und Stadtmodelle mit einem fotografischen Abbild ( 1) eines realen Objektes, insbesondere eines Fassadenfotos. Das Verfahren zeichnet sich durch folgende Verfahrensschritte aus: Projektion des fotografischen Abbildes (1) auf eine virtuelle Fläche (2) des virtuellen dreidimensionalen Objektes für ein Erstellen einer Rohtextur, Lokalisieren eines Rohtexturelementes (3) in der Rohtextur durch Anwendung eines Klassifikationsverfahrens, Computergerechte Beschreibung des lokalisierten Rohtexturelementes durch eine formale Merkmalsmenge für das Rohtexturelement, insbesondere einen Merkmalsvektor, Vergleich der formalen Merkmalsmenge des Rohtexturelementes mit je einer Merkmalsmenge vorgegebener Bibliothekselemente (4) und Ermitteln von Ähnlichkeitsmaßen zwischen dem Rohtexturelement und jeweils einem Bibliothekselement, Ersetzen des lokalisierten Rohtexturelementes durch mindestens ein Bibliothekselement bei Vorliegen eines vordefinierten Ähnlichkeitsmaßes und Umformung der Rohtextur in eine generalisierte Textur (5) des virtuellen Objektes mit einem Ersetzen sämtlicher Rohtexturelemente durch Bibliothekselemente.

Description

Verfahren zur Texturierung virtueller dreidimensionaler Objekte
Beschreibung
Die Erfindung betrifft ein Verfahren zur Texturierung virtueller dreidimensionaler Objekte, insbesondere virtueller dreidimensionaler Gebäudeobjekte und Stadtmodelle, nach dem Oberbegriff des Anspruchs 1.
Als Textur bzw. Texturierung wird bei einer mittels Computer erzeugten grafischen Darstellung eines virtuellen dreidimensionalen Objektes die Abbildung bezeichnet, die auf der Oberfläche des dreidimensionalen Objektes angezeigt wird. Bei einer digitalen texturierten 3D-Modellierung im Rahmen einer Gebäude- oder Stadtplanung werden zum Beispiel Fassadenflächen auf der Oberfläche der Objekte angezeigt, die mit einem gewissen Wiedererkennungswert Ansichten von Fassaden realer Objekte, d.h . realer Häuser oder sonstiger Gebäude, wiedergeben .
Für derartige Texturierungen sind derzeit zwei Verfahren üblich. Bei einem ersten Verfahren wird eine fotorealistische Texturierung ausgeführt. Dabei wird ein fotografisches Abbild der Oberfläche des realen Objektes auf die Oberfläche des virtuellen Objektes projiziert. Dabei wird in der Regel auf Verfahren zur Bildaufbereitung zurückgegriffen . Bei einem derartigen Verfahren werden, bedingt durch die Verwendung realer Bilddaten, viele Details des realen Objektes wiedergegeben, so dass das virtuelle dreidimensionale Objekt einen hohen Informationsgehalt bietet.
Allerdings ist bei diesem Verfahren eine hohe Bildqualität des fotografischen Quellenmaterials erforderlich, die unter gewissen Umständen nicht von Beginn an gewährleistet werden kann und bei gewissem Bildmaterial nicht ohne weiteres nach zu korrigieren ist. Im Allgemeinen ist eine derartige Texturierung außerdem mit einem hohen manuellen Bearbeitungsaufwand verbunden, bei der die Texturen der virtuellen Objekte einzeln auf ihre Korrektheit überprüft werden und die realen fotografischen Bilddaten auf das virtuelle Objekt angepasst, insbesondere skaliert und gegebenenfalls von Störungen befreit werden müssen. Bedingt durch die Verwendung realer Bilddaten weisen die erzeugten virtuellen Objekte ein großes Datenvolumen auf, wobei auch bei einer verkleinerten Darstellung des Objektes sämtliche Bildinformationen des originalen Bildmaterials zusammen mit dem virtuellen Objekt gespeichert werden müssen.
Alternativ dazu kann auch eine generische Texturierung zur Anwendung kommen. Dabei werden grafische Elemente im Sinne einer Prinzipdarstellung des realen Objektes auf der Oberfläche des virtuellen Objektes positioniert, so dass die gesamte Oberfläche des virtuellen Modells künstlich erzeugt wird. Eine derartige Darstellung gibt weniger Details des realen Objektes wieder, der dabei erreichte Informationsgehalt ist im Vergleich zur fotorealistischen Darstellung weitaus geringer. Vorteilhaft ist bei einem derartigen Verfahren jedoch die Verwendung bereits vorgefertigter grafischer Elemente nach dem Baukastenprinzip, wodurch ein hohe Grad der Automatisierung erreicht werden kann. Die generierten virtuellen Objekte sind außerdem in ihrem Datenvolumen weitaus kleiner als die fotorealistisch texturierten 3D-Objekte.
Bei der praktischen Verwendung virtueller 3D-Objekte, bei der einerseits das dreidimensionale Modell so detailreich wie möglich bei einer möglichst geringen Speicherkapazität wiedergegeben bzw. bearbeitet werden soll, zeigt sich jedoch allzu oft das Fehlen eines praktikablen Verfahrens, bei dem für die 3D-Objekte einerseits ein hoher Detailreichtum gesichert und andererseits ein geringes Datenvolumen erreicht werden kann. Oftmals liegt die optimale Wiedergabe eines realen Objektes im virtuellen Modell gerade an irgendeinem Punkt zwischen der fotorealistischen und generischen Darstellung, ein virtuelles Objekt muss nicht alle Einzelheiten des realen Objektes wieder geben, aber die rein generische Darstellung des Objektes ist zu grob und zu detailarm .
Beide Verfahren zur Texturierung erfordern außerdem einen oftmals sehr beträchtlichen manuellen Aufwand. Je nach der vorliegenden Objektkomplexität kann die Texturierung bis zu 60% eines Gesamtaufwandes eines Projektes ausmachen . Für typische Projekte, bei denen dreidimensionale Stadtmodelle am Computer erzeugt werden, müssen gegenwärtig trotz mitunter hocheffektiver Teillösungen große Anteile der Aufwendungen manuell erbracht werden . Dafür sind unter Umständen tausende von Arbeitsstunden von hochspezialisiertem technischen Personal notwendig.
Es besteht somit die Aufgabe, ein Verfahren anzugeben, mit dem der zeitliche Aufwand für die Texturierung durch eine weitgehende Automatisierung beträchtlich reduziert werden kann und sich dadurch die Kosteneffizienz und letztendlich die Wettbewerbsfähigkeit entscheidend verbessern lässt. Konkret soll der Operator von der zeitraubenden und anstrengenden Tätigkeit entlastet werden, die das Umsetzen der Objektansichten in die Textur der dreidimensionalen Objekte mit sich bringt.
Es besteht weiterhin die Aufgabe, eine Verwendung von Schrägsichtaufnahmen, die als Luftbildern gewonnen werden, für Großprojekte durch automatisierte Verfahrensabläufe verfügbar zu machen und die effektive Erfassung von realen Objektoberflächen und realen Texturen mit einer möglichst schnellen und effektiven Umsetzung in Texturen für virtuelle dreidimensionale Objekte zu kombinieren.
Es besteht schließlich die Aufgabe, ein Verfahren zur Texturierung virtueller dreidimensionaler Objekte anzugeben, bei der die Textur des virtuellen Objektes hinreichend genau der fotorealistischen Darstellung entspricht, wobei aber der Speicherumfang des virtuellen Objektes maximal reduziert wird und in etwa der generischen Texturierung entspricht. Das Texturierungsverfahren soll insbesondere gewährleisten, dass die in der fotorealistischen Darstellung sichtbaren charakteristischen Eigenheiten der dargestellten Objekte möglichst umfänglich oder nahezu vollständig am virtuellen Objekt reproduziert werden, obwohl das virtuelle Objekt eine im wesentlichen generische Oberfläche aufweist. Das Verfahren soll insbesondere ermöglichen, dass das Bild des realen Objektes möglichst individuell und mit einem Maximum an Automatisierung in die generische Darstellung überführt werden kann.
Die Aufgaben werden mit einem Verfahren zur Texturierung virtueller dreidimensionaler Objekte, insbesondere virtueller dreidimensionaler Gebäudeobjekte und Stadtmodelle mit einem fotografischen Abbild eines realen Objektes, insbesondere eines Fassadenfotos, gelöst. Das Verfahren zeichnet sich durch folgende erfindungsgemäße Verfahrensschritte aus:
Es erfolgt in einem ersten Schritt eine Projektion des fotografischen Abbildes auf die entsprechende Fläche des virtuellen dreidimensionalen Objektes zum Erstellen einer Rohtextur.
Innerhalb der Rohtextur wird durch ein Klassifikationsverfahren ein Rohtexturelement lokalisiert. Das lokalisierte Rohtexturelement wird durch eine formale Merkmalsmenge, insbesondere einen Merkmalsvektor, computergerecht beschrieben.
Die formale Merkmalsmenge des Rohtexturelements wird mit je einer Merkmalsmenge vorgegebener Bibliothekselemente verglichen und es werden Ähnlichkeitsmaße zwischen dem Rohtexturelement und jeweils einem Bibliothekselement ermittelt.
Das lokalisierte Rohtexturelement wird nun durch ein Bibliothekselement ersetzt, das ein Ähnlichkeitsmaß in einer definierten Größe aufweist. In Verbindung damit wird schließlich die Rohtextur in eine generalisierte Textur des virtuellen Objektes mit einem Ersetzen sämtlicher Rohtexturelement durch Bibliothekselement umgeformt.
Dem erfindungsgemäßen Verfahren liegt somit der Gedanke zugrunde, zunächst möglichst alle strukturbildenden Elemente auf einer fotorealistischen Textur, d.h . die Rohtexturelemente, zu erfassen, die das Aussehen der Textur wesentlich festlegen . Dazu zählen beispielsweise Form und Farbe der Fassade und des Putzes, besondere Zierlemente auf der Fassade, Fenster und Fensterreihen, Türen, Balkone und dergleiche Formen und Strukturen, die in einem fotorealistischen Abbild des realen Objektes erkennbar sind. Dieser Schritt bildet somit die Erkennung und Lokalisierung des jeweiligen Rohtexturelementes.
Dieses Lokalisieren wird mit einem Klassifikationsverfahren verbunden. Dabei werden die Eigenschaften des Rohtexturelementes, z.B. Farbe, Form, Größe, Lage und Position im fotografischen Abbild erfasst und gespeichert.
Die so erfassten Eigenschaften bilden eine formale Merkmalsmenge bzw. einen Merkmalsvektor, mit der jeweils ein Rohtexturelement eindeutig und vergleichbar bezeichnet, erfasst und für eine nachfolgende Datenverarbeitung aufbereitet ist.
Diese formale Merkmalsmenge wird nun mit Merkmalsmengen von vorgegebenen Bibliothekselementen verglichen . Sie kann auch zur Konstruktion von Bibliothekselementen genutzt werden .
Bei den Bibliothekselementen handelt es sich um Bildbausteine bzw. Bildelemente, aus denen sich eine generalisierte Textur zusammensetzen lässt. Der Vergleich zwischen formaler Merkmalsmenge und der Merkmalsmenge des Bibliothekselementes zielt nun darauf ab, ein passendes Bibliothekselement zu ermitteln, mit dem sich das Rohtexturelement durch das Bibliothekselement ersetzen lässt. Hierzu wird ein Ähnlichkeitsmaß zwischen der formalen Merkmalsmenge des Rohtexturelementes und der Merkmalsmenge des Bibliothekselementes ermittelt.
Sofern das Ähnlichkeitsmaß einer vorgegebenen Größe, z. B. einem Maximum, einem Schwellwert oder einem definierten Toleranzbereich, entspricht, wird nun das Rohtexturelement durch das jeweilige Bibliothekselement ersetzt. Am Ort des vormaligen Rohtexturelementes erscheint nun das Bibliothekselement in der Textur. Durch ein Ersetzen weiterer Rohtexturelemente durch entsprechende Bibliothekselemente wird somit aus der gesamten ursprünglichen Rohtextur eine generalisierte Textur erzeugt. Diese wird also ausgehend von den identifizierten Einzelheiten der Rohtextur aufgebaut. Durch den Abgleich zwischen Rohtexturelement und Bibliothekselement zeigt sie eine größtmögliche Ähnlichkeit mit der Rohtextur mit einer großen und definierten Detailtiefe. Sie weist aber durch die generische Grundstruktur einen minimalen Datenumfang auf. Die Erfassung der Rohtexturelemente, deren Merkmalsklassifizierung und der Abgleich deren Merkmale mit den Merkmalen der Bibliothekselemente ist formalisiert und automatisiert, das Einfügen der Bibliothekselemente erfolgt durch Bildbearbeitungsschritte, die ebenfalls automatisiert sind. Die Erzeugung der generalisierten Textur erfolgt somit weitgehend selbsttätig.
Das fotografische Abbild zum Erzeugen der Rohtextur kann aus verschiedenen Quellen stammen. Besonders vorteilhaft ist die Verwendung eines georeferenzierten terrestrischen Digitalfotos, bei dem der Aufnahmestandort und die Richtung der Aufnahme im terrestrischen Koordinatensystem eindeutig feststellbar sind . Ein derartiges Foto liegt auch bereits digitalisiert vor.
Eine andere vorteilhafte Quelle für das projizierte fotografische Abbild ist ein Luftbild, insbesondere eine Nadir- oder eine Schrägsichtaufnahme.
Zweckmäßigerweise werden Bildbearbeitungsschritte für eine Bildverbesserung zur Beseitigung von Störungen in der Rohtextur ausgeführt. Dies können insbesondere eine Abschwächung und/oder eine Eliminierung nachteiliger Schattenkanten sowie ein Deblurring und/oder ein Schärfen sein . Dadurch wird vermieden, dass Artefakte, die ausschließlich z.B. durch Belichtungsverhältnisse bei der Aufnahme der Bilddaten entstanden sind, beim weiteren Verlauf des Verfahrens als Rohtexturelemente behandelt werden .
Das Klassifikationsverfahren zum Lokalisieren des Rohtexturelementes schließt eine Positions-, Form-, Färb-, Flächen- und/oder Kantenerkennung gemäß vorab definierter Suchparameter ein. Dabei wird das lokalisierte Rohtexturelement mindestens hinsichtlich seiner Position in der Rohtextur, Form, Farbe und/oder Kantenstruktur und dergleichen Merkmalen ausselektiert.
Eine derartige Vorgehensweise führt dazu, dass beispielsweise Türen oder Fenster an einer Fassade erkannt und von anderen Fassadenelementen, wie beispielsweise Stuckleisten oder Fallrohren, durch ihre rechteckige Form unterscheidbar erkannt werden. Darüber hinaus werden Strukturen wie Fensterkreuze und Oberlichter zusätzlich erkannt. Das so erkannte Objekt wird beispielsweise als Fenster, insbesondere als Fenster mit einem Oberlicht bzw. einem Fensterkreuz identifiziert.
Skalierungsfähige Merkmale des Rohtexturelementes, insbesondere Höhe und Breite und/oder Bildpunktanzahlen des Rohtexturelementes, werden zweckmäßigerweise auf eine normierte Vergleichsgröße umskaliert. Diese Vergleichsgröße bildet dann einen Bestandteil der formalen Merkmalsmenge des Rohtexturelementes. Eine derartige Vorgehensweise reduziert die zum Austausch eines Rohtexturelementes möglicherweise notwendigen Bibliothekselemente. So ist es insbesondere möglich, für eine Reihe von Fenstern mit einem auch unter Umskalierungen festen Verhältnis von Höhe und Breite im wesentlichen nur ein Bibliothekselement vorsehen zu müssen. Die normierte Vergleichsgröße bietet nun die Möglichkeit, einen sehr einfachen Abgleich zwischen Rohtexturelement und Bibliothekselement auszuführen und die Übereinstimmung beider Elemente auf unkomplizierte Weise zu testen.
Skalierungsunabhängige Merkmale des Rohtexturelementes, insbesondere Farbwerte, bilden eine überwiegend absolute Vergleichsgröße in der formalen Merkmalsmenge des Rohtexturelementes. Eine Farbskalierung für unterschiedlich beleuchtete Teile der Fassaden ist jedoch möglich, um z.B. Effekte von Licht und Schatten darzustellen. Ein Beispiel dafür ist ein Fassadenfarbton, der auch dann keine Veränderung erfährt, wenn die Größe der Fassade skaliert wird. Ein derartiges Merkmal kann nur einen absoluten Wert annehmen und daher auch nur absolut verglichen werden. Der Vergleich der formalen Merkmalsmenge des Rohtexturelementes und der Merkmalsmenge jeweils eines Bibliothekselementes schließt einen Vergleich der normierten Vergleichsgrößen ein, wobei ein Ähnlichkeitstest auf ein unter der Skalierung invariantes Verhältnis zwischen einer ersten normierten Vergleichsgröße und einer zweiten normierten Vergleichsgröße ausgeführt wird.
Bei diesem Test wird von der Tatsache ausgegangen, dass Größenverhältnisse unter Ähnlichkeitsabbildungen invariant bleiben . Ein Rohtexturelement und ein Bibliothekselement sind demnach dann ähnlich, wenn dieser Test zu einem positiven Ergebnis führt. Das Bibliothekselement kann in diesem Fall durch eine
Ähnlichkeitstransformation in das Rohtexturelement überführt werden und überdeckt somit in seiner Form den Bildbereich des Rohtexturelement.
Der Vergleich der formalen Merkmalsmenge des Rohtexturelementes und der Merkmalsmenge des Bibliothekselementes schließt weiterhin einen Vergleich der absoluten Vergleichsgrößen ein . Dabei wird ein Test auf eine größtmögliche Übereinstimmung der absoluten Vergleichsgrößen ausgeführt.
Dieser Test stellt im wesentlichen den Grad der Übereinstimmung zwischen absoluten Größen, zum Beispiel Farbwerten, fest. Er ist ein direkter Abgleich zwischen Eigenschaften des Rohtexturelementes und des Bibliothekselementes, wobei eine Anpassung der nächst besten verfügbaren Variante des Bibliothekselementes an das Rohtexturelement prinzipiell dadurch möglich ist, indem die entsprechende absolute Größe des Bibliothekselementes entsprechend verändert wird .
Bei der Ermittlung des Ähnlichkeitsmaßes zwischen der formalen Merkmalsmenge des Rohtexturelementes und der Merkmalsmenge des Bibliothekselementes wird ein Übereinstimmungsgrad der absoluten Vergleichsgrößen und/oder eine Konstanz der invarianten Verhältnisse ausgeführt. Das größte Ähnlichkeitsmaß zwischen Rohtexturelement und Bibliothekselement besteht dann, wenn sowohl die absoluten Vergleichsgrößen in einem beliebig engen Toleranzbereich hinreichend gut übereinstimmen und die Verhältnisse zwischen den normierten Vergleichsgrößen möglichst konstant sind .
Das Ähnlichkeitsmaß wird bei einer zweckmäßigen Ausführungsform vorab definiert. Dabei werden alle Bibliothekselemente mit einem innerhalb eines Toleranzbereiches liegenden Ähnlichkeitsmaß als mögliche Ersetzungen für das Rohtexturelement als Auswahloptionen ausgegeben, sortiert nach Größe der Ähnlichkeit.
Das Ersetzen des Rohtexturelementes durch das Bibliothekselement wird durch ein Ausschneiden der Punktmenge des Rohtexturelementes aus der Rohtextur und ein Einsetzen der Punktmenge des Bibliothekselementes in die Rohtextur ausgeführt. Grundsätzlich wird demnach ein als Cut und Copy bekanntes Ausschneiden-Einfügen-Verfahren ausgeführt, bei der so viele Areale der Rohtextur wie möglich durch Bibliothekselemente ersetzt werden um die Rohtextur möglichst vollständig in die generalisierte Textur zu überführen.
Dieser Ersetzungsvorgang schließt zweckmäßigerweise eine manuelle Nachbearbeitung ein . Damit können eventuell notwendige Korrekturen vorgenommen werden .
Praktisch erfolgt dies so, dass in der Rohtextur nicht klassifizierte Abschnitte zweckmäßigerweise als Pixelgruppen, insbesondere Bitmaps, in die generalisierte Textur eingefügt werden. Diese nicht klassifizierten Areale, beispielsweise Ornamente mit einer komplizierten Form, bilden dann eine schließlich nachträglich in die generalisierte Textur eingefügte Bildkomponente.
Für eine sparsame Verwendung von Verfahrenskapazitäten, insbesondere von Speicherressourcen und Rechenzeit, kann bei dem Umformen der Rohtextur in die generalisierte Textur eine mindestens teilweise Kachelung des virtuellen Objektes durch eine periodische Abfolge eines an ein Rohtexturelement angepassten Bibliothekselementes erfolgen. Dabei werden Bibiliothekselemente im wesentlichen nur für eine Stelle der Rohtextur angepasst, wobei diese angepassten Elemente kachelartig aneinander gereiht werden und das virtuelle Objekt abdecken .
Das erfindungsgemäße Verfahren soll nun an einem Ausführungsbeispiel in Verbindung mit den Figuren 1 bis 8 näher erläutert werden . Es werden für gleiche oder gleichwirkende Verfahrensschritte und Komponenten die gleichen Bezugszeichen verwendet.
Es zeigt
Fig. 1 ein beispielhaftes terrestrisches Foto einer Hausfassade in einer schwarz-weiß Codierung,
Fig. 2 ein für die Hausfassade aus Fig . 1 erstelltes virtuelles dreidimensionales Objekt in einer dem Foto aus Fig . 1 entsprechenden Ansicht,
Fig. 3 grundlegende Verfahrensschritte in einer Übersichtsdarstellung,
Fig. 4 beispielhafte Rohtexturelemente an dem vorhergehend gezeigten Fassadenbild,
Fig. 5 Skalierungen und Vergleiche von Merkmalsmengen zwischen Rohtexturelement und Bibliothekselement am Beispiel eines Fensters und Fensterkreuzes,
Fig . 6 eine beispielhafte Baumstruktur für einige Bibliothekselemente,
Fig. 7 Ersetzungen von Rohtexturelementen durch Bibliothekselemente am Beispiel einiger Fensterformen,
Fig. 8 Ersetzungen nicht klassifizierter Rohtexturstrukturen am Beispiel von Stuckelementen eines Türbogens Fig . 1 zeigt ein Fassadenbild 1 und Fig. 2 die dazu gehörende Oberfläche des dafür erstellten virtuellen dreidimensionalen Objektes 2 in einer dem Bild in Fig. 1 entsprechenden Perspektive. Das hier in Fig. 1 gezeigte Fassadenbild ist in Form eines terrestrischen Digitalfotos erstellt worden . Zweckmäßigerweise ist das terrestrische Bild georeferenziert. Das heißt, dass der Standort der fotografischen Anordnung im Koordinatensystem der Erde und deren Ausrichtung bezüglich der Koordinatenachsen am Ort der Aufnahme eindeutig bekannt ist.
Anstelle der terrestrischen Aufnahme können auch Schrägsicht- bzw. Nadir-Luftaufnahmen verwendet werden. Bei dem in Fig. 2 gezeigten virtuellen dreidimensionalen Objekt handelt es sich um eine von dem realen Objekt, d.h. der Fassade bzw. dem dazu gehörenden Haus, abstrahierte Kontur, deren Begrenzungen die Körperbegrenzungen des realen Objektes im verkleinernden Maßstab hinreichend genau wiedergeben. Die virtuelle Kontur muss insbesondere so genau sein, dass das erfasste Fassadenbild auf die entsprechende Seitenfläche des virtuellen Objektes passgenau und verzerrungsfrei einzufügen ist.
Der Vergleich der Darstellungen aus Fig. 1 und Fig . 2 zeigt, dass für die Anpassung des Fassadenbildes und der Seitenfläche des virtuellen dreidimensionalen Objektes Gebäudeformen und -umrisse, wie beispielsweise Dachgauben oder auch durchgehende Fassadenlinien als Referenzen und Bezugspunkte verwendet werden können.
Fig . 3 zeigt grundlegende Verfahrensschritte des erfindungsgemäßen Verfahrens. Das Fassadenbild 1 wird in einem Verfahrensschritt a auf das virtuelle dreidimensionale Objekt auf eine dafür vorgesehene Oberfläche als Textur aufgebracht. Diese Textur wird im folgenden als Rohtextur bezeichnet. Zur Generierung der Rohtextur können dafür bereits vorgesehene Softwaremodule verwendet werden, die für gewöhnlich zum Erstellen fotorealistischer Texturen verwendet werden. Die Erstellung der Rohtextur erfolgt somit im wesentlichen vollautomatisch. Unmittelbar nach der Erstellung der Rohtextur oder bereits vor deren Generierung werden auf der Menge der Bildpunkte des Fassadenbildes gegebenenfalls Bildbearbeitungen für eine Verbesserung der Bildqualität und in Vorbereitung der Strukturerkennungen ausgeführt. Dies betrifft vor allem Schattenverläufe und dadurch entstehende störende Kantenstrukturen auf den Bilddaten. Hierzu können vor allem ein Deblurring oder ein Schärfen von Kanten vorgenommen werden.
Besonders zweckmäßig und in der Regel für eine nachfolgende Erkennung von Rohtexturelementen notwendig ist eine Umwandlung eines ursprünglich farbigen Fassadenbildes in ein Fassadenbild in Form einer Kopie im Grauwert- oder Schwarzweiß-Modus. Nach einer derartigen Farbtransformation zeichnen sich, wie auch in den Figuren erkennbar, Fenster und Fensterkreuze durch sehr markante schwarze, durch helle Linien durchschnittene Flächen vor einem helleren Fassadenuntergrund ab. Eine derartige Umformung ist auch dann vorteilhaft, wenn Fassadengestaltungen mit unterschiedlichen Farben in ihrer Struktur ermittelt werden sollen. Bei dem Beispiel in Fig. 3 sind insbesondere die streifenförmigen Klinkerelemente durch die Umwandlung des Bildes in den Schwarzweiß-Modus sehr gut zu identifizieren .
Bei einer Reduktion auf eine s/w-Bilddarstellung geht allerdings sehr viel Information dadurch verloren, dass eine große Menge von verschiedenen Farbwerten auf nur wenige s/w-Werte abgebildet wird. Dabei werden die Schwellwerte für die Zuordnung zwischen Farbbereich und Schwarz-Weiß- Bereich mehr oder weniger willkürlich gewählt. Dieses Problem lässt sich dadurch vermeiden, indem auf einen farbanalysefähigen Klassifikator zurückgegriffen wird .
Dieser ermöglicht die Detektierbarkeit der Rohtexturelemente hinsichtlich ihrer Kontur mit einer Zuordnung von Bibliothekselementen bei verschiedenen Einfärbungen.
Auf die so erstellte Rohtextur wird in einem Schritt b das Klassifikationsverfahren angewandt. Dabei werden zum einen spezielle Rohtexturelemente 3, zum Beispiel Fensterstrukturen oder sonstige Fassadenelemente wie Balkone, Türen, Stuck usw. auf der Rohtextur lokalisiert und zum anderen mit vorab gespeicherten Bibliothekselementen 4 verglichen. Bei dem hier gezeigten Beispiel sind die Rohtexturelemente als Fenster ausgebildet, die eine charakteristische Rechteckform mit einem gewissen Verhältnis zwischen Höhe und Breite und typischen Formen von Fensterkreuzen aufweisen, die außerdem eine typische Färb- oder Kontrastwirkung zeigen . Als Bibliothekselemente 4 stehen Bildelemente zur Verfügung, mit denen die erfassten Rohtexturelemente in ihren Merkmalen verglichen werden. Die Lokalisierung der Rohtexturelement, deren Beschreibung und deren Abgleich mit den Bibliothekselementen bildet den Verfahrensschritt der Klassifizierung . Deren Abschluss ist die Auswahl eines Bibliothekselementes, das die Eigenschaften des Rohtexturelementes mit einer besonders großen Ähnlichkeit wiedergibt. Eine detaillierte Darstellung der Klassifizierung erfolgt weiter unten in der Beschreibung .
Unter Verwendung der Bibliothekselemente wird in einem abschließenden Schritt c die gesamte Rohtextur in eine generalisierte Textur 5 umgesetzt. Dabei werden alle klassifizierten Rohtexturelemente, d.h. Fenster und andere Strukturen auf der Fassade, durch Bibliothekselemente ersetzt und die generische Textur baukastenartig zusammengesetzt. In dem Beispiel aus Fig. 3 sind sämtliche Fenster aus der Rohtextur und die über die Fassade in vertikalen Streifen verlaufenden Klinkerstrukturen durch die entsprechenden Bibliothekselemente ausgetauscht.
Die Klassifizierung beispielhafter Rohtexturelemente soll im folgenden näher erläutert werden .
Fig. 4 zeigt einige beispielhafte Rohtexturelemente, insbesondere Fenster und Stuckelemente. Das beispielhafte Fassadenbild weist zwei verschiedene Gaubenfenster 31 und 32 auf. Das Gaubenfenster 31 besteht bei diesem Beispiel aus zwei dicht nebeneinander liegenden Einzelfenstern. Das Gaubenfenster 32 bildet ein Einzelfenster mit einem T-förmigen Fensterkreuz. Sowohl das Fenster 31 als auch das Fenster 32 setzen sich durch ihre weißen Rahmen deutlich vom Hintergrund ab. Die Fenster 33, 34 und 35 bilden bei diesem Beispiel im wesentlichen schwarze, durch ein weißes T-förmiges Fensterkreuz unterbrochene Formen, die sich deutlich vom hier im wesentlichen weißen Fassadenhintergrund abheben. Das Fenster 36 entspricht in seiner Form im wesentlichen den Fenstern 33 bis 35, ist aber in seiner Form durch ein hinter den Scheiben gelegenes Objekt beeinflusst, das die schwarzen Scheibenflächen beeinträchtigt und inhomogen erscheinen lässt. Deutlicher tritt dieser Effekt bei einem weiteren Fenster 36 auf, bei dem eine Gardine die schwarze Scheibenstruktur beeinträchtigt und die Gestalt des Fensterkreuzes fast unkenntlich macht.
Schließlich treten Stuckelemente 37, 38 und 39 hinzu, die als weitere Rohtexturelemente aufgefasst werden können und deren Kontur vom Fassadenhintergrund undeutlicher zu unterscheiden ist.
Die Rohtexturelemente 31 und 32 bzw. 33 bis 35 können durch eine Formerkennung auf dem schwarz-weiß codierten Bild lokalisiert werden. Dazu werden die Bildpunkte der Rohtextur ausgewertet, wobei die Areale der sich schwarz abhebenden Scheiben vor der weißen Umgebung und die Form der Fensterkreuze durch eine Software ausgelesen werden. Dabei wird vor allem die rechteckige Form der schwarzen Fensterkonturen und deren regelmäßige Anordnung zueinander registriert. Die weißen Fensterkreuze bilden bei dieser Bilderkennung weiße Mengen von streifenförmig angeordneten Bildpunkten in einer wohldefinierten Breite und Länge, die zwischen die rechteckigen schwarzen Flächen der Fensterscheiben eingeschoben sind. Die Bildpunktmenge aus weißen Streifen und schwarzen Flächen wird sodann zusammen mit dessen Position im Bild als ein Rohtexturelement erkannt und ausgelesen .
Zur Suche und Erkennung von Fenstern werden insbesondere a priori angenommene Fensterverteilungen auf der Fassadenfläche genutzt. So wird bei einer Höhe der Fassadenfläche von 15m davon ausgegangen, dass das abgebildete Gebäude 4 Etagen zu einer Höhe von je 3,75m aufweist. Auf der Grundlage dieser Ausgangsparameter wird eine Suche nach 4 Fensterreihen im entsprechenden Abstand vorgeschlagen und eventuell ausgeführt. Es zeigt sich, dass eine derartige Vorschlag-Automatik erstaunlich gute Ergebnisse zeigt.
Inhomogenitäten wie zum Beispiel bei der Fensterstruktur 36 können durch eine Bildbearbeitung in der Regel beseitigt oder unterdrückt werden, die der Lokalisierung der Rohtexturelemente vorausgeht. Hierzu sind prinzipiell mehrere Bildbearbeitungen möglich. Insbesondere können Inhomogenitäten dadurch beseitigt werden, indem das Fassadenbild in einer zweckmäßigen Weise farbcodiert wird. Regelmäßige Strukturen, wie beispielsweise Fensterrahmen und Fensterkreuze, heben sich durch ihre einheitliche Färbung dadurch hervor und sind dann für die Strukturerkennung besser zu ermitteln. Die in der Figur gezeigte Schwarz- Weiß-Kodierung erweist sich besonders dann als zweckmäßig, wenn regelmäßige Strukturen auf einer hellen Fassade zu lokalisieren sind. In der Regel wird bei derartigen Bildbearbeitungen dann das entsprechend umkodierte Bild als Kopie zur Strukurerkennung genutzt.
Die Stuckelemente 37 bis 39 zeichnen sich durch unregelmäßigere bzw. komplizierter Strukturen aus, die sich allerdings von der ansonsten unstrukturierten und weißen Fassade deutlich unterscheiden. Derartige Areale können entweder als Flächen mit einem gewissen durchschnittlichen Grauwert ausgelesen werden oder es kann ein Ausschneiden dieser Bildflächen in Form eines Bitmaps erfolgen. Entsprechende Verfahrensschritte werden später näher erläutert.
Fig. 5 stellt das Klassifikationsverfahren beispielhaft an einem Fensterkreuz dar. Die Figur zeigt links ein durch die Bilderkennung ermitteltes Rohtexturelement. Für eine Klassifizierung des Rohtexturelementes muss die in der Bilderkennung ermittelte Menge an Bildpunkten mit einem Bibliothekselement 4 verglichen werden. Im wesentlichen werden hierzu ein Struktur-, ein Größen- und ein Farbabgleich ausgeführt. Hierzu werden Merkmalsmengen zwischen dem Rohtexturelement und dem Bibliothekselement verglichen. Die Größe des Rohtexturelementes spielt eine wesentliche Rolle bei dessen Merkmalsmenge. Von Bedeutung ist in diesem Fall jedoch nicht vorrangig die absolute Größe des Rohtexturelementes, denn diese ändert sich bei jedem Skalierungsvorgang und kann deswegen nicht mit einer absoluten Größe eines Bibliothekselementes verglichen werden. Vielmehr wird bei dem Größenvergleich zwischen Rohtexturelement und Bibliothekselement überprüft, ob die Abmessungen den geometrischen Gesetzen für Ähnlichkeitstransformationen gehorchen.
Fig. 5 zeigt zum Beispiel ein Rohtexturelement 3 mit einer Breite b und einer Höhe In1. Weiterhin weist das Rohtexturelement ein Fensterkreuz auf, dessen Querbalken sich auf einer Höhe h2 befindet, während der senkrechte Balken des Fensterkreuzes die Breite des Rohtexturelementes in einem Fußpunktverhältnis bi/b2 teilt. Es kann angenommen werden, dass ein Rohtexturelement und ein beliebiges Bibliothekselement dann in ihren Formen übereinstimmen, wenn die Größenverhältnisse beliebiger Strecken im Rohtexturelement bzw. im Bibliothekselement übereinstimmen . Unter dieser Bedingung kann ein Bibliothekselement durch Ähnlichkeitstransformationen auf die Form des Rohtexturelements skaliert werden.
Für eine Merkmalsmenge des Rohtexturelementes werden nunmehr zweckmäßige Größenverhältnisse bestimmt. Bei dem Beispiel aus Fig . 5 bietet sich vor allem das Größenverhältnis zwischen Breite und Höhe b/hx = V1, das Verhältnis zwischen der Höhe des Querbalkens und der Gesamthöhe h2/hi = V2 bzw. das Fußpunktverhältnis bi/b2 = V3 an .
Weiterhin werden aus den Bilddaten der Rohtextur Farbinformationen einzelner Bildareale des Rohtexturelements ausgelesen . Von Bedeutung sind bei dem hier gezeigten Beispiel insbesondere die Farben fi und f2 der Fensterflächen bzw. des Fensterkreuzes bzw. die Farbe f3 des Fensterrahmens. Die beispielhafte Merkmalsmenge des Rohtexturelementes lässt sich dann als ein formaler Merkmalsvektor darstellen, der das Rohtexturelement vollständig beschreibt. m = (V1 ; V2; V3; ft; f2; f3)
Die Werte des Merkmalsvektors m bleiben auch dann unverändert, wenn das Rohtexturelement skaliert wird. In dem Rohtexturelement 3' beispielsweise bleiben die Verhältnisse V1 bis V3 und fx bis f3 konstant, obwohl die Abmessungen des nunmehr kleineren Rohtexturelementes andere Werte angenommen haben.
In Fig . 5 ist im Vergleich dazu ein Bibliothekselement 4 gezeigt, dem in Analogie zu den in Bezug auf das Rohtexturelement definierten Kenngrößen ein vergleichbarer Merkmalsvektor von vornherein zugeordnet ist. Das Verhältnis von Breite und Höhe B/Hi = Vx, das Verhältnis von Höhe des Querbalkens zur Gesamthöhe H2ZH1 = V2 sowie das Fußpunktverhältnis Bx/B2 = V3 des Bibliothekselementes wie auch die Farbwerte F1, F2 und F3 der Farbareale des Bibliothekselementes werden in genau der gleichen Weise definiert und zu einem Merkmalsvektor M des Bibliothekselements zusammengefasst:
M = (V1; V2; V3; F1; F2; F3)
Für die Klassifizierung wird der Merkmalsvektor m des Rohtexturelementes mit dem Merkmalsvektor des Bibliothekselementes komponentenweise verglichen. Dabei wird ein Ähnlichkeitsmaß zwischen beiden Vektoren bestimmt. Die Toleranzen für die Abweichungen der einzelnen Werte beim Vergleich können vorgegeben und grundsätzlich beliebig verändert werden. Zweckmäßigerweise werden die Toleranzbereiche für die Abweichungen der Verhältnisse Vn bzw. Vn in beiden Vektoren enger und die Abweichungstoleranzen für die Abweichungen der Farbwerte größer gewählt. Eine korrekte Wiedergabe der Größe bzw. der Größenverhältnisse des Rohtexturelementes durch das Bibliothekselement ist demnach wichtiger als eine korrekte Farbwiedergabe. Derartige Präferenzen können natürlich je nach Erfordernis anders gewählt werden.
Für die Farbwerte fn bzw. Fn kann auf die gängigen Farbsysteme für Bildbearbeitungsprogramme, insbesondere das RGB-, bzw. CMYK-System, zurückgegriffen werden . Bei dem in Fig. 5 gezeigten Beispiel werden drei Bibliothekselemente als Auswahl bereitgestellt, die jeweils Farbwerte Fl a, F2a, F3a; Flb, Flb, F3b bzw. Flc, F2c, F3c aufweisen. Das endgültig ausgewählte Bibliothekselement entspricht in dem hier gezeigten Beispiel dem Bibliothekselement mit den Farben Flb/ F2b, F3b. Das Rohtexturelement ist damit sowohl in seiner Größe, als auch in seiner Farbe klassifiziert.
Fig. 6 zeigt eine beispielhafte und stark vereinfachte Baumstruktur zur Verwaltung von Bibliothekselementen . Die Bibliothekselemente sind bei diesem Ausführungsbeispiel vorwiegend nach funktionellen Kriterien geordnet. Es sind z. B. Bibliothekselemente für Fenster, Türen, Fassadenflächen usw. enthalten . Grundsätzlich ist es auch möglich, Bibliothekselemente nach anderen, insbesondere rein graphischen Kriterien zu sortieren. In diesem Fall würde der Baum eine Verzweigung für rechteckige, kreisförmige, elliptische und dergleichen weitere Bibliothekselemente unabhängig von deren funktionellen Bezügen enthalten. Eine derartige alternative Baumstruktur wäre insofern vorteilhafter, als dass die Rohtexturelemente über die Bildverarbeitung vorwiegend über die Form lokalisiert werden .
Darüber hinaus können auch zwei Baumstrukturen kombiniert vorgesehen sein, wobei die Bibliothekselemente gleichzeitig auf beide Arten verwaltet werden.
Die Aufgliederung der Bibliothekselemente nach ihrer Funktion bringt jedoch gewisse Vorteile mit sich. So kann insbesondere ein Nutzer vorab festlegen, dass Rohtexturelemente, die innerhalb eines bestimmten vorgegebenen Bildabschnitts in der Rohtextur erfasst werden, ausschließlich als Fenster bzw. ausschließlich als Tür oder dergleichen Element behandelt werden . Damit kann in gewisser Weise eine schnellere Klassifizierung der Rohtexturelemente erfolgen, weil beispielsweise ein Rohtexturelement mit einer T-förmigen Bildstruktur, das nicht in der Nähe der unteren Bildkante liegt, auf ein Fenster verweist. In diesem Fall würde ein Suchalgorithmus zum Auffinden des zutreffenden Bibliothekselementes nicht alle rechteckigen Formen absuchen, sondern von Beginn an in das Verzeichnis „Fenster" wechseln.
Bei dem hier gezeigten Beispiel ist ein Verzeichnis A1 für hohe rechteckige Fenster, ein Verzeichnis A2 für breite rechteckige Fenster und ein Verzeichnis A3 für runde bzw. anders geformte Fenster vorgesehen . Das Verzeichnis A2 enthält ebenfalls weitere Untergruppen A2 i und A22, die auf unterschiedliche Teilungen der Fensterfläche bezogen sind.
Die genauen Verhältnisse zwischen Höhe und Breite der Bibliothekselemente gemäß der Beschreibung in Verbindung mit Fig. 5 müssen dabei nicht von vornherein festgelegt sein . Sie können jederzeit durch Veränderungen, durch ein Strecken oder Stauchen von Höhe und Breite verändert werden. Die logische Unterscheidung zwischen hohen und breiten Rechteckfenstern ist jedoch insofern sinnvoll, als das gewisse Fensterkreuz-Formen erfahrungsgemäß nur bei gewissen Fenstertypen vorkommen.
So enthält das Verzeichnis Ai eine Untergruppe An für Fenster mit einem Oberlicht, eine Untergruppe Ai2 für zweigeteilte Fenster mit einem Oberlicht und eine Untergruppe Ai3 für zweigeteilte Fenster mit einem zweigeteilten Oberlicht. Die Bibliothekselemente der jeweiligen Untergruppe sind mit Merkmalsvektoren verknüpft, die sich durch unterschiedliche Parametersätze auszeichnen . So enthalten z.B. die Merkmalsvektoren der Untergruppe Au keinen Parameter für das oben erwähnte Fußpunktverhältnis, da kein Fensterkreuz vorhanden ist.
Die mathematische Gestalt des Merkmalsvektors, d . h. die Anzahl der vorgesehenen Parameter und Komponenten bildet demnach die grafische Konstruktion des Bibliothekselementes ab. Zweckmäßigerweise enthält die Datenbank der Bibliothekselemente vorwiegend Daten-Vektoren und Daten- Felder, die entsprechend der Merkmalsvektoren dimensioniert sind, aber im wesentlichen keine Grafiken oder Bilder der Bibliothekselemente selbst. Grafisch werden die Bibliothekselemente erst dann durch entsprechende Programmroutinen generiert, wenn die entsprechenden Teilbereiche der generalisierten Textur erstellt werden.
Der Umfang der Datenbank kann dadurch sehr kompakt gehalten werden, die Festlegung der Struktur der Merkmalsvektoren und einiger Randbedingungen erlaubt es darüber hinaus, z. B. die erwähnten Verzeichnisse des Typs Ai und A2 durch eine einzige Gestalt des Merkmalsvektors zu repräsentieren, wobei die Komponenten dieses Merkmalsvektors entsprechend der in den Verzeichnissen enthaltenen Bibliothekselemente verändert bzw. mit entsprechenden Werten belegt werden.
Es versteht sich, dass gemäß der Beschreibung zu Fig . 5 in jedem der Unterverzeichnisse eine Reihe von Farbmodellen für die jeweiligen Bibliothekselemente abgespeichert sind, wobei jedem einzelnen Bibliothekselement ein Merkmalsvektor mit einem entsprechenden Parametersatz gemäß der vorherigen Beschreibung zugeordnet ist. Zudem können auch unterschiedliche Bibliothekselemente mit sich unterscheidenden Höhen-Breiten-Verhältnissen vorab als feste Modelle mit festen Eigenschaften vorgegeben sein. Diese festen Modelle mit definierten Parametern in den Merkmalsvektoren können bei einem sehr groben und einfachen Verfahrensablauf zum standardisierten Ersetzen von Rohtexturelementen verwendet werden .
Das Verzeichnis T umfasst Bibliothekselemente für Türen. Als Türen gelten per zweckmäßiger Definition alle Rohtexturelemente, die sich im Bereich einer unteren Bildkante bzw. einer unteren Kante des dreidimensionalen virtuellen Objektes bzw. der Rohtextur befinden . Beispielhafte Unterverzeichnisse werden durch ein Verzeichnis für Einfachtüren Ti und ein Verzeichnis für Doppeltüren T2 gebildet.
Weiterhin ist ein Verzeichnis für Fassadenoberflächen vorgesehen. Dieses Verzeichnis beinhaltet im wesentlichen Füllmuster oder Füllbilder mit unterschiedlichen Farben und Strukturen, die gemäß einer auf der Rohtextur ausgeführten Mustererkennung dimensioniert sind. So ist beispielsweise ein Verzeichnis P1 für rauen Putz und ein Verzeichnis P2 für eine Klinkerfassade vorgesehen. Die in diesen Verzeichnissen gespeicherten Bibliothekselemente sind im wesentlichen Bitmaps oder andere Grafikfiles, in denen über definierte Helligkeits- und Farbwerte Muster abgespeichert sind, die mit gegebenen Strukturen in der Rohtextur verglichen werden. Im einfachsten Fall enthält der Bereich P eine einfache Farbpalette mit unterschiedlichen Farbwerten, die mit Farben auf der Rohtextur verglichen werden.
Die unterschiedlichen Unterverzeichnisse bzw. die verschiedenen darin abgelegten Bibliothekselemente, können auch kombiniert werden. So kann beispielsweise eine Farbfläche eines Bibliothekselementes A „Fenster" mit einer Farbe oder einem Muster aus dem Unterverzeichnis P „Muster" gefüllt werden. Dabei ermittelt eine erste Routine gemäß der oben gegebenen Beschreibung die Form und den Typ des Bibliothekselementes „Fenster", während eine zweite Routine die exakten Färb- oder Musterstrukturen aus der Rohtextur ermittelt und klassifiziert. In diesem Zusammenhang ist also auch darauf hinzuweisen, dass den einzelnen Unterverzeichnissen und Bereichen im Baumdiagramm aus Fig. 6 unterschiedliche Klassifizierungsroutinen zugeordnet sein können.
Ein weiterer hier nicht gezeigter Bereich der Bibliothekselemente wird durch einfache Zierelemente für Fassaden, beispielsweise Simse, Schlusssteine, einfache Stuckelemente usw. gebildet. Deren Zuordnung zu entsprechenden Rohtexturelementen erfolgt im wesentlichen über eine Kombination aus einer Formerkennung und einer Skalierung, wie sie im Beispiel nach Fig. 5 bereits beschrieben wurde.
Das Ersetzen der Rohtexturelemente durch die Bibliothekselemente erfolgt durch ein Ausschneiden und Ersetzen. Das heißt, dass das Areal des klassifizierten Rohtexturelements in der Rohtextur ausgeschnitten und durch das Bibliothekselement ersetzt wird. Dabei kann es notwendig werden, dass das Bibliothekselement in seiner Größe skaliert werden muss. Fig. 7 zeigt einige beispielhafte Ersetzungen von Rohtexturelementen durch Bibliothekselemente am Beispiel von Fenstern mit Fassadenverzierungen. Die Beispiele aus Fig. 7 sollen insbesondere verdeutlichen, wie die entstehende generalisierte Textur 5 baukastenartig zusammengesetzt wird. Die Figur zeigt links die Rohtexturen und rechts die dazu erzeugte generalisierte Textur. Beispiel a) zeigt ein Fenster mit einem dreiecksförmigen Stuckelement 40a, einem darunter befindlichen rechteckigen Abschnitt 41a und einem Fenstersturz 42a. Außerdem sind säulenförmige Flanken 43a vorhanden. Die Fensterfläche 44a besteht aus einem Fensterkreuz mit geteiltem Oberlicht.
Bei diesem Beispiel ist das Stuckelement 40a bei der generalisierten Textur 5 durch ein Dreieck 40b ersetzt, das teilweise mit einer dunkleren Färbung gefüllt ist, um die Schattenstruktur des Stuckelementes 40a nach zu gestalten. Der Abschnitt 41a ist durch ein Rechteck 41b ersetzt, der links und rechts von dunkleren Abschnitten eingerahmt ist. Der Fenstersturz 42a und die Flanken 43b werden ebenfalls als Rechtecke nachgebildet. Für die Fensterfläche 44b wird gemäß der vorherigen Beschreibung auf ein entsprechendes Bibliothekselement zurückgegriffen. Die Elemente 40b, 41b, 42b, 43b und 44b bilden nunmehr die generalisierte Textur 5 des betreffenden Rohtexturelementes, d .h. des links abgebildeten Fensters.
In dem Beispiel b) weist das Rohtexturelement einfacher gestaltete Flanken 43a auf und eine Fensterfläche 44a, die nur einen Querbalken zeigt. Zusätzlich zu diesen einfachen Merkmalen ist allerdings ein Zierelement 45a aufzufinden, das ein relativ kompliziertes Bildmotiv, in diesem Beispiel einen Löwenkopf, zeigt.
Dieser Löwenkopf stellt ein nicht klassifizierbares Element dar. Das bedeutet, dass entweder seine Struktur nicht durch eine Bilderkennung erfasst werden kann, oder dass für dessen Struktur kein Bibliothekselement existiert. In diesem Fall wird das Bildareal des Löwenkopfes als Bitmap 45b in die rechts abgebildete generalisierte Textur übertragen. Zusammen mit den Bibliothekselementen 43b und 44b bildet das Bitmap 45b die entsprechende generalisierte Textur im Beispiel b) aus Fig. 7 aus. Diese generalisierte Textur bildet gleichsam eine Mischung aus einem Abschnitt des Rohtexturelementes und mehrheitlichen Ersetzungen durch einzelne Bibliothekselemente. Dadurch kann das Rohtexturelement hinreichend genau in die generalisierte Textur überführt werden, wobei das Merkmal des Löwenkopfes erhalten bleibt.
Das Beispiel c) zeigt ein Rohtexturelement in Form eines Fensters mit einem schmucklosen Rahmen und einem keilförmigen Schlussstein 47a in Verbindung mit einer Klinkerfassade 46a . Der Schlussstein bildet in der generalisierten Textur rechts ein Bibliothekselement 47b in Form eines Trapezes. Die Klinkerfassade wurde in einer Mustererkennung klassifiziert und ist hier durch ein Bibliothekselement 46b mit einer entsprechenden Füllstruktur „Mauer" ersetzt.
Konkrete Kombinationen von einzelnen Bibliothekselementen werden zur schnellen Visualisierung / Nutzung der texturierten Modelle zusammengefasst und in speziellen Visualisierungsbibliotheken abgelegt. Eine Visualisierungsbibliothek ist dabei gültig für ein oder für mehrere Projekte.
Fig . 8 zeigt ein abschließendes Beispiel für eine Behandlung nicht klassifizierbarer Strukturen in der Rohtextur. Bei diesem Beispiel ist ein Türbogen dargestellt, der einen Löwenkopf in Form einer ersten Rohtextur 48a, verschiedene Ornamente 49a und 50a umfasst. Der Vergleich mit der generalisierten Textur 5 zeigt, dass bei diesem Beispiel die Rohtexturen 48a und 49a als Bitmaps in die generalisierte Textur übertragen worden sind. Die Rohtextur 50a dagegen wurde als Bildabschnitt mit einer einheitlichen Farbfüllung versehen und bildet nun einen Bestandteil 50b der generalisierten Textur. Eine derartige Behandlung nicht klassifizierbarer Rohtexturstrukturen bietet sich vorwiegend dann an, wenn ausgedehnte Bereiche mit speicherintensiven Bildpunktstrukturen nicht klassifizierbar sind und daher das Übertragen dieser Strukturen als Bitmaps zu unverhältnismäßig komplizierten generalisierten Texturen führen würde. In diesem Fall kann beispielsweise ein mittlerer Färb- oder Helligkeitswert des betreffenden Areals ermittelt und als Füllung für das vorgesehene Gebiet der generalisierten Textur verwendet werden .
Anstelle des Ersetzens jedes einzelnen Fassadenelements durch jeweils ein elementares Bibliothekselement kann das Verfahren durch eine Kachelung des virtuellen Objektes beträchtlich vereinfacht werden. Dies bietet sich immer dann an, wenn hochperiodische Fassadenstrukturen nachzubilden sind, wie dies insbesondere bei Plattenbauten und Mietshäusern der Fall ist.
Ein Grund für diese Vorgehensweise ergibt sich aus der formalen Funktionsweise gängiger Visualisierungssoftware sowie aus der Notwendigkeit heraus, die Visualisierungsgeschwindigkeit des texturierten virtuellen Objektes zu steigern, denn die in Echtzeit anzuzeigenden texturierten Modellobjekte müssen bei der Visualisierung in einem dynamischen Prozess aus den Vektordaten der Gebäudekörper und den adressierten Elementen der mitgelieferten Bibliothek zusammengesetzt werden.
Statt dem vorhergehend beschriebenen Ersetzen jeweils einzelner elementarer Bibliothekselemente wird eine Kachelstruktur aus sich wiederholenden Bibliothekselementen erstellt, die die gesamte Oberfläche des texturierten Objektes überdeckt. Das bedeutet insbesondere, dass statt der Einzelmerkmale wie beispielsweise einem Fenster vom Typ A und einer Fassadenfarbe vom Typ B ein angepasstes Wandelement erzeugt wird, dass vereinigte Merkmale aus den Typen A/B enthält. Dieses kombinierte Element füllt durch eine zyklische Wiederholung die texturierte Oberfläche vollständig aus. Diese Vorgehensweise hat sich als sehr effektiv erwiesen.
Natürlich ist bei allen erzeugten generalisierten Texturen bzw. bei der Erstellung der generalisierten Texturen eine Bildnachbearbeitung „von Hand", d.h. unter Verwendung eines Programms zur Bildbearbeitung möglich, um gewisse Ungenauigkeiten auszugleichen. Die generalisierte Textur wird für diesen Zweck in Form eines bekannten Bilddatenformates ausgegeben . Besonders zweckmäßig sind dabei vektorisierte Datenformate, die Skalierungen zulassen. Insbesondere skalierbare SVG-Vektorgrafiken erweisen sich dafür als sehr geeignet.
Das Verfahren wurde anhand von Ausführungsbeispielen erläutert. Im Rahmen fachmännischen Handelns können an den gezeigten Ausführungsbeispielen Veränderungen vorgenommen werden, wobei der Bereich des erfindungsgemäßen Grundgedankens nicht verlassen wird . Weitere Abwandlungen und Ausführungsformen ergeben sich insbesondere aus den Unteransprüchen .
Bezugszeichenliste
1 Fassadenbild
2 virtuelles dreidimensionales Objekt
3 Rohtexturelement
4 Bibliothekselement
5 generalisierte Textur
31 Rohtexturelement erstes Gaubenfenster
32 Rohtexturelement zweites Gaubenfenster
33 Rohtexturelement erstes Fenster
34 Rohtexturelement zweites Fenster
35 Rohtexturelement drittes Fenster
36 Rohtexturelement mit inhomogener Struktur
37 Rohtexturelement, Stuck
38 Rohtexturelement, Stuck
39 Rohtexturelement, Stuck
40a Rohtexturelement, Stuckelement, dreiecksförmig 40b Bibliothekselement, Dreieck mit Farbfüllung 41a Rohtexturelement, rechteckiger Fenstersturz 41b Bibliothekselement, Rechteckform 2a Rohtexturelement, Fenstersturz 2b Bibliothekselement, Rechteck 3a Rohtexturelement, Flanke 3b Bibliothekselement, Rechteck 44a Rohtexturelement, Fensterfläche mit Fensterkreuz
44b Bibliothekselement, Fensterfläche mit Kreuz
45a Rohtextur, Löwenkopf
45b übertragenes Bitmap, Löwenkopf in generalisierter Textur
46a Rohtextur, Klinkerfassade
46b Bibliothekselement, Füllstruktur Mauer
48a Rohtextur Löwe
48b generalisierte Textur, eingefügtes Bitmap
49a Rohtextur erstes Ornament
49b generalisierte Textur, eingefügtes Bitmap
50a Rohtextur zweites Ornament
50b generalisierte Textur, einheitliche Farbfüllung
b Rohtexturelement, Breite hi Rohtexturelement, Höhe h2 Rohtexturelement, Höhe Querbalken Fensterkreuz
V1 Rohtexturelement, Verhältnis Breite/Höhe
V2 Rohtexturelement, Verhältnis Querbalkenhöhe/Gesamthöhe
V3 Rohtexturelement, Fußpunktverhältnis fn Rohtexturelement, Farbwert verschiedener Bereiche m Rohtexturelement, formaler Merkmalsvektor
B Bibliothekselement, Breite
H1 Bibliothekselement, Höhe
H2 Bibiiothekselement, Höhe Querbalken Fensterkreuz
V1 Bibliothekselement, Verhältnis Breite/Höhe
V2 Bibliothekselement, Verhältnis Querbalkenhöhe/Gesamthöhe
V3 Bibliothekselement, Fußpunktverhältnis
Fn Bibliothekselement, Farbwert verschiedener Abschnitte
M Merkmalsvektor Bibliothekselement
Ai Verzeichnis hohe Rechteckfenster
An Fenster mit Oberlicht
A12 Fenster, zweigeteilt mit Oberlicht
An Fenster, zweigeteilt, zweigeteiltes Oberlicht A2 Verzeichnis breite Rechteckfenster A3 Verzeichnis runde Fenster
T Verzeichnis Türen Ti Einfachtüren T2 Doppeltüren
Pi Strukturverzeichnis rauer Putz P2 Strukturverzeichnis Klinkerfassade

Claims

Patentansprüche
1. Verfahren zur Texturierung virtueller dreidimensionaler Objekte, insbesondere virtueller dreidimensionaler Gebäudeobjekte und Stadtmodelle mit einem fotografischen Abbild (1) eines realen Objektes, insbesondere eines Fassadenfotos, gekennzeichnet durch folgende Verfahrensschritte
Projektion des fotografischen Abbildes ( 1) auf eine virtuelle Fläche (2) des virtuellen dreidimensionalen Objektes für ein Erstellen einer Rohtextur,
- Lokalisieren eines Rohtexturelementes (3) in der Rohtextur durch Anwendung eines Klassifikationsverfahrens,
- Computergerechte Beschreibung des lokalisierten Rohtexturelementes durch eine formale Merkmalsmenge für das Rohtexturelement, insbesondere einen Merkmalsvektor, Vergleich der formalen Merkmalsmenge des Rohtexturelementes mit je einer Merkmalsmenge vorgegebener Bibliothekselemente (4) und Ermitteln von Ähnlichkeitsmaßen zwischen dem Rohtexturelement und jeweils einem Bibliothekselement,
- Ersetzen des lokalisierten Rohtexturelementes durch mindestens ein Bibliothekselement bei Vorliegen eines vordefinierten Ähnlichkeitsmaßes,
- Umformung der Rohtextur in eine generalisierte Textur (5) des virtuellen Objektes mit einem Ersetzen sämtlicher Rohtexturelemente durch Bibliothekselemente.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das projizierte fotografische Abbild zum Erzeugen der Rohtextur aus einem georeferenzierten terrestrischen Digitalfoto gewonnen wird.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das projizierte fotografische Abbild aus einem Luftbild, insbesondere einer Nadir- oder Schrägsichtaufnahme, gewonnen wird.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass
Bildbearbeitungsschritte für eine Bildverbesserung zur Beseitigung von Störungen der Rohtextur, insbesondere eine Abschwächung und/oder eine Eliminierung nachteiliger Schattenkanten und Unscharfen mittels geeigneter Verfahren ausgeführt werden.
5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Klassifikationsverfahren zum Lokalisieren des Rohtexturelementes eine Positions-, Form-, Färb-, Flächen- und/oder Kantenerkennung gemäß vorab definierter Suchparameter einschließt, wobei das lokalisierte Rohtexturelement mindestens hinsichtlich seiner Position, Form, Farbe, Flächen- und/oder Kantenstruktur und dergleichen Merkmalen selektiert wird.
6. Verfahren nach Anspruch 1 und 5, dadurch gekennzeichnet, dass bei skalierungsabhängigen Merkmalen des Rohtexturelementes, insbesondere einer Höhe und Breite und/oder einer Bildpunktanzahl eine Umskalierung des Rohtexturelementes auf eine normierte Vergleichsgröße ausgeführt wird und die normierter Vergleichsgröße ein Bestandteil der formalen Merkmalsmenge des Rohtexturelementes bildet.
7. Verfahren nach Anspruch 1 und 5, dadurch gekennzeichnet, dass skalierungsunabhängige Merkmale des Rohtexturelementes, insbesondere Farbwerte, eine absolute Vergleichsgröße in der formalen Merkmalsmenge des Rohtexturelementes bilden .
8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Vergleich der formalen Merkmalsmenge des Rohtexturelementes und der Merkmalsmenge jeweils eines Bibliothekselementes einen Vergleich der normierten Vergleichsgrößen einschließt, wobei ein Ähnlichkeitstest auf ein unter der Skalierung invariantes Verhältnis zwischen einer ersten normierten Vergleichsgröße und einer zweiten normierten Vergleichsgröße ausgeführt wird.
9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Vergleich der formalen Merkmalsmenge des Rohtexturelementes und der Merkmalsmenge jeweils eines Bibliothekselementes einen Vergleich der absoluten Vergleichsgrößen einschließt, wobei ein Test auf eine größtmögliche Übereinstimmung der absoluten Vergleichsgrößen ausgeführt wird.
10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei der Ermittlung des Ähnlichkeitsmaßes ein Übereinstimmungsgrad der absoluten Vergleichsgrößen und/oder eine Konstanz des invarianten Verhältnisses ausgewertet wird.
11. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Ähnlichkeitsmaß vorab definiert wird, wobei alle Bibliothekselemente mit einem innerhalb eines Toleranzbereiches liegenden Ähnlichkeitsmaß als Auswahloptionen für das Rohtexturelement ausgegeben werden .
12. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Ersetzen des Rohtexturelementes durch das Bibliothekselement durch ein Ausschneiden der Punktmenge des Rohtexturelementes aus der Rohtextur und ein Einsetzen der Punktmenge des mindestens einen Bibliothekselementes in die Rohtextur ausgeführt wird.
13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass das Ersetzen einen Schritt für eine manuell ausgeführte Nachbearbeitung einschließt.
14. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass nicht klassifizierte Abschnitte der Rohtextur als Pixelgruppen, insbesondere Bitmaps, in die generalisierte Textur eingefügt werden.
15. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei dem Umformen der Rohtextur in die generalisierte Textur mindestens teilweise eine Kachelung des virtuellen Objektes durch ein wiederholtes Einfügen eines angepassten Bibliothekselementes erfolgt.
PCT/EP2007/008825 2006-10-11 2007-10-10 Verfahren zur texturierung virtueller dreidimensionaler objekte WO2008043550A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US12/311,684 US8705843B2 (en) 2006-10-11 2007-10-10 Method for texturizing virtual three-dimensional objects
CA2671661A CA2671661C (en) 2006-10-11 2007-10-10 Method for texturing virtual three-dimensional objects
AT07818896T ATE459063T1 (de) 2006-10-11 2007-10-10 Verfahren zur texturierung virtueller dreidimensionaler objekte
EP07818896A EP2016561B1 (de) 2006-10-11 2007-10-10 Verfahren zur texturierung virtueller dreidimensionaler objekte
DE502007002939T DE502007002939D1 (de) 2006-10-11 2007-10-10 Verfahren zur texturierung virtueller dreidimensionaler objekte

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE102006048241.7 2006-10-11
DE102006048241 2006-10-11
DE102007030781A DE102007030781A1 (de) 2006-10-11 2007-07-03 Verfahren zur Texturierung virtueller dreidimensionaler Objekte
DE102007030781.2 2007-07-03

Publications (1)

Publication Number Publication Date
WO2008043550A1 true WO2008043550A1 (de) 2008-04-17

Family

ID=38969354

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2007/008825 WO2008043550A1 (de) 2006-10-11 2007-10-10 Verfahren zur texturierung virtueller dreidimensionaler objekte

Country Status (7)

Country Link
US (1) US8705843B2 (de)
EP (1) EP2016561B1 (de)
AT (1) ATE459063T1 (de)
CA (1) CA2671661C (de)
DE (2) DE102007030781A1 (de)
ES (1) ES2343596T3 (de)
WO (1) WO2008043550A1 (de)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7424133B2 (en) 2002-11-08 2008-09-09 Pictometry International Corporation Method and apparatus for capturing, geolocating and measuring oblique images
US7873238B2 (en) 2006-08-30 2011-01-18 Pictometry International Corporation Mosaic oblique images and methods of making and using same
US9262818B2 (en) 2007-05-01 2016-02-16 Pictometry International Corp. System for detecting image abnormalities
US7991226B2 (en) 2007-10-12 2011-08-02 Pictometry International Corporation System and process for color-balancing a series of oblique images
US8531472B2 (en) 2007-12-03 2013-09-10 Pictometry International Corp. Systems and methods for rapid three-dimensional modeling with real façade texture
DE102008023269A1 (de) 2008-05-13 2009-11-19 Rheinmetall Waffe Munition Gmbh Optisches System bzw. Verfahren zur verbesserten Zielerkennung
US8588547B2 (en) 2008-08-05 2013-11-19 Pictometry International Corp. Cut-line steering methods for forming a mosaic image of a geographical area
US8401222B2 (en) 2009-05-22 2013-03-19 Pictometry International Corp. System and process for roof measurement using aerial imagery
US9330494B2 (en) 2009-10-26 2016-05-03 Pictometry International Corp. Method for the automatic material classification and texture simulation for 3D models
JP5602618B2 (ja) * 2010-06-10 2014-10-08 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
US8477190B2 (en) 2010-07-07 2013-07-02 Pictometry International Corp. Real-time moving platform management system
US8823732B2 (en) 2010-12-17 2014-09-02 Pictometry International Corp. Systems and methods for processing images with edge detection and snap-to feature
EP2495688A1 (de) * 2011-03-02 2012-09-05 Harman Becker Automotive Systems GmbH Stockwerkzahlbestimmung in Gebäuden
CA2835290C (en) 2011-06-10 2020-09-08 Pictometry International Corp. System and method for forming a video stream containing gis data in real-time
US9183538B2 (en) 2012-03-19 2015-11-10 Pictometry International Corp. Method and system for quick square roof reporting
US9314692B2 (en) * 2012-09-21 2016-04-19 Luxand, Inc. Method of creating avatar from user submitted image
US9244272B2 (en) 2013-03-12 2016-01-26 Pictometry International Corp. Lidar system producing multiple scan paths and method of making and using same
US9753950B2 (en) 2013-03-15 2017-09-05 Pictometry International Corp. Virtual property reporting for automatic structure detection
US9275080B2 (en) 2013-03-15 2016-03-01 Pictometry International Corp. System and method for early access to captured images
US10140758B1 (en) 2013-06-27 2018-11-27 The Boeing Company Texturing models of structures
US9349211B1 (en) * 2013-06-27 2016-05-24 The Boeing Company Texturing models of structures
AU2015204838B2 (en) 2014-01-10 2020-01-02 Pictometry International Corp. Unmanned aircraft structure evaluation system and method
US9292913B2 (en) 2014-01-31 2016-03-22 Pictometry International Corp. Augmented three dimensional point collection of vertical structures
CA2938973A1 (en) 2014-02-08 2015-08-13 Pictometry International Corp. Method and system for displaying room interiors on a floor plan
EP3238179A4 (de) 2014-12-22 2020-10-28 Robert Bosch GmbH System und verfahren zur erzeugung von prozeduralen fensterbeleuchtungseffekten
US10133830B2 (en) * 2015-01-30 2018-11-20 Hover Inc. Scaling in a multi-dimensional building model
EP3104337A1 (de) 2015-06-11 2016-12-14 Utopian City Scape Holding ApS Visualisierung von computermodellen von städtischen umgebungen
MX2018007935A (es) 2016-01-08 2018-08-09 Pictometry Int Corp Sistemas y metodos para tomar, procesar, recuperar y visualizar imagenes desde vehiculos aereos no tripulados.
AU2017221222B2 (en) 2016-02-15 2022-04-21 Pictometry International Corp. Automated system and methodology for feature extraction
US10671648B2 (en) 2016-02-22 2020-06-02 Eagle View Technologies, Inc. Integrated centralized property database systems and methods
CN106682424A (zh) * 2016-12-28 2017-05-17 上海联影医疗科技有限公司 医学图像的调节方法及其系统
US10354433B2 (en) 2017-07-11 2019-07-16 Here Global B.V. Method and apparatus for generating an abstract texture for a building facade or model
CN114245013A (zh) * 2021-12-16 2022-03-25 上海索凯丽思多媒体科技有限公司 一种虚拟拍摄系统及拍摄方法
CN115953330B (zh) * 2023-03-13 2023-05-26 腾讯科技(深圳)有限公司 虚拟场景图像的纹理优化方法、装置、设备和存储介质
CN116843862B (zh) * 2023-08-29 2023-11-24 武汉必盈生物科技有限公司 一种三维薄壁模型网格表面纹理合成方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120374A (ja) * 1997-10-09 1999-04-30 Csk Corp 3次元都市景観情報の作成方法および装置
DE19920709A1 (de) * 1999-05-05 2000-11-16 Siemens Ag Verfahren zum Gewinnen einer dreidimensionalen Kartendarstellung und Navigationssystem
WO2002019273A2 (en) * 2000-08-29 2002-03-07 Harris Corporation Texture mapping system used for creating three-dimensional urban models
US20050128212A1 (en) * 2003-03-06 2005-06-16 Edecker Ada M. System and method for minimizing the amount of data necessary to create a virtual three-dimensional environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120374A (ja) * 1997-10-09 1999-04-30 Csk Corp 3次元都市景観情報の作成方法および装置
DE19920709A1 (de) * 1999-05-05 2000-11-16 Siemens Ag Verfahren zum Gewinnen einer dreidimensionalen Kartendarstellung und Navigationssystem
WO2002019273A2 (en) * 2000-08-29 2002-03-07 Harris Corporation Texture mapping system used for creating three-dimensional urban models
US20050128212A1 (en) * 2003-03-06 2005-06-16 Edecker Ada M. System and method for minimizing the amount of data necessary to create a virtual three-dimensional environment

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BEKINS D ET AL: "Build-by-Number: Rearranging the Real World to Visualize Novel Architectural Spaces", VISUALIZATION, 2005. VIS 05. IEEE MINNEAPOLIS, MN, USA OCT. 23-28, 2005, PISCATAWAY, NJ, USA,IEEE, 23 October 2005 (2005-10-23), pages 143 - 150, XP010853156, ISBN: 0-7803-9462-3 *
VANDE VELDE LINDE: "Tele Atlas 3d navigable maps", WORKSHOP ON NEXT GENERATION INTERNET, XX, XX, 21 June 2005 (2005-06-21), pages 47 - 50, XP002449676 *

Also Published As

Publication number Publication date
EP2016561B1 (de) 2010-02-24
DE502007002939D1 (de) 2010-04-08
US8705843B2 (en) 2014-04-22
US20100202682A1 (en) 2010-08-12
CA2671661A1 (en) 2008-04-17
CA2671661C (en) 2015-11-24
EP2016561A1 (de) 2009-01-21
ATE459063T1 (de) 2010-03-15
ES2343596T3 (es) 2010-08-04
DE102007030781A1 (de) 2008-04-17

Similar Documents

Publication Publication Date Title
EP2016561B1 (de) Verfahren zur texturierung virtueller dreidimensionaler objekte
DE69332286T2 (de) Verfahren und Vorrichtung zur Verarbeitung von Farbbildern
DE69902262T2 (de) Animationssystem und verfahren zum definieren und anwenden von regelbasierten gruppen von objekten
DE69830767T2 (de) Verfahren und Vorrichtung zum Zusammensetzen geschichteter synthetischer graphischer Filter
DE69534695T2 (de) Verfahren und Vorrichtung zum Erzeugen von Mustern
DE3750784T2 (de) Generation eines intrapolierten charakteristischen Wertes zur Anzeige.
DE69418932T2 (de) Verfahren zur automatischen Bestimmung von Farbtrennflächen zur Korrektur von Fehlüberdeckungen beim Mehrplatten-Farbdruck
DE69802802T2 (de) Verfahren und vorrichtung zum ändern der farbe eines bildes
DE102007021697A1 (de) System und Verfahren für Gitter- und Körperhybridmodellierung unter Benutzung von 3D-Abtastdaten
WO2001045033A2 (de) Verfahren zur verarbeitung von datenstrukturen
DE3335162A1 (de) Vorrichtung und verfahren fuer graphische darstellungen mittels computern
DE19612016A1 (de) Verfahren zur rechnergestützten Geometriemodellierung
DE102007043923A1 (de) System und Verfahren zum Berechnen von Verbundflächen unter Verwendung von 3D-Abtastdaten
DE102007040070A1 (de) Bilddichteumwandlungsverfahren, Bildverbesserungsverarbeitungseinrichtung und dafür geeignetes Programm
DE202017007534U1 (de) Multiskalige 3D-Textursynthese
DE102022112888A1 (de) Benutzerschnittstellen und Verfahren zum Erzeugen eines neuen Artefakts auf der Grundlage vorhandener Artefakte
EP0858051A2 (de) Verfahren zum Segmentieren eines digitalen Bildes
DE10336492A1 (de) Vorrichtung zur Bearbeitung eines zweidimensionalen Bildes in einem dreidimensionalen Raum
EP0870275B1 (de) Verfahren zur mustererkennung und verfahren zum erstellen eines n-dimensionalen objektes
DE60305027T2 (de) Verfahren zur Bereitstellung eines Vektorbildes mit entfernten versteckten Linien
EP3718075B1 (de) Verfahren zur herstellung eines personen porträts für ein ausweisdokument
EP4046595A1 (de) Verfahren zur festlegung einer zahnfarbe
EP0865002A2 (de) Verfahren und Vorrichtung zur Darstellung computermodellierter Objekte
DE19624489B4 (de) Verfahren zur Herstellung von Baumaterial
DE102019217951A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Domänendistanz zwischen mindestens zwei Datendomänen

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2007818896

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07818896

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2671661

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 12311684

Country of ref document: US