EP1665815A2 - Method for creating a stereoscopic image master for imaging methods with three-dimensional depth rendition and device for displaying a stereoscopic image master - Google Patents

Method for creating a stereoscopic image master for imaging methods with three-dimensional depth rendition and device for displaying a stereoscopic image master

Info

Publication number
EP1665815A2
EP1665815A2 EP04764457A EP04764457A EP1665815A2 EP 1665815 A2 EP1665815 A2 EP 1665815A2 EP 04764457 A EP04764457 A EP 04764457A EP 04764457 A EP04764457 A EP 04764457A EP 1665815 A2 EP1665815 A2 EP 1665815A2
Authority
EP
European Patent Office
Prior art keywords
image
virtual
dimensional
spatial
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP04764457A
Other languages
German (de)
French (fr)
Inventor
Armin Grasnick
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE10348618A external-priority patent/DE10348618B4/en
Application filed by Individual filed Critical Individual
Publication of EP1665815A2 publication Critical patent/EP1665815A2/en
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals

Definitions

  • the invention relates to a method for creating a spatial image template according to the preamble of claim 1 and a device for displaying a spatial image template according to the preamble of claim 16.
  • Three-dimensional objects are only imaged two-dimensionally with monocular recording devices. The reason for this is that these objects are recorded from a single observation location and from only one observation angle.
  • the spatial object is projected onto a film, a photovoltaic receiver, in particular a CCD array or another light-sensitive surface.
  • a spatial impression of the depicted object only arises when the object is recorded from at least two different observation points or at least two different viewing angles and presented to an observer in such a way that the two two-dimensional monocular images are perceived separately by both eyes and in their physiological Perceptual apparatus can be put together.
  • the monocular individual images are combined to form a spatial image template which, using a suitable imaging method, leads to a spatial image impression on the viewer.
  • Such methods are also referred to as "anaglyph technique”.
  • a spatial image template that can be used for such a method can be present or created in various ways.
  • the simplest example is the well-known stereo slide viewer, in which the viewer looks at an image motif taken from a different angle with one eye each.
  • the image produced from the first viewing angle is colored with a first color and the other image photographed from the second viewing angle with a second color. Both images are printed on top of one another or projected on top of one another with a displacement corresponding to the natural difference in the angle of view of the human eyes or the difference in the angle of view of the camera system, in which case the viewer uses two-color glasses to view the image.
  • the other viewing angle component is filtered out through the correspondingly colored spectacle lens.
  • Each eye of the viewer thus receives one corresponding to the Different image from different angles, whereby the viewer creates a spatial impression of the original image.
  • a method is advantageous if data from a stereo camera are to be transmitted and displayed in real time and with little expenditure on equipment.
  • simulated spatial images are also represented with such a method for generating a spatial image template, the viewer being able to get a better impression of complicated spatial structures, for example complicated simulated molecular structures and the like.
  • the object is therefore to specify a method for creating spatial image templates from two-dimensional image data, in particular image data from image sequences, video films and the like, in which a spatial image template for an imaging method with spatial depth effect is generated from a two-dimensional image.
  • archetype is understood to mean the initially given monocularly produced two-dimensional image. It is immediately clear that an application of the method according to the invention described below can also be applied to sequences of such archetypes and therefore also readily for moving images , in particular video or film recordings, can be used, provided that these consist of a series of successive images or can be transferred to them.
  • a virtual three-dimensional image structure based on presumption-based image depth grading is generated on the basis of image information of images of objects determined from monocular master image data.
  • the original image data are adapted to the virtual three-dimensional image framework to generate a virtual three-dimensional image model.
  • the data of the virtual three-dimensional image model are used as a template for creating the spatial image template for the imaging method with spatial depth effect.
  • the objects depicted on the two-dimensional image are thus initially determined. Then these objects are each assigned a guess about their depth.
  • a virtual three-dimensional model is created, the original image data of the two-dimensional image being adapted to this virtual three-dimensional model.
  • This virtual three-dimensional model now forms a virtual object, the data of which represent the starting point for generating the spatial image template.
  • a method for edge detection of the depicted objects with generation of an edge-marked image is carried out on the monocular master image data in order to determine the image information.
  • original image areas are assigned to different virtual depth planes, in particular a background and / or foreground, on the basis of a determined richness of edges.
  • the knowledge is used that objects that are rich in detail and thus have many edges generally belong to a different image depth and thus depth level than objects that are poor in detail and therefore also poor in edges.
  • the step of edge detection accordingly sorts out components of the original image that are assumed to be in the background of the image and separates them from those that are suspected in the foreground or a further depth plane.
  • a method for determining the color information of given archetype areas is carried out.
  • at least first identified color information is assigned to a first virtual depth level and second color information to a second virtual depth level.
  • a softening method is used on the edge-marked image to reinforce and unify an edge-rich archetype area.
  • this compensates for possible errors in edge detection and, on the other hand, strengthens adjacent, not randomly specified structures.
  • the values of the edge-marked image can also be corrected for tonal values.
  • an assignment of a relevant image section to a depth plane is carried out based on the tonal value of a pixel.
  • the structures of the edge-marked image, which is softened and optionally tonally corrected, are now assigned to individual defined depth levels depending on their tonal value.
  • the edge-marked, soft-drawn and optionally tone-corrected image therefore forms the basis for a clear assignment of the individual image structures to the depth levels, such as the defined virtual background, a virtual image level or a virtual foreground.
  • the color and / or tonal values are limited to a predetermined value. This defines a virtual pivot point for the individual views to be created later.
  • the selected color and / or tonal value forms a reference value, which is assigned to a virtual image plane and thus separates a virtual deep background from a foreground that virtually protrudes from the image plane.
  • a virtual depth level can be assigned in different ways.
  • the method steps already described expediently suggest an assignment of a depth level to a respectively predetermined color and / or brightness value of an image pixel.
  • Objects with image pixels, which thus have the same color and / or brightness values, are thus assigned to a depth level.
  • the virtual three-dimensional image structure is generated as a virtual network structure deformed in accordance with the virtual depth planes, and the two-dimensional original image is adapted as texture to the deformed network structure in a mapping process.
  • the network structure forms a kind of virtual three-dimensional "die” or "profile shape", while the two-dimensional archetype represents a kind of "elastic cloth” that is stretched over the die and pressed into the die in a kind of virtual "deep-drawing process”.
  • the result is a virtual three-dimensional image model with the image information of the two-dimensional archetype and the "virtual thermoforming structure" of the virtual three-dimensional matrix additionally impressed on the archetype.
  • Virtual binocular or multi-ocular views can be derived from this three-dimensional image model. This is done by generating a series of virtual individual images representing the views of the virtual three-dimensional image model from the series of virtual three-dimensional image models, in which the image sections of the original image corresponding to a defined depth plane are shifted and / or displaced in accordance with the virtual observation angle be distorted.
  • the virtual three-dimensional image model thus serves as a virtual spatial object that is viewed virtually binocularly or multiocularly, whereby virtual views are obtained that differ according to the observation angles.
  • virtual individual images are combined according to an algorithm suitable for the imaging method with additional spatial effect for generating a spatial image template.
  • the virtual single images are treated like real binocular or multi-ocular single images, which are now suitably prepared and combined for a three-dimensional display process. This means that virtually binocular or multi-ocular image information is available that can be used for any spatial imaging method.
  • image processing of individual image areas of the original image in particular scaling and / or rotating and / or mirroring, is carried out and the spatial image template generated in this way is displayed by means of a monofocal lenticular screen lying above it.
  • the image structures which are assigned to certain depth levels in the virtual three-dimensional image model, are changed in such a way that, when the spatial image template generated in this way is displayed, they offer a sufficient accommodation stimulus for the viewing human eye.
  • the image structures highlighted in this way are perceived by means of the optical image through the lenticular screen either in front of or behind the given image plane and thus lead to a spatial impression when viewing the image.
  • This method only requires a relatively simple spatial image template in connection with a simple implementation of the imaging method with spatial depth effect.
  • the two-dimensional archetype can also be displayed directly without image processing using the monofocal lenticular grid.
  • the two-dimensional archetype can thus be used immediately as a spatial image template for display by the monofocal lenticular screen.
  • Such a procedure is particularly expedient if simple image structures against a homogeneously structured background, in particular characters against a uniformly designed text background, are to be displayed with a depth effect.
  • the accommodation stimulus achieved by the imaging effect of the monofocal lenticular grid for the viewing eye then causes a depth effect, the original image itself not having to be prepared beforehand for such a display.
  • a device for displaying a spatial image template is characterized by a two-dimensional spatial image template and a monofocal lens grid arranged above the spatial image template.
  • the monofocal lenticular grid depicts areas of the spatial image template and creates a corresponding accommodation stimulus in the eye looking at it.
  • the two-dimensional image template is expediently made from a mosaic of image sections assigned to the raster structure of the lenticular screen, wherein essentially one image section each is an imaging object for essentially one associated lens element of the monofocal lenticular screen.
  • the two-dimensional image template is therefore divided into a total of individual image areas, which are each indicated by a lens element.
  • the image sections are essentially unchanged image components of the two-dimensional image template of the original image.
  • the essentially unchanged two-dimensional image forms the spatial image template for the lenticular screen.
  • image processing of individual image areas is therefore dispensed with.
  • the image sections are scaled and / or mirrored and / or rotated to compensate for the imaging effects of the lenticular screen. This results in an improved image quality, although the effort for creating the spatial image template increases.
  • the two-dimensional image template is in particular an image generated on a display, while the lenticular screen is attached to the surface of the display.
  • the lenticular screen is thus attached to a pre-existing display, for example a tube or flat screen, at a suitable location and is thus located above the image shown on the display. This arrangement can be implemented in a very simple manner.
  • the lenticular grid is designed as a grid-like Fresnel lens arrangement that adheres to the display surface.
  • the use of Fresnel lenses ensures a flat and simple design of the lenticular grid, the groove structures typical of Fresnel lenses being able to be worked into a transparent plastic material, in particular a plastic film, in the manner known from the prior art.
  • the lenticular grid is designed as a grid-like, in particular flexible, zone plate arrangement adhering to the display surface.
  • a zone plate is a concentric system of light and dark rings, which cause light to bundle the light that passes through it, thereby creating an imaging effect.
  • Such an embodiment can be produced by printing on a transparent, flexible film in a low-cost and inexpensive manner.
  • the lenticular grid is also possible as an arrangement of conventionally shaped convex lenses, although the thickness of the entire arrangement and thus also its material consumption increases.
  • FIG. 5b shows an exemplary edge-marked image as a result of an edge detection carried out on the exemplary original image from FIG. 5a
  • 6a shows an exemplary result of a soft focus carried out on the edge-marked image according to FIG. 5b
  • 6b shows an exemplary result of a tonal value correction carried out on the edge-marked image according to FIG. 6a
  • FIG. 8b shows a schematic example of a depth level assignment of the graphic objects from FIG. 8a and a generation of a virtual three-dimensional image model along exemplary sections along the lines A-A and B-B from FIG. 8a,
  • FIG. 9a shows a schematic example of a virtual binocular view and projection of the virtual three-dimensional image model along the line A-A from FIGS. 8a and 8b,
  • FIG. 9b shows a schematic example of an exemplary virtual binocular view and projection of the virtual three-dimensional image model along the line B-B from FIGS. 8a and 8b,
  • FIG. 10 shows a schematic example of virtual single image generation from an exemplary viewing angle along the exemplary line A-A according to FIG. 9a
  • 11a shows a series of exemplary virtual single images from different viewing angles using the original image from FIG. 5a
  • 11b shows an exemplary combination of the virtual single images shown in FIG. 11a in an exemplary spatial image template for an imaging method with additional depth effect
  • 12a, b are exemplary representations of a two-dimensional image template and a monofocal lenticular screen located above it
  • 13a-c show exemplary representations of an image of a two-dimensional image section by means of the monofocal lenticular screen of the previous images.
  • FIGS. 1 and 3 show in two parts an exemplary schematic flow chart of the method.
  • Figure 2 illustrates an edge detection method in a more detailed flow chart.
  • FIGS. 4 to 11b show exemplary results and further details of the method according to the invention explained in the flowcharts.
  • the starting point of the method is a set of original image data 10 of a predefined two-dimensional, expediently digitized, original image. If the original image is a single image as part of an image sequence or a digitized film, the following description assumes that all further individual images of the image sequence can be processed in a manner corresponding to the single image. Therefore, the method described below by way of example can also be used for image sequences, films and the like.
  • the original image data 10 are present in an image file, a digital storage device or a comparable storage unit.
  • These data can be generated by the usual means for generating digitized image data, in particular by a known scanning process, digital photography, digitized video information and the like, other known image acquisition methods.
  • this also includes image data obtained from video or film sequences using so-called frame grabbers.
  • all known image formats in particular the BMP, JPEG, PNG, TGA, TIFF or EPS format, can be used as data formats in all the respective versions.
  • the master image data 10 are loaded into a working memory in a read-in step 20 for executing the method.
  • the original image data are first adapted for an optimal process execution.
  • Adjusting 30 the image properties includes at least changing the image size and color model of the image. Smaller images are generally preferred if the computing time of the method is to be minimized. However, a change in image size can also be a possible source of error for the method according to the invention.
  • all color models currently in use, in particular RGB and CMYK or grayscale models, but also lab, index or duplex models can be used as the color model to be adapted, depending on requirements.
  • the adapted image data are temporarily stored in a step 40 for repeated access.
  • the temporarily stored image data 50 essentially form the basis of all subsequent data operations.
  • an access to the temporarily stored image data 50 now either results in a change in the color channel / color distribution 60 or a conversion of the image data into a gray value graded image by means of a gray value gradation 70
  • the gray value gradation 70 is particularly advantageous when it can be assumed that depth information is predominantly to be assigned to the object contours shown on the image. In this case, all color information of the image is equally relevant for a deep interpretation of the original image and can therefore be converted into gray values in the same way.
  • a modification of the color channel or the color distribution in the image data is expedient if it can be assumed that essentially one color channel is the carrier of the interpreted depth information and should therefore be particularly emphasized or taken into account for the subsequent processing.
  • the temporarily stored image data 50 are converted into gray values independently of their color values, the color information remaining unchanged.
  • An edge detection 80 follows in the further course of the method. The assumption is that the depth planes interpreted into the two-dimensional archetype are primarily defined by the objects present in the image motif.
  • edge detection method 80 is carried out in order to uniquely identify the different areas of the original image which, because of their structure, belong to different depth planes and to differentiate them from one another as clearly as possible.
  • FIG. 2 shows a schematic and exemplary flow chart for edge detection.
  • FIG. 4 shows in connection therewith an exemplary input menu 89 for determining the changes to be made to the brightness values of a central pixel and a defined pixel environment.
  • the image pixels 81 defined by their gray value are continuously processed in a loop process.
  • a pixel 82 is selected and its brightness value 83 is read in.
  • This brightness value is multiplied by a positive value that is as large as possible (in the example shown here by the arbitrary value +10), which produces a very bright image pixel 85.
  • a brightness value of a pixel to the right of it is multiplied by a strong negative value (in the example shown here by -10) in a step 86, whereby a very dark pixel 87 is generated.
  • the next pixel is then read in in a step 88.
  • the result of the edge detection is an edge-marked image.
  • the edge-marked image data now given consist of a structure of very light or very dark pixels, while low-structure and therefore low-contour and low-edge image areas have a uniform dark color.
  • the structure of the alternating very bright and very dark pixels and the object marked with them therefore has a higher average brightness value than an area of consistently dark pixels.
  • Brightness values of a certain selected pixel amount in the edge-marked image are averaged according to a certain algorithm and assigned to the pixels of the selected amount.
  • a Gaussian soft focus method has proven particularly useful here.
  • the object structures stand out as a lighter pixel set from the rest of the image and enable identification of a uniform object.
  • a tonal value correction of the edge-marked blurred image can then be carried out in a step 100.
  • the tonal values of the image points are preferably corrected in such a way that there is as clear a contrast as possible between the object structure and the rest defined as the background of the image.
  • the next method step is designated by a fixed point determination 110.
  • the color and / or gray values of the edge-marked, blurred image are limited to a certain value in such a way that the virtual pivot point of the virtual individual views to be generated is defined.
  • the fixed point definition 110 defines the objects or structures which are supposed to be virtually located in front of or behind the image surface and are to be subsequently imaged in their depth effect.
  • a first assumption can be made that larger blue areas predominantly form a background (blue sky, water, etc.), while smaller, sharply delineated objects that stand out in terms of color form the foreground of the image.
  • Certain color values can also be assigned certain virtual depth levels from the start. For example, color values that correspond to a face color can be assigned to a virtual depth level that corresponds to an average image depth.
  • image sections such as, for example, the image edge or the center of the image, can likewise be assigned to certain depth levels, for example the foreground or the background, in which case a “pre-tensioning” or “arching” of the spatial image produced later can be generated.
  • the gradations of the virtual depth planes generated in this way produce a virtual three-dimensional image structure which serves as a distortion mask or "displacement map" and can be visualized in the form of a grayscale mask.
  • This virtual three-dimensional image structure is stored in a step 130 for further use.
  • the virtual three-dimensional image framework serves as a distortion mask and virtual form for generating a virtual three-dimensional image model.
  • a method step 150 which is referred to in FIG. 3 as "Displace"
  • the original image is placed as a texture over the virtual image frame and distorted in such a way that the corresponding original image sections are "deep-drawn" on the virtual depth planes, i.e. be assigned to these depth levels.
  • virtual individual images 160 of the virtual three-dimensional image model are now generated from a number of different virtual viewing angles by virtual projection of the image data of the virtual three-dimensional image model in accordance with known perspective mapping laws.
  • a combination step 170 the virtual individual images are combined in accordance with an algorithm defined for the imaging method with an additional depth effect in such a way that finally image data 180 are available for the three-dimensional imaging of the initial original image.
  • 5a shows a generally colored, two-dimensional archetype 200.
  • a number of plants are obviously in the foreground of the image motif, while indistinct port facilities, buildings and a largely structureless beach are evident in the background are.
  • the practically infinite background in the original image 200 is formed by a soft sky.
  • FIG. 5b shows an edge-marked image 210 obtained from the original image 200 after a gray scale conversion and an optional size correction.
  • the edge-marked image 210 shows a large number of bright pixels Edges that lead to a higher average image brightness, especially in the right image area.
  • both the sky and the beach area from the original image 200 are low-edged and therefore predominantly dark in the edge-marked image 210, while the buildings recognizable in the original image 200 produce a few edge structures in the form of isolated bright pixels.
  • FIGS. 6a and 6b show a soft-drawn edge-marked image 220 and a soft-drawn edge-marked and additionally tone-corrected image 230. It can be seen on the soft-drawn image 220 that the right image part differs from the left image part by a higher image brightness value. This difference is shown even more clearly in the tone-corrected image 230 in FIG. 6b.
  • the richness of edges in the area of the plants of the archetype in other words the richness of structure of the assumed foreground, is clearly shown in pictures 220 and 230 as a bright area.
  • a slightly lighter stripe can be clearly seen in the tone-corrected image 230 on the left half of the image, which is, however, significantly darker than the image area of the plants. This stripe corresponds to the depicted buildings from the original image 200 from FIG. 5a.
  • the significantly darker brightness value refers to the structure of the depicted buildings with less edges and thus to their arrangement in the assumed image background.
  • the sky and the beach from the original image 200 form a uniformly dark surface.
  • the beach is to be counted as the middle foreground of the picture rather than the background formed by the sky, it is not possible to clearly determine the middle foreground position from the edge-marked, soft-drawn and tonal-corrected picture alone.
  • 7a shows an exemplary menu 239 in this regard
  • FIG. 7b the image 240 corresponding to the menu.
  • a histogram 241 shows a series of color channels, which in the exemplary embodiment shown in FIG. 7a are a series of gray values.
  • the corresponding gray values are shown in a gray value bar 242.
  • the dark brightness values in the right part the light brightness values.
  • the size of the histogram bar shows the frequency distribution of the corresponding gray values. It can be seen that the bright area of the soft-drawn or tonally corrected image 220 or 230 is shown in a wide maximum of the histogram 241, while the dark areas in the images 220 and 230 become a maximum in the left part of the histogram 241 in the dark Brightness values.
  • Certain brightness values can be selected by means of indicator pointers 243. With the help of the buttons 245, brightness values of selected pixels can be read out directly from the image 241 into the histogram 241 and transmitted.
  • the area corresponding to the beach from the original image 200 differs in its brightness value from the image section corresponding to the sky from the original image 210.
  • This can be selected as a virtual image plane using a selection indicator 244 and forms a possible fixed point for virtual individual views of the virtual three-dimensional image model to be generated later.
  • FIGS. 8a and 8b use a very highly schematic example to show a depth level assignment and a construction of a virtual three-dimensional image frame.
  • FIG. 8a shows a highly schematic, monocularly generated two-dimensional archetype 301, the individual objects of which in their spatial position in the image have already been identified by the contour recognition methods described above.
  • the schematic master image 301 shown by way of example in FIG. 8a has a first object 303, a second object 304 and a third object 305, which are arranged in front of an area 306 identified as background and stand out from the latter.
  • the object 303 is arranged in this virtual “height profile” on the top depth level, while the object 304 is assigned to a depth plane below.
  • the object 305 forms a further depth plane in the virtual image structure in FIG. 8b.
  • the virtual depth plane of the image background 306 is arranged relatively close to the depth planes of the other objects 303, 304 and 305 in FIG. 8b.
  • An expedient virtual image structure expediently has to have depth level gradations which correspond to the presumed actual spatial position of the objects. Accordingly, the virtual depth plane of the image background should expediently be arranged such that its distance from the other defined depth planes of the virtual image framework corresponds to a multiple of the distances between the other.
  • the appropriate virtual distance between the depth plane of object 305 and the depth plane of background 306 must be a Realistic image structure expediently assume a size that is in the kilometer range, since experience has shown that objects in the background are depicted practically unchanged with small differences in the viewing angle.
  • the two-dimensional archetype is adapted to the virtual frame.
  • this is done in such a way that the image data of the original image 301, in particular the image information of the individual pixels, are virtually assigned to the individual depth planes in the virtual image frame.
  • a virtual three-dimensional image model is created which, in the example shown here, is comparable to an arrangement of “backdrops” in which the object 303 is virtually in the foreground at the level of a first virtual depth plane and the further “scenes” of objects 304 and 305 located on the levels of the corresponding other depth levels are “hidden”.
  • smooth transitions between the individual virtual depth levels can be achieved by refining the grid of the gradations of the virtual distances between the individual depth levels and by carrying out further gradations at the individual depth levels.
  • the edge of its depth plane in such a way that the object 303 receives a virtual spherical curvature.
  • the depth planes of the virtual image framework can be deformed in such a way that the image information of the two-dimensional archetype mapped thereon can in principle have any shape or distortion within the scope of an expedient or desired virtual three-dimensional image model, which either largely corresponds to a real three-dimensional body shape or also can be enriched with any artistic effects.
  • FIGS. 9a and 9b show a virtual three-dimensional image model 807 generated from the virtual image framework from FIG. 8b in section along the lines A - A and B - B from FIG. 8a and their virtual recordings from two viewing angles 351 and 352
  • the configuration shown in FIGS. 9a and 9b corresponds to a binocular view of a three-dimensional object, which is carried out virtually within the method.
  • the virtual three-dimensional objects 303, 304, 305 and 306 appear to be shifted differently from one another from the relevant virtual viewing angles 351 and 352. This perspective shift is the basis for the binocular or multi-ocular viewing of spatial objects and is virtually modeled within the scope of the method according to the invention.
  • Example of the section of the virtual three-dimensional image model from FIG. 9a To calculate the virtual perspective shift of the virtual objects of the Different three-dimensional image models can be used.
  • the principle of centric stretching is applied, the objects 303, 304 and 306 virtually sighted from the viewing angle 352 being projected onto a virtual projection plane 308 and thereby experiencing a change in size.
  • the projection plane can be virtually in front of the virtual three-dimensional image model as well as behind the three-dimensional image model.
  • a position of the virtual projection plane within the virtual three-dimensional image model for example in one of the screen planes determined during the fixed point determination, is also possible and even the most expedient, since such a projection best reflects binocular viewing conditions.
  • the viewing angle 352 simultaneously forms a projection center, the virtual three-dimensional image model being viewed as it were in a virtual “incident light method” in which the radiation source virtually coincides with the camera.
  • the projection center can be arranged virtually behind the background of the virtual three-dimensional image model and project the corresponding objects of the virtual depth planes as a “silhouette” onto an appropriately positioned projection plane that is viewed from a viewing angle.
  • the virtual projection they appear in the virtual foreground located objects are enlarged compared to the objects virtually behind them, which can create an additional spatial effect.
  • the virtual background can be projected onto a first projection level from a projection center that is located very far behind the virtual three-dimensional image model, while an arrangement of many, very densely graduated objects in the virtual foreground is projected through a second projection center that does not enlarge them Objects, but only a virtual displacement of these objects.
  • the choice of the virtual projection mechanisms or the number of viewing angles depends on the specific individual case, in particular on the image motif of the two-dimensional archetype, on the depth ratios interpreted into the archetype, on the desired and / or suppressed image effects and, last but not least, on the computing effort deemed appropriate and on the ultimately used spatial imaging method for which the spatial image template is to be generated.
  • any number of perspective single images with any number of arbitrarily arranged virtual projection centers, virtual projection planes, viewing angles, etc. can be generated from the virtual three-dimensional image model, the very simple exemplary embodiment shown in FIG. 10 only showing an unrepresentative, but only exemplary embodiment ,
  • FIG. 11 a shows a series of individual images 208 a to 208 d generated virtually according to one of the previously described projection methods from a virtual three-dimensional image model of the original image 200 shown as an example in FIG. 5 a.
  • the virtual individual images 208a to 208d are shown in black and white in this exemplary embodiment, they are generally colored.
  • a different deformation of this image section can be seen above all by comparing the flower structure shown in the upper part of the image. This arises from the virtual projection of the virtual three-dimensional image model for the respective, in this exemplary embodiment four virtual viewing angles.
  • FIG. 11 shows a spatial image template 209 combined from the virtual individual images 208a, 208b, 208c and 208d for an imaging method with spatial impression in conjunction with an enlarged image section 211 of the upper middle image part from the spatial image template 209.
  • the spatial image template 209 is made up of the individual images 208a-d combined with a depth effect for an imaging process used in each case.
  • FIGS. 12a and 12b show an exemplary two-dimensional original image 200, which is divided into a series of image sections 361.
  • the size of the individual image sections is in principle arbitrary and is essentially determined by the average size of the smallest closed image objects and the individual pixels. If it is assumed that clearly recognizable image structures lie in the foreground of the image, these must expediently be detected essentially as a unit by the image sections, so that they can be distinguished from other structures and offer the viewing eye a sufficient accommodation stimulus. This means that with an increasingly small grid for an increasing number of details, accommodation stimuli can be created, which lead to a deep impression on the viewer, provided that the individual image points, ie the image pixels, are not emphasized.
  • FIG. 12a shows a matrix-shaped grid of essentially square image sections.
  • Another division of the two-dimensional archetype 200 is, however, readily possible.
  • the hexagonal arrangement of circular image sections offers the advantage that a given image section has six immediate neighbors compared to the matrix-shaped image division, and thus there is a more homogeneous transition for the accommodating eye from a first image section to the immediate surroundings of the image.
  • the image sections 361 can contain preprocessed, in particular scaled, rotated or also mirrored image data with respect to several axes, which are carried out in advance with a view to compensating for the imaging effect of the lenticular screen.
  • the image sections form a mosaic that is actually present on the two-dimensional image template. 12a also shows that some image sections 361a contain predominantly structurally poor image information, while some other image sections 361b are particularly structurally rich.
  • the two-dimensional image template appears on a display surface 370, for example the fluorescent surface of a picture tube or the liquid-crystalline matrix of a flat screen, and is viewed through a display surface 375.
  • the monofocal lenticular grid 360 is arranged on the display surface 375 and can be designed, for example, as a transparent film which contains a number of matrix-like or hexagonally arranged Fresnel lenses or zone plates. The film itself adheres firmly to the display surface through adhesive, electrostatic forces or a transparent adhesive film.
  • Each lens element 365 of the lenticular screen forms an image section 361 located underneath it in such a way that it appears in front of or behind the image plane of the display 370 as a result of the enlargement thereby caused. Therefore, the lens elements 365 are designed such that the display surface is either just before or behind the individual focal points of the lenticular screen.
  • FIGS. 13a to 13c show an exemplary image detail 200a from the two-dimensional original image 200 shown in FIG. 12a with the changes in the image detail caused by the lens grid 360 or the local lens elements.
  • the image section 200a is formed by an unchanged part of the two-dimensional original image 200 from FIG. 12a, which is shown on the display 370. 13b, the image section 200a is divided by an arrangement of four exemplary image sections 361.
  • the two left-hand image sections 361a each contain more structureless and diffuse background information, while the right-hand image sections 361 show structure-rich content that is obviously located in the foreground of the image.
  • each of these image sections is imaged enlarged by a lens element 365.
  • the magnification factor when using a lens element with a focusing effect 365 is approximately 1: 2.
  • the left image parts 361a which contain a diffuse structure-free image background, also result in a slight accommodation stimulus when they are enlarged by the lenticular grid due to their structurelessness, while the two right image sections 361b from FIG. 13c contain structures which accommodate the Have your eyes on the image content displayed in this way.
  • the image contents of the right image sections 361b from FIG. 13c appear significantly closer to the viewer than the contents of the left image sections 361a.
  • the gaps generated during the imaging by the lenticular grid are compensated for and integrated by the mode of action of the physiological visual perception apparatus.
  • the imaging of the image sections 361 leads to a horizontally and vertically mirrored representation.
  • the individual image sections of the two-dimensional original image are prepared in the sequence of the image processing method mentioned above, in particular scaled or mirrored horizontally or vertically, so that their mapping leads back to the original starting image.
  • the strength of the preparatory scalings or reflections is derived on the basis of the magnification factor of the lenticular grid or the position of the objects to be represented, which is derived from the virtual three-dimensional image model, and is carried out in advance on the image sections.
  • the number, arrangement and size of the lens elements in the lenticular grid are selected such that the imaging factors for the entire image are insignificant.
  • this embodiment offers the advantage that image-intensive image preparations are sometimes omitted and the spatial image template can be easily recognized without a lenticular screen.
  • the image 200 acts as a normal two-dimensional image without a monofocal lenticular screen, while it appears staggered in depth as a result of the use of the lenticular screen, the depth effect being able to be brought about simply by attaching the lenticular screen, that is to say with very simple means.
  • archetype data 20 import of archetype data Adaptation of the original image data Buffering of the adapted original image data between stored image data optional color channel / color distribution change conversion into gray values edge recognition method data of the image pixel selection of the image pixel reading in of the brightness value of the image pixel increasing the brightness value image pixel with increased brightness value lowering the brightness value image pixel with reduced next brightness value Go to image menu
  • Edge detection soft focus procedure optional: tonal value correction fixed point definition optional: setting further fixed point options saving the grayscale mask created grayscale mask distorting the original image texture, creating the virtual three-dimensional image model, generating virtual single images virtual single images combination of the virtual single images image data for spatial imaging method exemplary two-dimensional original image a single image first virtual ldc third virtual single image d fourth virtual single image combined room image template a enlarged section of a combined room image template exemplary edge-marked image 220 exemplary edge-marked, blurred image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

The invention relates to a method for creating stereoscopic image masters from two-dimensional image data, in particular from image data emanating from image sequences, video films or similar. According to said method, a virtual three-dimensional image structure (307), based on an assumed three-dimensional gradation of image depth is created on the basis of the image information of reproduced objects (303, 304, 305, 306) that has been determined from monocular original-image data, whereby said original-image data is adapted to the virtual three-dimensional image structure (307) to create a virtual three-dimensional image master and a series of individual images that reproduce the virtual three-dimensional image model are obtained from the latter. The virtual individual images are merged in a combination step to form a stereoscopic image master for carrying out an imaging method with supplementary depth rendition.

Description

Beschreibung Verfahren zum Erstellen einer Raumbildvorlage für Abbildunosverfahren mit räumlichen Tiefenwirkungen und Vorrichtung zum Anzeigen einer Raumbildvorlage Die Erfindung betrifft ein Verfahren zum Erstellen einer Raumbildvorlage nach dem Oberbegriff des Anspruchs 1 und eine Vorrichtung zum Anzeigen einer Raumbildvorlage nach dem Oberbegriff des Anspruchs 16. Description: The invention relates to a method for creating a spatial image template according to the preamble of claim 1 and a device for displaying a spatial image template according to the preamble of claim 16.
Dreidimensionale Objekte werden mit monokularen Aufnahmeeinrichtungen nur zweidimensional abgebildet. Das liegt daran, daß diese Objekte von einem einzigen Beobachtungsstandort und unter nur einem Beobachtungswinkel aufgenommen werden. Bei einem derartigen Aufnahmeverfahren wird das räumliche Objekt auf einen Film, einen photovoltaischen Empfänger, insbesondere ein CCD-Array oder eine andere lichtempfindliche Fläche projiziert. Ein räumlicher Eindruck ergibt sich von dem abgebildeten Objekt erst dann, wenn das Objekt von mindestens zwei unterschiedlichen Beobachtungspunkten bzw. unter mindestens zwei verschiedenen Betrachtungswinkeln aufgenommen und einem Betrachter so präsentiert wird, daß die beiden zweidimensionalen monokularen Bilder von beiden Augen getrennt wahrgenommen und in dessen physiologischem Wahrnehmungsapparat zusammengefügt werden. Dazu werden die monokularen Einzelbilder zu einer Raumbildvorlage kombiniert, die unter Verwendung eines dafür geeigneten Abbildungsverfahrens zu einem räumlichen Bildeindruck beim Betrachter führen. Derartige Verfahren werden auch als „Anaglyphentechnik" bezeichnet.Three-dimensional objects are only imaged two-dimensionally with monocular recording devices. The reason for this is that these objects are recorded from a single observation location and from only one observation angle. With such a recording method, the spatial object is projected onto a film, a photovoltaic receiver, in particular a CCD array or another light-sensitive surface. A spatial impression of the depicted object only arises when the object is recorded from at least two different observation points or at least two different viewing angles and presented to an observer in such a way that the two two-dimensional monocular images are perceived separately by both eyes and in their physiological Perceptual apparatus can be put together. For this purpose, the monocular individual images are combined to form a spatial image template which, using a suitable imaging method, leads to a spatial image impression on the viewer. Such methods are also referred to as "anaglyph technique".
Eine für ein solches Verfahren verwendbare Raumbildvorlage kann auf verschiedene Weise vorliegen bzw. erstellt werden. Als einfachstes Beispiel sind hier die bekannten Stereo-Diabetrachter zu erwähnen, bei denen der Betrachter mit je einem Auge je ein in einem verschiedenen Blickwinkel aufgenommenes Bildmotiv betrachtet. Bei einer zweiten Möglichkeit wird das unter dem ersten Blickwinkel erzeugte Bild mit einer ersten Farbe und das andere unter dem zweiten Blickwinkel fotografierte Bild mit einer zweiten Farbe eingefärbt. Beide Bilder werden mit einer dem natürlichen Blickwinkelunterschied der menschlichen Augen oder dem Blickwinkelunterschied des Kamerasystems entsprechenden Versetzung zum Erstellen einer Raumbildvorlage übereinander gedruckt oder übereinander projiziert, wobei der Betrachter eine Zweifarbenbrille zum Betrachten der Bildvorlage benutzt. Dabei wird die jeweils andere Blickwinkelkomponente durch das entsprechend gefärbte Brillenglas ausgefiltert. Jedes Auge des Betrachters erhält somit ein entsprechend des unterschiedlichen Blickwinkels differierendes Bild, wobei bei dem Betrachter ein räumlicher Eindruck der Bildvorlage entsteht. Ein derartiges Verfahren ist vorteilhaft, wenn Daten aus einer Stereokamera in Echtzeit und unter geringem apparativem Aufwand übertragen und dargestellt werden sollen. Darüber hinaus werden auch simulierte räumliche Abbildungen mit einem derartigen Verfahren zum Erzeugen einer Raumbildvorlage dargestellt, wobei der Betrachter einen besseren Eindruck komplizierter räumlicher Strukturen, beispielsweise komplizierter simulierter Molekülstrukturen und dergleichen erhalten kann.A spatial image template that can be used for such a method can be present or created in various ways. The simplest example is the well-known stereo slide viewer, in which the viewer looks at an image motif taken from a different angle with one eye each. In a second possibility, the image produced from the first viewing angle is colored with a first color and the other image photographed from the second viewing angle with a second color. Both images are printed on top of one another or projected on top of one another with a displacement corresponding to the natural difference in the angle of view of the human eyes or the difference in the angle of view of the camera system, in which case the viewer uses two-color glasses to view the image. The other viewing angle component is filtered out through the correspondingly colored spectacle lens. Each eye of the viewer thus receives one corresponding to the Different image from different angles, whereby the viewer creates a spatial impression of the original image. Such a method is advantageous if data from a stereo camera are to be transmitted and displayed in real time and with little expenditure on equipment. In addition, simulated spatial images are also represented with such a method for generating a spatial image template, the viewer being able to get a better impression of complicated spatial structures, for example complicated simulated molecular structures and the like.
Weiterhin können subtiler wirkende Mechanismen des physiologischen Wahrnehmungsapparates zum Erzeugen der Raumbildvorlage angewendet werden. So ist beispielsweise bekannt, daß zwei kurz innerhalb der Reaktionszeit nacheinander wahrgenommene Bilder zu einem subjektiven Gesamteindruck zusammengeführt werden. Sendet man demnach als kombinierte Raumbildvorlage kurz hintereinander zwei Bild-informationen, die jeweils aus Aufnahmen bestehen, die aus dem ersten, bzw. dem zweiten Betrachtungswinkel gemacht wurden, fügen diese sich in der Wahrnehmung des Betrachters zu einem subjektiven räumlichen Gesamteindruck unter Verwendung einer Shutterbrille zusammen.Furthermore, mechanisms of the physiological perceptual apparatus with a more subtle effect can be used to generate the spatial image template. It is known, for example, that two images perceived shortly within the reaction time are brought together to form a subjective overall impression. If you send two pieces of image information in succession as a combined spatial image template, each consisting of photographs taken from the first or the second viewing angle, these are combined in the viewer's perception to form a subjective overall spatial impression using shutter glasses ,
Allen erwähnten Verfahren ist jedoch gemeinsam, daß mindestens eine binokulare Aufnahme des räumlichen Bildmotivs vorab vorliegen muß. Das heißt, daß mindestens zwei aus unterschiedlichen Betrachtungswinkeln gemachte Aufnahmen von vornherein vorhanden sein oder (wie zum Beispiel bei Zeichnungen) von Anfang an erzeugt werden müssen. Bilder oder Filme, Videosequenzen und dergleichen Abbildungen, die von vornherein monokular erzeugt wurden und daher nur monokulare Bildinformationen tragen, sind demnach nicht für eine räumliche Darstellung des Objektes verwendbar. Ein beispielsweise mit einem monokularen Fotoapparat aufgenommenes Foto ist eine zweidimensionale Projektion ohne Raumtiefe. Die Information über die Raumtiefe ist durch die monokulare Abbildung unwiederbringlich verlorengegangen und uss vom Betrachter aufgrund von Erfahrungswerten in das Bild hinein interpretiert werden. Verständlicherweise ergibt sich dabei aber keine echte räumliche Abbildung mit Tiefenwirkung. Dies ist insofern nachteilig, als daß bei einer ganzen Reihe derartiger zweidimensionaler monokular erzeugter Aufnahmen ein beträchtlicher Teil der ursprünglichen Wirkung und der Information des Bildmotivs verlorengeht. Der Betrachter muß sie sich hinzudenken oder versuchen, dies anderen Betrachtern zu erklären, wobei natürlich der ursprüngliche Eindruck der Räumlichkeit mit keinem räumlichen Abbildungsverfahren der oben genannten Beispiele zurück zu gewinnen ist.However, all of the methods mentioned have in common that at least one binocular image of the spatial image motif must be available in advance. This means that at least two pictures taken from different viewing angles must be available from the start or (as for example in drawings) must be created from the beginning. Images or films, video sequences and similar images that were created monocular from the start and therefore only carry monocular image information can therefore not be used for a spatial representation of the object. A photo taken with a monocular camera, for example, is a two-dimensional projection with no spatial depth. The information about the depth of the room has been irretrievably lost due to the monocular image and has to be interpreted by the viewer based on experience in the picture. Understandably, however, there is no real spatial image with depth effect. This is disadvantageous in that in a whole series of such two-dimensional monocularly produced recordings a considerable part of the original effect and the information of the image motif is lost. The viewer has to think it over or try to explain it to other viewers, whereby of course the original impression of the spatiality cannot be regained with any spatial mapping method of the above examples.
Es besteht somit die Aufgabe, ein Verfahren zum Erstellen von Raumbildvorlagen aus zweidimensionalen Bilddaten, insbesondere von Bilddaten aus Bildsequenzen, Videofilmen und dergleichen Informationen anzugeben, bei dem aus einer zweidimensionalen Aufnahme eine Raumbildvorlage für ein Abbildungsverfahren mit räumlicher Tiefenwirkung erzeugt wird.The object is therefore to specify a method for creating spatial image templates from two-dimensional image data, in particular image data from image sequences, video films and the like, in which a spatial image template for an imaging method with spatial depth effect is generated from a two-dimensional image.
Diese Aufgabe wird mit einem Verfahren gemäß den Merkmalen des Anspruchs 1 gelöst, wobei die Unteransprüche mindestens ausgestaltende Merkmale der Erfindung enthalten.This object is achieved with a method according to the features of claim 1, the subclaims containing at least features of the invention.
Bei der folgenden Beschreibung wird unter dem Begriff des „Urbildes" die anfangs gegebene monokular angefertigte zweidimensionale Abbildung verstanden. Es ist unmittelbar einsichtig, daß eine Anwendung des nachfolgend beschriebenen erfindungsgemäßen Verfahrens auch auf Sequenzen von derartigen Urbildern anwendbar ist und daher ohne weiteres auch für bewegte Bilder, insbesondere Videooder Filmaufnahmen, verwendet werden kann, sofern diese aus einer Serie aufeinander abfolgender Abbildungen bestehen oder in diese überführt werden können.In the following description, the term "archetype" is understood to mean the initially given monocularly produced two-dimensional image. It is immediately clear that an application of the method according to the invention described below can also be applied to sequences of such archetypes and therefore also readily for moving images , in particular video or film recordings, can be used, provided that these consist of a series of successive images or can be transferred to them.
Erfindungsgemäß wird auf der Grundlage von aus monokularen Urbilddaten ermittelten Bildinformationen abgebildeter Objekte ein auf einer vermutungsbasierten Bildtiefenabstufung beruhendes virtuelles dreidimensionales Bildgerüst erzeugt. Die Urbilddaten werden auf das virtuelle dreidimensionale Bildgerüst zum Erzeugen eines virtuellen dreidimensionalen Bildmodells angepaßt. Die Daten des virtuellen dreidimensionalen Bildmodells werden als Vorlage zum Erstellen der Raumbildvorlage für das Abbildungsverfahren mit räumlicher Tiefenwirkung verwendet. Es werden erfindungsgemäß somit zunächst die auf der zweidimensionalen Abbildung abgebildeten Objekte ermittelt. Dann wird diesen Objekten jeweils eine Vermutung über deren Raumtiefe zugeordnet. Es entsteht ein virtuelles dreidimensionales Modell, wobei die ursprünglichen Bilddaten der zweidimensionalen Abbildung auf dieses virtuelle dreidimensionale Modell angepaßt werden. Dieses virtuelle dreidimensionale Modell bildet nun ein virtuelles Objekt, dessen Daten den Ausgangspunkt zum Erzeugen der Raumbildvorlage darstellen.According to the invention, a virtual three-dimensional image structure based on presumption-based image depth grading is generated on the basis of image information of images of objects determined from monocular master image data. The original image data are adapted to the virtual three-dimensional image framework to generate a virtual three-dimensional image model. The data of the virtual three-dimensional image model are used as a template for creating the spatial image template for the imaging method with spatial depth effect. According to the invention, the objects depicted on the two-dimensional image are thus initially determined. Then these objects are each assigned a guess about their depth. A virtual three-dimensional model is created, the original image data of the two-dimensional image being adapted to this virtual three-dimensional model. This virtual three-dimensional model now forms a virtual object, the data of which represent the starting point for generating the spatial image template.
Auf den monokularen Urbilddaten wird zum Ermitteln der Bildinformation ein Verfahren zu einer Kantenerkennung der abgebildeten Objekte mit einer Generierung eines kantenmarkierten Bildes ausgeführt. Dabei werden bei der vermutungsbasierten Bildtiefenabstufung Urbildareale aufgrund eines ermittelten Kantenreichtums verschiedenen virtuellen Tiefenebenen, insbesondere einem Hintergrund und/oder Vordergrund zugeordnet.A method for edge detection of the depicted objects with generation of an edge-marked image is carried out on the monocular master image data in order to determine the image information. In the presumption-based image depth grading, original image areas are assigned to different virtual depth planes, in particular a background and / or foreground, on the basis of a determined richness of edges.
Hier wird die Erkenntnis genutzt, daß detailreiche und damit kantenreiche Objekte im allgemeinen zu einer anderen Bildtiefe und damit Tiefenebene gehören, als detailarme und damit auch kantenarme Objekte. Der Schritt der Kantenerkennung sortiert demnach Bestandteile des Urbilds aus, von denen auszugehen ist, dass sich diese im Hintergrund des Bildes befinden und separiert sie von denen, die im Vordergrund oder einer weiteren Tiefenebene zu vermuten sind.Here, the knowledge is used that objects that are rich in detail and thus have many edges generally belong to a different image depth and thus depth level than objects that are poor in detail and therefore also poor in edges. The step of edge detection accordingly sorts out components of the original image that are assumed to be in the background of the image and separates them from those that are suspected in the foreground or a further depth plane.
Bei einer weiteren Vorgehensweise zum Ermitteln der Bildinformation wird ein Verfahren zum Ermitteln der Farbinformation gegebener Urbildareale ausgeführt. Dabei wird bei der vermutungsbasierten Bildtiefenabstufung mindestens eine erste identifizierte Farbinformation einer ersten virtuellen Tiefenebene und eine zweite Farbinformation einer zweiten virtuellen Tiefenebene zugeordnet.In a further procedure for determining the image information, a method for determining the color information of given archetype areas is carried out. In the presumption-based image depth grading, at least first identified color information is assigned to a first virtual depth level and second color information to a second virtual depth level.
Dabei wird hier die Erfahrungstatsache angewandt, daß bestimmte Farben oder Farbkombinationen bei gewissen Bildmotiven bevorzugt in einer anderen Tiefenebene auftreten, als andere Farben oder Farbkombinationen. Beispiele sind hierfür Blau als eine typische Hintergrundfarbe bei Landschaften einerseits und Rot oder Grün als typische Vordergrundfarben des abgebildeten Motivs andererseits. Das Verfahren zur Kantenerkennung und das Verfahren zum Ermitteln der Farbinformation können sowohl einzeln oder in Kombination miteinander angewendet werden, wobei vor allem eine kombinierte Anwendung aus Kantenerkennung und Ermitteln der Farbinformation weitere Differenzierungsmöglichkeiten der Urbilddaten, insbesondere ein feineres Festlegen weiterer Tiefenebenen erlaubt.The factual experience that certain colors or color combinations with certain image motifs preferentially occur in a different depth plane than other colors or color combinations is used here. Examples are blue as a typical background color for landscapes on the one hand and red or green as typical foreground colors of the motif shown on the other. The method for edge detection and the method for determining the color information can be used either individually or in combination with one another, with a combined application of edge detection and determination of the color information allowing further differentiation options of the original image data, in particular a more precise definition of further depth planes.
Auf dem kantenmarkierten Bild wird in einer zweckmäßigen Ausgestaltung ein Weichzeichnungsverfahren zur Verstärkung und zum Vereinheitlichen eines kantenreichen Urbildareals angewendet. Damit werden einerseits mögliche Fehler bei der Kantenerkennung ausgeglichen und andererseits nebeneinander liegende, nicht zufällig vorgegebene Strukturen verstärkt. Optional können die Werte des kantenmarkierten Bildes zusätzlich tonwertkorrigiert werden.In an expedient embodiment, a softening method is used on the edge-marked image to reinforce and unify an edge-rich archetype area. On the one hand, this compensates for possible errors in edge detection and, on the other hand, strengthens adjacent, not randomly specified structures. Optionally, the values of the edge-marked image can also be corrected for tonal values.
Auf der Grundlage des weichgezeichneten und/oder zusätzlich tonwertkorrigierten kantenmarkierten Bildes, wird eine auf dem Tonwert eines Bildpunktes basierende Zuordnung eines betreffenden Bildabschnittes zu einer Tiefenebene ausgeführt. Die Strukturen des kantenmarkierten Bildes, das weichgezeichnet und optional tonwertkorrigiert ist, werden nun je nach ihrem Tonwert einzelnen definierten Tiefenebenen zugeordnet. Das kantenmarkierte, weichgezeichnete und optional tonwertkorrigierte Bild bildet daher die Grundlage für eine eindeutige Zuweisung der einzelnen Bildstrukturen zu den Tiefenebenen, wie beispielsweise dem definierten virtuellen Hintergrund, einer virtuellen Bildebene oder einem virtuellen Vordergrund.On the basis of the soft-drawn and / or additionally tonally corrected edge-marked image, an assignment of a relevant image section to a depth plane is carried out based on the tonal value of a pixel. The structures of the edge-marked image, which is softened and optionally tonally corrected, are now assigned to individual defined depth levels depending on their tonal value. The edge-marked, soft-drawn and optionally tone-corrected image therefore forms the basis for a clear assignment of the individual image structures to the depth levels, such as the defined virtual background, a virtual image level or a virtual foreground.
Bei einer dabei ausgeführten Fixpunktdefinition erfolgt eine Begrenzung der Farb- und/oder Tonwerte auf einen vorgegebenen Wert. Damit wird ein virtueller Drehpunkt für die später zu erzeugenden Einzelansichten festgelegt. Dabei bildet der ausgewählte Färb- und/oder Tonwert einen Referenzwert, der einer virtuellen Bildebene zugeordnet wird und somit einen virtuellen Tiefenhintergrund von einem virtuell aus der Bildebene herausragenden Vordergrund trennt.When a fixed point definition is carried out, the color and / or tonal values are limited to a predetermined value. This defines a virtual pivot point for the individual views to be created later. The selected color and / or tonal value forms a reference value, which is assigned to a virtual image plane and thus separates a virtual deep background from a foreground that virtually protrudes from the image plane.
Die Zuweisung einer virtuellen Tiefenebene kann auf verschiedene Weise erfolgen. Die bereits dargestellten Verfahrensschritte legen zweckmäßigerweise eine Zuordnung einer Tiefenebene an einen jeweils vorgegebenen Färb- und/oder Helligkeitswert eines Bildpixels nahe. Objekte mit Bildpixeln, die somit gleiche Färb- und/oder Helligkeitswerte aufweisen, werden somit einer Tiefenebene zugeordnet. Alternativ dazu besteht auch die Möglichkeit, willkührlich festgelegte Bildabschnitte, insbesondere einen Bildrand und/oder die Bildmitte, einer virtuellen Tiefenebene zuzuordnen. Damit wird insbesondere eine virtuelle „Wölbung", „Verspannung", „Kippung" und dergleichen dreidimensionale Bildeffekte erreicht.A virtual depth level can be assigned in different ways. The method steps already described expediently suggest an assignment of a depth level to a respectively predetermined color and / or brightness value of an image pixel. Objects with image pixels, which thus have the same color and / or brightness values, are thus assigned to a depth level. Alternatively, there is also the possibility of assigning arbitrarily defined image sections, in particular an image edge and / or the image center, to a virtual depth plane. In this way, in particular, a virtual “curvature”, “bracing”, “tilting” and the like three-dimensional image effects are achieved.
Zum Erzeugen des virtuellen dreidimensionalen Bildmodells wird das virtuelle dreidimensionale Bildgerüst als eine entsprechend der virtuellen Tiefenebenen deformierte virtuelle Netzstruktur erzeugt und das zweidimensionale Urbild in einem Mapping-Verfahren als Textur auf die deformierte Netzstruktur angepaßt. Die Netzstruktur bildet dabei eine Art virtuelle dreidimensionale „Matrize" oder „Profilform", während das zweidimensionale Urbild eine Art „elastisches Tuch" darstellt, das über die Matrize gespannt und in die Matrize in einer Art virtuellem „Tiefziehverfahren" hineingepreßt wird. Das Ergebnis ist ein virtuelles dreidimensionales Bildmodell mit den Bildinformationen des zweidimensionalen Urbilds und der zusätzlich dem Urbild aufgeprägten „virtuellen Tiefziehstruktur" der virtuellen dreidimensionelen Matrize.To generate the virtual three-dimensional image model, the virtual three-dimensional image structure is generated as a virtual network structure deformed in accordance with the virtual depth planes, and the two-dimensional original image is adapted as texture to the deformed network structure in a mapping process. The network structure forms a kind of virtual three-dimensional "die" or "profile shape", while the two-dimensional archetype represents a kind of "elastic cloth" that is stretched over the die and pressed into the die in a kind of virtual "deep-drawing process". The result is a virtual three-dimensional image model with the image information of the two-dimensional archetype and the "virtual thermoforming structure" of the virtual three-dimensional matrix additionally impressed on the archetype.
Von diesem dreidimensionalen Bildmodell können virtuelle binokulare oder auch multiokulare Ansichten abgeleitet werden. Das geschieht dadurch, indem von dem virtuellen dreidimensionalen Bildmodell aus einer Reihe von virtuellen Bobachtungswinkeln eine Reihe von virtuellen, die Ansichten des virtuellen dreidimensionalen Bildmodells wiedergebenen Einzelbildern erzeugt werden, bei denen die einer festgelegten Tiefenebene entsprechenden Bildabschnitte des Urbildes entsprechend des virtuellen Beobachtungswinkels verschoben und/oder verzerrt werden. Das virtuelle dreidimensionale Bildmodell dient somit als ein virtuelles räumliches Objekt, das virtuell binokular oder multiokular betrachtet wird, wobei dabei virtuelle Ansichten gewonnen werden, die sich entsprechend den Beobachtungswinkeln unterscheiden.Virtual binocular or multi-ocular views can be derived from this three-dimensional image model. This is done by generating a series of virtual individual images representing the views of the virtual three-dimensional image model from the series of virtual three-dimensional image models, in which the image sections of the original image corresponding to a defined depth plane are shifted and / or displaced in accordance with the virtual observation angle be distorted. The virtual three-dimensional image model thus serves as a virtual spatial object that is viewed virtually binocularly or multiocularly, whereby virtual views are obtained that differ according to the observation angles.
Diese virtuellen Einzelbilder werden nach einem für das Abbildungsverfahren mit zusätzlicher Raumwirkung geeigneten Algorithmus zum Erzeugen einer Raumbildvorlage kombiniert. Dabei werden die virtuellen Einzelbilder wie real binokular oder multiokular aufgenommene Einzelbilder behandelt, die nun für ein dreidimensionales Darstellungsverfahren geeignet aufbereitet und kombiniert werden. Damit liegt eine virtuell gewonnene binokulare oder multiokulare Bildinformation vor, die für jedes beliebige räumliche Abbildungsverfahren verwendet werden kann.These virtual individual images are combined according to an algorithm suitable for the imaging method with additional spatial effect for generating a spatial image template. The virtual single images are treated like real binocular or multi-ocular single images, which are now suitably prepared and combined for a three-dimensional display process. This means that virtually binocular or multi-ocular image information is available that can be used for any spatial imaging method.
Zum Erstellen der Raumbildvorlage wird bei einer Ausführungsform des Verfahrens eine Bildbearbeitung einzelner Bildbereiche des Urbildes, insbesondere ein Skalieren und/oder Drehen und/oder Spiegeln ausgeführt und die so erzeugte Raumbildvorlage mittels eines darüber liegenden monofokalen Linsenrasters angezeigt.To create the spatial image template, in one embodiment of the method, image processing of individual image areas of the original image, in particular scaling and / or rotating and / or mirroring, is carried out and the spatial image template generated in this way is displayed by means of a monofocal lenticular screen lying above it.
Dabei werden die Bildstrukturen, die in dem virtuellen dreidimensionalen Bildmodell gewissen Tiefenebenen zugeordnet werden, so verändert, dass diese bei Anzeige der so erzeugten Raumbildvorlage einen ausreichenden Akkomodationsreiz für das betrachtende menschliche Auge bieten. Die so hervorgehobenen Bildstrukturen werden mittels der optischen Abbildung durch das Linsenraster entweder vor oder hinter der gegebenen Bildebene wahrgenommen und führen somit zu einem räumlichen Eindruck beim Betrachten des Bildes. Dieses Verfahren benötigt nur eine relativ einfach gestaltete Raumbildvorlage in Verbindung mit einer einfachen Ausführung des Abbildungsverfahrens mit räumlicher Tiefenwirkung.The image structures, which are assigned to certain depth levels in the virtual three-dimensional image model, are changed in such a way that, when the spatial image template generated in this way is displayed, they offer a sufficient accommodation stimulus for the viewing human eye. The image structures highlighted in this way are perceived by means of the optical image through the lenticular screen either in front of or behind the given image plane and thus lead to a spatial impression when viewing the image. This method only requires a relatively simple spatial image template in connection with a simple implementation of the imaging method with spatial depth effect.
Das zweidimensionale Urbild kann auch direkt ohne eine Bildbearbeitung durch das monofokale Linsenraster angezeigt werden. Das zweidimensionale Urbild ist somit sofort als Raumbildvorlage für eine Anzeige durch das monofokale Linsenraster verwendbar. Eine derartige Vorgehensweise ist besonders dann zweckmäßig, wenn einfache Bildstrukturen vor einem homogen strukturierten Hintergrund, insbesondere Zeichen vor einem einheitlich ausgebildeten Texthintergrund, mit Tiefenwirkung anzuzeigen sind. Der durch die abbildene Wirkung des monofokalen Linsenrasters erzielte Akkomodationsreiz für das betrachtende Auge bewirkt dann einen Tiefeneffekt, wobei das Urbild an sich für eine derartige Anzeige nicht vorher aufbereitet werden muß.The two-dimensional archetype can also be displayed directly without image processing using the monofocal lenticular grid. The two-dimensional archetype can thus be used immediately as a spatial image template for display by the monofocal lenticular screen. Such a procedure is particularly expedient if simple image structures against a homogeneously structured background, in particular characters against a uniformly designed text background, are to be displayed with a depth effect. The accommodation stimulus achieved by the imaging effect of the monofocal lenticular grid for the viewing eye then causes a depth effect, the original image itself not having to be prepared beforehand for such a display.
Eine Vorrichtung zum Anzeigen einer Raumbildvorlage ist durch eine zweidimensionale Raumbildvorlage und ein über der Raumbildvorlage angeordnetes monofokales Linsenraster gekennzeichnet. Das monofokale Linsenraster bildet hierbei Bereiche der Raumbildvorlage ab und bewirkt einen entsprechenden Akkomodationsreiz im betrachtenden Auge. Die zweidimensionale Bildvorlage ist dazu zweckmäßigerweise aus einem Mosaik aus der Rasterstruktur des Linsenrasters zugeordneten Bildabschnitten ausgeführt, wobei im wesentlichen jeweils ein Bildabschnitt ein Abbildungsobjekt für im wesentlichen jeweils ein zugehöriges Linsenelement des monofokalen Linsenrasters ist. Die zweidimensionale Bildvorlage ist demnach in eine Gesamtheit einzelner Bildbereiche aufgeteilt, die jeweils durch ein Linsenelement angezeigt werden.A device for displaying a spatial image template is characterized by a two-dimensional spatial image template and a monofocal lens grid arranged above the spatial image template. The monofocal lenticular grid depicts areas of the spatial image template and creates a corresponding accommodation stimulus in the eye looking at it. For this purpose, the two-dimensional image template is expediently made from a mosaic of image sections assigned to the raster structure of the lenticular screen, wherein essentially one image section each is an imaging object for essentially one associated lens element of the monofocal lenticular screen. The two-dimensional image template is therefore divided into a total of individual image areas, which are each indicated by a lens element.
Bei dieser Vorrichtung sind prinzipiell zwei Ausführungsformen der Bildvorlage und insbesondere der Bildbereiche möglich. Bei einer ersten Ausführungsform sind die Bildabschnitte im wesentlichen unveränderte Bildbestandteile der zweidimensionalen Bildvorlage des Urbildes. Das heißt, dass bei dieser Ausführungsform das im wesentlichen unveränderte zweidimensionale Bild die Raumbildvorlage für das Linsenraster bildet. Bei dieser Ausführungsform wird somit, abgesehen von Größenänderungen oder Skalierungen des gesamten Bildes, auf eine Bildbearbeitung einzelner Bildbereiche verzichtet.In principle, two embodiments of the image template and in particular the image areas are possible with this device. In a first embodiment, the image sections are essentially unchanged image components of the two-dimensional image template of the original image. This means that in this embodiment the essentially unchanged two-dimensional image forms the spatial image template for the lenticular screen. In this embodiment, apart from changes in size or scaling of the entire image, image processing of individual image areas is therefore dispensed with.
Bei einer weiteren Ausführungsform sind die Bildabschnitte zur Kompensation der Abbildungswirkungen des Linsenrasters skaliert und/oder gespiegelt und/oder gedreht. Dadurch wird eine verbesserte Bildqualität erreicht, wobei allerdings der Aufwand für die Erstellung der Raumbildvorlage zunimmt.In a further embodiment, the image sections are scaled and / or mirrored and / or rotated to compensate for the imaging effects of the lenticular screen. This results in an improved image quality, although the effort for creating the spatial image template increases.
Die zweidimensionale Bildvorlage ist insbesondere ein auf einem Display erzeugtes Bild, während das Linsenraster auf der Oberfläche des Displays befestigt ist. Das Linsenraster wird somit auf einem vorab vorhandenen Display, beispielsweise einem Röhren- oder Flachbildschirm, an einer geeigneten Stelle angebracht und befindet sich somit über dem auf dem Display angezeigten Bild. Diese Anordnung läßt sich in sehr einfacher Weise verwirklichen.The two-dimensional image template is in particular an image generated on a display, while the lenticular screen is attached to the surface of the display. The lenticular screen is thus attached to a pre-existing display, for example a tube or flat screen, at a suitable location and is thus located above the image shown on the display. This arrangement can be implemented in a very simple manner.
In einer ersten Ausführungsform ist das Linsenraster als eine rasterartige, auf der Display-Oberfläche haftende Fresnel-Linsen-Anordnung ausgeführt. Die Verwendung von Fresnel-Linsen gewährleistet eine flache und einfache Gestaltung des Linsenrasters, wobei die für Fresnel-Linsen typischen Rillenstrukturen in der nach dem Stand der Technik bekannten Weise in ein durchsichtiges Kunststoffmaterial, insbesondere eine Kunststofffolie eingearbeitet werden können. In einer zweiten Ausführungsform ist das Linsenraster als eine rasterartige, insbesondere flexible, auf der Display-Oberfläche haftende Zonenplatten-Anordnung ausgeführt. Eine Zonenplatte ist ein konzentrisches System aus hellen und dunklen Ringen, die durch Lichtinterferenz eine Bündelung des hindurchlaufenden Lichtes bewirken und damit eine abbildende Wirkung ermöglichen. Eine derartige Ausführungsform ist durch ein Bedrucken einer durchsichtigen flexiblen Folie in aufwandsarmer und kostengünstiger Weise herstellbar.In a first embodiment, the lenticular grid is designed as a grid-like Fresnel lens arrangement that adheres to the display surface. The use of Fresnel lenses ensures a flat and simple design of the lenticular grid, the groove structures typical of Fresnel lenses being able to be worked into a transparent plastic material, in particular a plastic film, in the manner known from the prior art. In a second embodiment, the lenticular grid is designed as a grid-like, in particular flexible, zone plate arrangement adhering to the display surface. A zone plate is a concentric system of light and dark rings, which cause light to bundle the light that passes through it, thereby creating an imaging effect. Such an embodiment can be produced by printing on a transparent, flexible film in a low-cost and inexpensive manner.
Bei einer dritten Ausführungsform ist das Linsenraster auch als eine Anordnung konventionell geformter Konvexlinsen möglich, wobei allerdings die Dicke der gesamten Anordnung und damit auch deren Materialverbrauch zunimmt.In a third embodiment, the lenticular grid is also possible as an arrangement of conventionally shaped convex lenses, although the thickness of the entire arrangement and thus also its material consumption increases.
Das Verfahren und die Vorrichtung sollen im Folgenden anhand von Ausführungsbeispielen näher erläutert werden. Zur Verdeutlichung dienen die angefügten Figuren. Es werden für gleiche oder gleich wirkende Verfahrensschritte und Verfahrensbestandteile die gleichen Bezugszeichen verwendet. Es zeigt:The method and the device are to be explained in more detail below on the basis of exemplary embodiments. The attached figures serve for clarification. The same reference numerals are used for process steps and process components having the same or the same effect. It shows:
Fig. 1 einen ersten Teil eines beispielhaften schematischen Programmablaufplanes des Verfahrens,1 shows a first part of an exemplary schematic program flow chart of the method,
Fig. 2 einen beispielhaften Ablaufplan einer Kantenerkennung,2 shows an exemplary flow chart of an edge detection,
Fig. 3 einen zweiten Teil eines beispielhaften schematischen Programmablaufplanes des Verfahrens,3 shows a second part of an exemplary schematic program flow chart of the method,
Fig. 4 ein beispielhaftes Auswahlmenü zum Ausführen der Kantenerkennung,4 shows an exemplary selection menu for executing edge detection,
Fig. 5a ein beispielhaftes Urbild,5a shows an exemplary archetype,
Fig. 5b ein beispielhaftes kantenmarkiertes Bild als Ergebnis einer auf dem beispielhaften Urbild aus Fig. 5a ausgeführten Kantenerkennung,5b shows an exemplary edge-marked image as a result of an edge detection carried out on the exemplary original image from FIG. 5a,
Fig. 6a ein beispielhaftes Ergebnis einer auf dem kantenmarkierten Bild nach Fig. 5b ausgeführten Weichzeichnung, Fig. 6b ein beispielhaftes Ergebnis einer auf dem kantenmarkierten Bild nach Fig. 6a ausgeführten Tonwertkorrektur,6a shows an exemplary result of a soft focus carried out on the edge-marked image according to FIG. 5b, 6b shows an exemplary result of a tonal value correction carried out on the edge-marked image according to FIG. 6a,
Fig. 7a ein beispielhaftes Auswahlmenü für eine Fixpunktdefinition,7a shows an exemplary selection menu for a fixed point definition,
Fig. 7b ein beispielhaftes fixpunktdefiniertes Bild,7b shows an exemplary fixed point-defined image,
Fig. 8a ein schematisches Beispiel für graphische Objekte in einem schematischen zweidimensionalen Urbild,8a shows a schematic example of graphic objects in a schematic two-dimensional original image,
Fig. 8b ein schematisches Beispiel einer Tiefenebenenzuordnung der graphischen Objekte aus Fig. 8a und einer Erzeugung eines virtuellen dreidimensionalen Bildmodells entlang beispielhafter Schnitte entlang der Linien A-A und B-B aus Fig. 8a,8b shows a schematic example of a depth level assignment of the graphic objects from FIG. 8a and a generation of a virtual three-dimensional image model along exemplary sections along the lines A-A and B-B from FIG. 8a,
Fig. 9a ein schematisches Beispiel einer virtuellen binokularen Betrachtung und Projektion des virtuellen dreidimensionalen Bildmodells entlang der Linie A-A aus den Figuren 8a und 8b,9a shows a schematic example of a virtual binocular view and projection of the virtual three-dimensional image model along the line A-A from FIGS. 8a and 8b,
Fig, 9b ein schematisches Beispiel einer beispielhaften virtuellen binokularen Betrachtung und Projektion des virtuellen dreidimensionalen Bildmodells entlang der Linie B-B aus den Figuren 8a und 8b,9b shows a schematic example of an exemplary virtual binocular view and projection of the virtual three-dimensional image model along the line B-B from FIGS. 8a and 8b,
Fig. 10 ein schematisches Beispiel einer virtuellen Einzelbilderzeugung aus einem beispielhaften Betrachtungswinkel entlang der beispielhaften Linie A-A nach Figur 9a,10 shows a schematic example of virtual single image generation from an exemplary viewing angle along the exemplary line A-A according to FIG. 9a,
Fig. 11a eine Reihe beispielhafter virtueller Einzelbilder unterschiedlicher Betrachtungswinkel unter Verwendung des Urbildes aus Fig. 5a,11a shows a series of exemplary virtual single images from different viewing angles using the original image from FIG. 5a,
Fig. 11b eine beispielhafte Kombination der in der Fig. 11a gezeigten virtuellen Einzelbilder in einer beispielhaften Raumbildvorlage für ein Abbildungsverfahren mit zusätzlicher Tiefenwirkung, Fig. 12a, b beispielhafte Darstellungen einer zweidimensionalen Bildvorlage und eines darüber befindlichen monofokalen Linsenrasters,11b shows an exemplary combination of the virtual single images shown in FIG. 11a in an exemplary spatial image template for an imaging method with additional depth effect, 12a, b are exemplary representations of a two-dimensional image template and a monofocal lenticular screen located above it,
Fig. 13a-c beispielhafte Darstellungen einer Abbildung eines zweidimensionalen Bildabschnittes mittels des monofokalen Linsenrasters der vorhergehenden Abbildungen.13a-c show exemplary representations of an image of a two-dimensional image section by means of the monofocal lenticular screen of the previous images.
Die Figuren 1 und 3 zeigen in zwei Teilen einen beispielhaften schematischen Ablaufplan des Verfahrens. Figur 2 erläutert ein Kantenerkennungsverfahren in einem detaillierteren Ablaufplan. Die Figuren 4 bis 11b zeigen beispielhafte Resultate und weitere Einzelheiten des in den Ablaufplänen erläuterten erfindungsgemäßen Verfahrens.Figures 1 and 3 show in two parts an exemplary schematic flow chart of the method. Figure 2 illustrates an edge detection method in a more detailed flow chart. FIGS. 4 to 11b show exemplary results and further details of the method according to the invention explained in the flowcharts.
Den Ausgangspunkt des Verfahrens bildet eine Menge von Urbilddaten 10 eines vorgegebenen zweidimensionalen, zweckmäßigerweise digitalisierten, Urbildes. Sofern das Urbild ein Einzelbild als Bestandteil einer Bildsequenz oder eines digitalisiert vorliegenden Films ist, ist bei der nachfolgenden Beschreibung davon auszugehen, daß alle weiteren Einzelbilder der Bildsequenz in einer dem Einzelbild entsprechenden Weise verarbeitet werden können. Daher ist das im folgenden beispielhaft beschriebene Verfahren auch für Bildsequenzen, Filme und dergleichen verwendbar.The starting point of the method is a set of original image data 10 of a predefined two-dimensional, expediently digitized, original image. If the original image is a single image as part of an image sequence or a digitized film, the following description assumes that all further individual images of the image sequence can be processed in a manner corresponding to the single image. Therefore, the method described below by way of example can also be used for image sequences, films and the like.
Zweckmäßigerweise wird davon ausgegangen, daß die Urbilddaten 10 in einer Bilddatei, einer digitalen Speichereinrichtung oder einer vergleichbaren Speichereinheit vorliegen. Diese Daten können durch die üblichen Mittel zum Erzeugen digitalisierter Bilddaten, insbesondere durch einen bekannten Scan-Vorgang, eine Digitalfotografie, eine digitalisierte Videoinformation und dergleichen weitere bekannte Bildgewinnungsverfahren erzeugt werden. Dies schließt insbesondere auch Bilddaten ein, die unter der Verwendung sogenannter Frame Grabber aus Video- bzw. Filmsequenzen gewonnen wurden. Als Datenformate sind prinzipiell alle bekannten Bildformate, insbesondere das BMP-, JPEG-, PNG-, TGA-, TIFF- oder EPS-Format in allen jeweiligen Versionen verwendbar. Obwohl bei den nachfolgend beschriebenen Ausführungsbeispielen auf Figuren Bezug genommen wird, die aus Darstellungsgründen schwarz-weiß, bzw. in Grauwerten abgebildet sind, können die Urbilddaten ohne weiteres Farbinformationen beinhalten. Die Urbilddaten 10 werden in einem Einleseschritt 20 in einen Arbeitsspeicher zum Ausführen des Verfahrens geladen. In einem Verfahrensschritt eines Anpassens 30 werden zunächst die Urbilddaten für eine optimale Verfahrensausführung angepaßt. Das Anpassen 30 der Bildeigenschaften umfaßt mindestens ein Verändern der Bildgröße und des Farbmodells des Bildes. Kleinere Bilder werden in der Regel dann bevorzugt, wenn die Rechenzeit des Verfahrens zu minimieren ist. Eine Bildgrößenänderung kann jedoch auch eine mögliche Fehlerquelle für das erfindungsgemäße Verfahren sein. Als anzupassendes Farbmodell können prinzipiell alle derzeit gebräuchlichen Farbmodelle, insbesondere RGB- und CMYK- oder Graustufenmodelle, aber auch Lab-, Index- bzw. Duplex-Modelle je nach Erfordernis verwendet werden.It is expediently assumed that the original image data 10 are present in an image file, a digital storage device or a comparable storage unit. These data can be generated by the usual means for generating digitized image data, in particular by a known scanning process, digital photography, digitized video information and the like, other known image acquisition methods. In particular, this also includes image data obtained from video or film sequences using so-called frame grabbers. In principle, all known image formats, in particular the BMP, JPEG, PNG, TGA, TIFF or EPS format, can be used as data formats in all the respective versions. Although reference is made to figures in the exemplary embodiments described below, which are depicted in black and white or in gray values for reasons of illustration, the original image data can easily contain color information. The master image data 10 are loaded into a working memory in a read-in step 20 for executing the method. In a process step of an adaptation 30, the original image data are first adapted for an optimal process execution. Adjusting 30 the image properties includes at least changing the image size and color model of the image. Smaller images are generally preferred if the computing time of the method is to be minimized. However, a change in image size can also be a possible source of error for the method according to the invention. In principle, all color models currently in use, in particular RGB and CMYK or grayscale models, but also lab, index or duplex models can be used as the color model to be adapted, depending on requirements.
Für die weitere Verarbeitung werden die angepaßten Bilddaten in einem Schritt 40 für einen wiederholten Zugriff zwischengespeichert. Die zwischengespeicherten Bilddaten 50 bilden die Grundlage im wesentlichen aller nachfolgenden Datenoperationen.For further processing, the adapted image data are temporarily stored in a step 40 for repeated access. The temporarily stored image data 50 essentially form the basis of all subsequent data operations.
In Abhängigkeit von dem vermuteten räumlichen Bildaufbau, d.h. der vermuteten Abstufung der Tiefenebenen im Urbild, folgt nun optional unter einem Zugriff auf die zwischengespeicherten Bilddaten 50 entweder eine Änderung des Farbkanals/der Farbverteilung 60 oder eine Überführung der Bilddaten in ein grauwertabgestuftes Bild mittels einer Grauwertabstufung 70. Die Grauwertabstufung 70 ist vor allem dann vorteilhaft, wenn davon auszugehen ist, daß vorwiegend den auf dem Bild dargestellten Objektkonturen eine Tiefeninformation zuzuordnen ist. In diesem Fall sind alle Farbinformationen des Bildes für eine Tiefeninterpretation des Urbildes gleich relevant und können demnach in gleicher Weise in Grauwerte überführt werden. Eine Abwandlung des Farbkanals bzw. der Farbverteilung in den Bilddaten ist dann zweckmäßig, wenn anzunehmen ist, daß im wesentlichen ein Farbkanal Träger der interpretierten Tiefeninformation ist und daher für die folgende Bearbeitung besonders hervorzuheben bzw. zu berücksichtigen ist. Bei der hier gegebenen beispielhaften Beschreibung des Verfahrensablaufs wird auch aus Gründen der besseren Darstellung insbesondere in Hinblick auf die Figuren davon ausgegangen, daß die zwischengespeicherten Bilddaten 50 unabhängig von ihren Farbwerten in Grauwerte umgewandelt werden, wobei die Farbinformation unverändert bleibt. Im weiteren Verfahrensverlauf schließt sich eine Kantenerkennung 80 an. Dabei wird von der Annahme ausgegangen, daß die in das zweidimensionale Urbild hinein interpretierten Tiefenebenen vor allem durch in die in dem Bildmotiv vorhandenen Objekte definiert sind. Beispielsweise kann davon ausgegangen werden, dass reich strukturierte und damit stark durch Konturen und somit kantenartigen Strukturen geprägte Objekte vorwiegend im Vordergrund des Bildes vorhanden sind und konturarme, verwaschene und somit kantenarme Objekte den Bildhintergrund bilden. Das Kantenerkennungsverfahren 80 wird ausgeführt, um die unterschiedlichen Areale des Urbildes, die aufgrund ihrer Strukturierung zu verschiedenen Tiefenebenen gehören, eindeutig zu identifizieren und voneinander möglichst eindeutig zu unterscheiden.Depending on the assumed spatial image structure, i.e. the assumed gradation of the depth planes in the original image, an access to the temporarily stored image data 50 now either results in a change in the color channel / color distribution 60 or a conversion of the image data into a gray value graded image by means of a gray value gradation 70 The gray value gradation 70 is particularly advantageous when it can be assumed that depth information is predominantly to be assigned to the object contours shown on the image. In this case, all color information of the image is equally relevant for a deep interpretation of the original image and can therefore be converted into gray values in the same way. A modification of the color channel or the color distribution in the image data is expedient if it can be assumed that essentially one color channel is the carrier of the interpreted depth information and should therefore be particularly emphasized or taken into account for the subsequent processing. In the exemplary description of the method sequence given here, for reasons of better representation, in particular with regard to the figures, it is assumed that the temporarily stored image data 50 are converted into gray values independently of their color values, the color information remaining unchanged. An edge detection 80 follows in the further course of the method. The assumption is that the depth planes interpreted into the two-dimensional archetype are primarily defined by the objects present in the image motif. For example, it can be assumed that richly structured objects, which are strongly characterized by contours and thus edge-like structures, are predominantly present in the foreground of the image and that low-contour, washed-out and therefore low-edge objects form the background of the image. The edge detection method 80 is carried out in order to uniquely identify the different areas of the original image which, because of their structure, belong to different depth planes and to differentiate them from one another as clearly as possible.
Fig. 2 stellt einen schematischen und beispielhaften Ablaufplan zur Kantenerkennung dar. Fig. 4 zeigt in Verbindung damit ein beispielhaftes Eingabemenü 89 zur Festlegung der durchzuführenden Veränderungen an den Helligkeitswerten eines zentralen Pixels und einer festgelegten Pixelumgebung. Die durch ihren Grauwert definierten Bildpixel 81 werden in einem Schleifenprozeß fortlaufend bearbeitet. Zunächst erfolgt eine Auswahl 82 eines Pixels und ein Einlesen dessen Helligkeitswertes 83. Dieser Helligkeitswert wird mit einem möglichst großen positiven Wert (in dem hier dargestellten Beispiel mit dem willkürlichen Wert +10) multipliziert, wodurch ein sehr heller Bildpixel 85 erzeugt wird. Ein Helligkeitswert eines jeweils rechts davon liegenden Pixels wird dagegen mit einem möglichst stark negativen Wert (in dem hier dargestellten Beispiel mit -10) in einem Schritt 86 multipliziert, wodurch ein sehr dunkler Pixel 87 erzeugt wird. Dann wird in einem Schritt 88 der nächste Pixel eingelesen. Das Resultat der Kantenerkennung ist ein kantenmarkiertes Bild. Dort, wo das ursprüngliche Bild einen großen Struktur- und damit Kantenreichtum zeigt, bestehen die nunmehr gegebenen kantenmarkierten Bilddaten aus einer Struktur sehr heller bzw. sehr dunkler Pixel, während strukturarme und daher kontur- und kantenarme Bildbereiche eine einheitliche dunkle Färbung aufweisen. Die Struktur der abwechselnd sehr hellen und sehr dunklen Pixel und des damit markierten Objekts weist demnach einen höheren durchschnittlichen Helligkeitswert auf, als ein Areal durchgängig dunkler Pixel.FIG. 2 shows a schematic and exemplary flow chart for edge detection. FIG. 4 shows in connection therewith an exemplary input menu 89 for determining the changes to be made to the brightness values of a central pixel and a defined pixel environment. The image pixels 81 defined by their gray value are continuously processed in a loop process. First, a pixel 82 is selected and its brightness value 83 is read in. This brightness value is multiplied by a positive value that is as large as possible (in the example shown here by the arbitrary value +10), which produces a very bright image pixel 85. In contrast, a brightness value of a pixel to the right of it is multiplied by a strong negative value (in the example shown here by -10) in a step 86, whereby a very dark pixel 87 is generated. The next pixel is then read in in a step 88. The result of the edge detection is an edge-marked image. Where the original image shows a great deal of structure and therefore a wealth of edges, the edge-marked image data now given consist of a structure of very light or very dark pixels, while low-structure and therefore low-contour and low-edge image areas have a uniform dark color. The structure of the alternating very bright and very dark pixels and the object marked with them therefore has a higher average brightness value than an area of consistently dark pixels.
Nebeneinander liegende Strukturen werden nachfolgend mittels eines als „Weichzeichnung" bezeichneten Verfahrensschrittes 90 verstärkt. Dabei werden die Helligkeitswerte einer bestimmten ausgewählten Pixelmenge im kantenmarkierten Bild nach einem bestimmten Algorithmus gemittelt und den Pixeln der ausgewählten Menge zugewiesen. Bewährt hat sich hier insbesondere ein Gaussches Weichzeichnungsverfahren. Im weichgezeichneten kantenmarkierten Bild heben sich die Objektstrukturen als eine hellere Pixelmenge vom dem übrigen Bilddteil ab und ermöglichen eine Identifizierung eines einheitlichen Objektes.Structures lying next to one another are subsequently reinforced by means of a method step 90 referred to as “soft focus” Brightness values of a certain selected pixel amount in the edge-marked image are averaged according to a certain algorithm and assigned to the pixels of the selected amount. A Gaussian soft focus method has proven particularly useful here. In the softened, edge-marked image, the object structures stand out as a lighter pixel set from the rest of the image and enable identification of a uniform object.
Gegebenenfalls kann anschließend in einem Schritt 100 eine Tonwertkorrektur des kantenmarkierten weichgezeichneten Bildes erfolgen. Dabei werden vorzugsweise die Tonwerte der Bildpunkte so korrigiert, dass sich ein möglichst deutlicher Kontrast zwischen der Objektstruktur und dem als Hintergrund des Bildes definierten Rest ergibt.If necessary, a tonal value correction of the edge-marked blurred image can then be carried out in a step 100. The tonal values of the image points are preferably corrected in such a way that there is as clear a contrast as possible between the object structure and the rest defined as the background of the image.
Der nächste Verfahrensschritt ist durch eine Fixpunktfestlegung 110 bezeichnet. Bei diesem Schritt werden die Färb- und/oder Grauwerte des kantenmarkierten weichgezeichneten Bildes auf einen gewissen Wert so begrenzt, dass de facto der virtuelle Drehpunkt der zu erzeugenden virtuellen Einzelansichten definiert wird. Die Fixpunktfestlegung 110 definiert mit anderen Worten die Objekte oder Strukturen, die virtuell als vor oder hinter der Bildoberfläche gelegen angenommen und später so in ihrer Tiefenwirkung abgebildet werden sollen.The next method step is designated by a fixed point determination 110. In this step, the color and / or gray values of the edge-marked, blurred image are limited to a certain value in such a way that the virtual pivot point of the virtual individual views to be generated is defined. In other words, the fixed point definition 110 defines the objects or structures which are supposed to be virtually located in front of or behind the image surface and are to be subsequently imaged in their depth effect.
Weiterhin können optional in einem Verfahrensschritt 120 weitere Fixpunktoptionen berücksichtigt werden. So kann beispielsweise eine erste Vermutung angewendet werden, dass größere blaue Flächen vorwiegend einen Hintergrund (blauer Himmer, Wasser usw.) bilden, während kleinere, scharf umgrenzte und farblich hervorstechende Objekte den Vordergrund des Bildes bilden. Ebenso können gewissen Farbwerten gewisse virtuelle Tiefenebenen von von Beginn an zugeordnet werden. So können zum Beispiel Farbwerte, die einer Gesichtsfarbe entsprechen, einer virtuellen Tiefenebene zugeordnet werden, die einer mittleren Bildtiefe entspricht. Ebenso können definierte Bildabschnitte, wie zum Beispiel der Bildrand oder die Bildmitte gewissen Tiefenebenen, zum Beispiel dem Vordergrund oder dem Hintergrund zugeordnet werden, wobei eine „Vorspannung" oder „Wölbung" des später erzeugten räumlichen Bildes erzeugt werden kann. Durch die so erzeugten Abstufungen der virtuellen Tiefenebenen wird ein virtuelles dreidimensionales Bildgerüst erzeugt, die als eine Verzerrungsmaske oder „Displacement-Map" dient und in Form einer Graustufenmaske visualisiert werden kann. Dieses virtuelle dreidimensionale Bildgerüst wird in einem Schritt 130 zur weiteren Verwendung gespeichert.Furthermore, further fixed point options can optionally be taken into account in a method step 120. For example, a first assumption can be made that larger blue areas predominantly form a background (blue sky, water, etc.), while smaller, sharply delineated objects that stand out in terms of color form the foreground of the image. Certain color values can also be assigned certain virtual depth levels from the start. For example, color values that correspond to a face color can be assigned to a virtual depth level that corresponds to an average image depth. Defined image sections, such as, for example, the image edge or the center of the image, can likewise be assigned to certain depth levels, for example the foreground or the background, in which case a “pre-tensioning” or “arching” of the spatial image produced later can be generated. The gradations of the virtual depth planes generated in this way produce a virtual three-dimensional image structure which serves as a distortion mask or "displacement map" and can be visualized in the form of a grayscale mask. This virtual three-dimensional image structure is stored in a step 130 for further use.
Das virtuelle dreidimensionales Bildgerüst dient als Verzerrungsmaske und virtuelle Form zum Erzeugen eines virtuellen dreidimensionalen Bildmodells. Dabei wird in einem Verfahrensschritt 150, der in Fig. 3 als „Displace" bezeichnet ist, das Urbild als Textur über das virtuelle Bildgerüst gelegt und so verzerrt, daß die entsprechenden Urbildabschnitte auf die virtuellen Tiefenebenen „tiefgezogen" d.h. diesen Tiefenebenen zugeordnet werden. Von diesem virtuellen dreidimensionalen Bildmodell werden nun von einer Reihe verschiedener virtueller Betrachtungswinkel aus virtuelle Einzelbilder 160 des virtuellen dreidimensionalen Bildmodells durch eine virtuelle Projektion der Bilddaten des virtuellen dreidimensionalen Bildmodells entsprechend bekannter perspektivischer Abbildungsgesetze erzeugt.The virtual three-dimensional image framework serves as a distortion mask and virtual form for generating a virtual three-dimensional image model. In a method step 150, which is referred to in FIG. 3 as "Displace", the original image is placed as a texture over the virtual image frame and distorted in such a way that the corresponding original image sections are "deep-drawn" on the virtual depth planes, i.e. be assigned to these depth levels. From this series of virtual three-dimensional image models, virtual individual images 160 of the virtual three-dimensional image model are now generated from a number of different virtual viewing angles by virtual projection of the image data of the virtual three-dimensional image model in accordance with known perspective mapping laws.
In einem Kombinationsschritt 170 werden die virtuellen Einzelbilder nach einem für das Abbildungsverfahren mit zusätzlicher Tiefenwirkung festgelegten Algorithmus so kombiniert, dass schließlich Bilddaten 180 für die dreidimensionale Abbildung des anfänglichen Urbildes vorliegen.In a combination step 170, the virtual individual images are combined in accordance with an algorithm defined for the imaging method with an additional depth effect in such a way that finally image data 180 are available for the three-dimensional imaging of the initial original image.
Im Folgenden werden einige Bildbearbeitungen anhand von Beispielen näher erläutert. Fig. 5a zeigt ein, im allgemeinen farbiges, zweidimensionales Urbild 200. Wie dem Bild zu entnehmen ist, befinden sich eine Reihe von Pflanzen offensichtlich im Vordergrund des Bildmotivs, während offensichtlich weiter im Hintergrund gelegene undeutliche Hafenanlagen, Gebäude und ein weitgehend strukturloser Strand zu erkennen sind. Weiterhin wird der praktisch im Unendlichen gelegene Hintergrund im Urbild 200 durch einen weich verlaufenden Himmel gebildet. Wie der Fig. 5a zu entnehmen ist, zeichnen sich die im offensichtlichen Vordergrund angeordneten Pflanzen durch einen im Vergleich zum Hintergrund beträchtlichen Detailreichtum aus, der sich unter anderem in einer großen Anzahl von „Kanten", beispielsweise im Bereich der Blätter oder der Blüten, zeigt. Der Hintergrund ist im Vergleich dazu kantenarm bzw. kantenfrei. Es ist demnach naheliegend, die Dichte der Kanten im Urbild 200 als Indikator für die räumliche Lage der dargestellten Objekte heranzuziehen. Fig. 5b zeigt ein aus dem Urbild 200 nach einer Graustufenumwandlung und einer optionalen Größenkorrektur gewonnenes kantenmarkiertes Bild 210. Dort, wo sich die strukturreichen Pflanzen aus dem in Fig. 5a gezeigten Urbild 200 befinden, zeigt das kantenmarkierte Bild 210 eine Vielzahl durch helle Pixel markierter Kanten, die besonders im rechten Bildbereich zu einer höheren mittleren Bildhelligkeit führen. Dagegen sind sowohl der Himmel als auch der Strandbereich aus dem Urbild 200 kantenarm und daher im kantenmarkierten Bild 210 vorwiegend dunkel, während die im Urbild 200 erkennbaren Gebäude einige wenige Kantenstrukturen in Form vereinzelter heller Bildpunkte erzeugen.Some image processing is explained in more detail below using examples. 5a shows a generally colored, two-dimensional archetype 200. As can be seen in the picture, a number of plants are obviously in the foreground of the image motif, while indistinct port facilities, buildings and a largely structureless beach are evident in the background are. Furthermore, the practically infinite background in the original image 200 is formed by a soft sky. As can be seen from FIG. 5a, the plants arranged in the obvious foreground are distinguished by a considerable richness of detail in comparison with the background, which among other things shows up in a large number of “edges”, for example in the area of the leaves or the flowers In comparison, the background has little or no edges, so it makes sense to use the density of the edges in the original image 200 as an indicator of the spatial position of the objects shown. FIG. 5b shows an edge-marked image 210 obtained from the original image 200 after a gray scale conversion and an optional size correction. Where the structurally rich plants from the original image 200 shown in FIG. 5a are located, the edge-marked image 210 shows a large number of bright pixels Edges that lead to a higher average image brightness, especially in the right image area. In contrast, both the sky and the beach area from the original image 200 are low-edged and therefore predominantly dark in the edge-marked image 210, while the buildings recognizable in the original image 200 produce a few edge structures in the form of isolated bright pixels.
Die Figuren 6a und 6b zeigen ein weichgezeichnetes kantenmarkiertes Bild 220 und ein weichgezeichnetes kantenmarkiertes und zusätzlich tonwertkorrigiertes Bild 230. Auf dem weichgezeichneten Bild 220 ist zu erkennen, daß sich der rechte Bilddteil durch einen höheren Bildhelligkeitswert vom linken Bildteil unterscheidet. Dieser Unterschied zeigt sich noch deutlicher im tonwertkorrigierten Bild 230 in Fig. 6b. Der Kantenreichtum im Bereich der Pflanzen des Urbildes, mit anderen Worten der Strukturreichtum des angenommenen Vordergrundes, zeigt sich in den Bildern 220 und 230 deutlich als ein heller Bereich. Deutlich ist im tonwertkorrigierten Bild 230 auf der linken Bildhälfte ein etwas hellerer Streifen zu erkennen, der allerdings deutlich dunkler als der Bildbereich der Pflanzen ist. Dieser Streifen entspricht den abgebildeten Gebäuden aus dem Urbild 200 aus Fig. 5a. Der deutlich dunklere Helligkeitswert verweist auf die kantenärmere Struktur der abgebildeten Gebäude und somit auf deren Anordnung im angenommenen Bildhintergrund.FIGS. 6a and 6b show a soft-drawn edge-marked image 220 and a soft-drawn edge-marked and additionally tone-corrected image 230. It can be seen on the soft-drawn image 220 that the right image part differs from the left image part by a higher image brightness value. This difference is shown even more clearly in the tone-corrected image 230 in FIG. 6b. The richness of edges in the area of the plants of the archetype, in other words the richness of structure of the assumed foreground, is clearly shown in pictures 220 and 230 as a bright area. A slightly lighter stripe can be clearly seen in the tone-corrected image 230 on the left half of the image, which is, however, significantly darker than the image area of the plants. This stripe corresponds to the depicted buildings from the original image 200 from FIG. 5a. The significantly darker brightness value refers to the structure of the depicted buildings with less edges and thus to their arrangement in the assumed image background.
Im weichgezeichneten und tonwertkorrigierten Bild bilden der Himmel und der Strand aus dem Urbild 200 eine einheitlich dunkle Fläche. Obwohl der Strand eher zum mittleren Vordergrund des Bildes, als zum durch den Himmel gebildeten Hintergrund zu rechnen ist, kann aus dem kantenmarkierten sowie dem weichgezeichneten und tonwerkorrigierten Bild allein dessen mittlere Vordergrundlage nicht eindeutig bestimmt werden. Hier bietet sich eine Zuordnung des Strandes zu einer virtuellen mittleren Tiefenebene aufgrund des gelben oder braunen Farbwertes an, der sich in diesem Beispiel eindeutig vom Farbwert des blauen Himmels unterscheidet. Dies ist mit der oben bereits erwähnten Fixpunktfestlegung 110 möglich. Fig. 7a zeigt ein diesbezügliches beispielhaftes Menü 239, Fig. 7b das dem Menü entsprechende Bild 240. In einem Histogramm 241 sind eine Reihe von Farbkanälen dargestellt, die in dem in Fig. 7a gezeigten Ausführungsbeispiel eine Reihe von Grauwerten sind. Die entsprechenden Grauwerte sind in einer Grauwertleiste 242 angezeigt. Im linken Teil des Histogramms 241, bzw. der Grauwertleiste 242 befinden sich die dunklen Helligkeitswerte, im rechten Teil die hellen Helligkeitswerte. Die Größe der Histogrammbalken zeigt die Häufigkeitsverteilung der entsprechenden Grauwerte an. Zu erkennen ist, dass sich der helle Bereich des weichgezeichneten, bzw. tonwertkorrigierten Bildes 220 oder 230 in einem breiten Maximum des Histogramms 241 zeigt, während die dunklen Bereiche in den Bildern 220 und 230 zu einem Maximum im linken Teil des Histogramms 241 bei den dunklen Helligkeitswerten führt. Mittels Indikatorenzeigern 243 können gewisse Helligkeitswerte ausgewählt werden. Mit Hilfe der Tasten 245 können Helligkeitswerte ausgewählter Pixel direkt aus dem Bild 241 in das Histogramm 241 ausgelesen und übertragen werden.In the soft-drawn and tonally corrected image, the sky and the beach from the original image 200 form a uniformly dark surface. Although the beach is to be counted as the middle foreground of the picture rather than the background formed by the sky, it is not possible to clearly determine the middle foreground position from the edge-marked, soft-drawn and tonal-corrected picture alone. Here it is advisable to assign the beach to a virtual middle depth level based on the yellow or brown color value, which in this example clearly differs from the color value of the blue sky. This is possible with the fixed point definition 110 already mentioned above. 7a shows an exemplary menu 239 in this regard, FIG. 7b the image 240 corresponding to the menu. A histogram 241 shows a series of color channels, which in the exemplary embodiment shown in FIG. 7a are a series of gray values. The corresponding gray values are shown in a gray value bar 242. In the left part of the histogram 241 or the gray value bar 242 there are the dark brightness values, in the right part the light brightness values. The size of the histogram bar shows the frequency distribution of the corresponding gray values. It can be seen that the bright area of the soft-drawn or tonally corrected image 220 or 230 is shown in a wide maximum of the histogram 241, while the dark areas in the images 220 and 230 become a maximum in the left part of the histogram 241 in the dark Brightness values. Certain brightness values can be selected by means of indicator pointers 243. With the help of the buttons 245, brightness values of selected pixels can be read out directly from the image 241 into the histogram 241 and transmitted.
In dem hier dargestellten Beispiel stellt sich heraus, dass sich der dem Strand aus dem Urbild 200 entsprechende Bereich in seinem Helligkeitswert vom dem dem Himmel aus dem Urbild 210 entsprechenden Bildabschnitt unterscheidet. Dieser kann mittels eines Auswahlindikators 244 als virtuelle Bildebene ausgewählt werden und bildet einen möglichen Fixpunkt für virtuelle Einzelansichten des später zu erzeugenden virtuellen dreidimensionalen Bildmodells.In the example shown here it turns out that the area corresponding to the beach from the original image 200 differs in its brightness value from the image section corresponding to the sky from the original image 210. This can be selected as a virtual image plane using a selection indicator 244 and forms a possible fixed point for virtual individual views of the virtual three-dimensional image model to be generated later.
Die Figuren 8a und 8b zeigen an einem sehr stark schematisierten Beispiel eine Tiefenebenenzuordnung und eine Konstruktion eines virtuellen dreidimensionalen Bildgerüstes. In Fig. 8a ist ein stark schematisiertes monokular erzeugtes zweidimensionales Urbild 301 dargestellt, dessen einzelne Objekte in ihrer räumlichen Lage im Bild schon durch die vorhergehend beschriebenen Konturerkennungsverfahren identifiziert worden seien. Das in Fig. 8a beispielhaft dargestellte schematische Urbild 301 weist ein erstes Objekt 303, ein zweites Objekt 304 und ein drittes Objekt 305 auf, die vor einer als Hintergrund identifizierten Fläche 306 angeordnet sind und sich von dieser abheben.FIGS. 8a and 8b use a very highly schematic example to show a depth level assignment and a construction of a virtual three-dimensional image frame. FIG. 8a shows a highly schematic, monocularly generated two-dimensional archetype 301, the individual objects of which in their spatial position in the image have already been identified by the contour recognition methods described above. The schematic master image 301 shown by way of example in FIG. 8a has a first object 303, a second object 304 and a third object 305, which are arranged in front of an area 306 identified as background and stand out from the latter.
Die vorhergehend beschriebenen Verfahren zur Konturenmarkierung, zur Fixpunktdefinition und weitere Vermutungen über die Bildtiefe lassen es beispielhafter Weise für das schematische Urbild 301 in Fig. 8a in sinnvoll erscheinen, das erste Objekt 303 in der Tiefenebene im Vordergrund anzuordnen, während die Objekte 304 und 305 weiter im Bildhintergrund vermuteten Tiefenebenen zuzuordnen sind. Die Fläche 306 bildet einen quasi im Unendlichen gelegenen Bildhintergrund. In Fig. 8b ist das aus den Zuordnungen der Objekte aus Fig. 8a zu den entsprechenden Tiefenebenen erzeugte virtuelle Bildgerüst 307 in einem Schnitt entlang der Linien A - A bzw. der Linie B - B aus Fig. 8a gezeigt. Die Schnitte entlang der Schnittlinien A - A, bzw. B - B ergeben somit ein virtuelles „Höhenprofil" des virtuellen Bildgerüstes. Wie aus Fig. 8b zu entnehmen ist, ist das Objekt 303 in diesem virtuellen „Höhenprofil" auf der obersten Tiefenebene angeordnet, während das Objekt 304 einer darunter befindlichen Tiefenebene zugeordnet wird. Das Objekt 305 bildet eine weitere Tiefenebene im virtuellen Bildgerüst in der Figur 8b aus. Die virtuelle Tiefenebene des Bildhintergrundes 306 ist in Fig. 8b aus Darstellungsgründen relativ nahe zu den Tiefenebenen der anderen Objekte 303, 304 und 305 angeordnet. Ein zweckmäßiges virtuelles Bildgerüst muß zweckmäßigerweise Tiefenebenenabstufungen aufweisen, die der vermuteten tatsächlichen räumlichen Lage der Objekte entsprechen. So sollte die virtuelle Tiefenebene des Bildhintergrundes demnach zweckmäßigerweise so angeordnet sein, dass deren Abstand zu den übrigen definierten Tiefenebenen des virtuellen Bildgerüstes ein Vielfaches der Abstände zwischen den jeweils anderen entspricht. Werden beispielsweise die Abstände zwischen den virtuellen Tiefenebenen der Objekte 303 und 304 bzw. zwischen der virtuellen Tiefenebene des Objektes 304 und 305 im Bereich von einigen Metern definiert, muß der zweckmäßige virtuelle Abstand zwischen der Tiefenebene des Objektes 305 und der Tiefenebene des Hintergrundes 306 für ein realistisches Bildgerüst zweckmäßigerweise eine Größe annehmen, die im Kilometerbereich liegt, da erfahrungsgemäß für Objekte im Hintergrund gilt, dass diese praktisch unverändert bei kleinen Unterschieden im Betrachtungswinkel abgebildet werden.The previously described methods for contour marking, for the definition of fixed points and further assumptions about the image depth make it more exemplary 8a seems to make sense for the schematic original image 301 in FIG. 8a to arrange the first object 303 in the depth plane in the foreground, while the objects 304 and 305 are further assigned to presumed depth planes in the image background. The area 306 forms an image background which is virtually at infinity. 8b shows the virtual image structure 307 generated from the assignments of the objects from FIG. 8a to the corresponding depth planes in a section along the lines A-A or the line B-B from FIG. 8a. The cuts along the section lines A - A or B - B thus result in a virtual “height profile” of the virtual image frame. As can be seen from FIG. 8b, the object 303 is arranged in this virtual “height profile” on the top depth level, while the object 304 is assigned to a depth plane below. The object 305 forms a further depth plane in the virtual image structure in FIG. 8b. For reasons of illustration, the virtual depth plane of the image background 306 is arranged relatively close to the depth planes of the other objects 303, 304 and 305 in FIG. 8b. An expedient virtual image structure expediently has to have depth level gradations which correspond to the presumed actual spatial position of the objects. Accordingly, the virtual depth plane of the image background should expediently be arranged such that its distance from the other defined depth planes of the virtual image framework corresponds to a multiple of the distances between the other. If, for example, the distances between the virtual depth planes of objects 303 and 304 or between the virtual depth planes of objects 304 and 305 are defined in the range of a few meters, the appropriate virtual distance between the depth plane of object 305 and the depth plane of background 306 must be a Realistic image structure expediently assume a size that is in the kilometer range, since experience has shown that objects in the background are depicted practically unchanged with small differences in the viewing angle.
Das zweidimensionale Urbild wird auf das virtuelle Bildgerüst angepaßt. Bei dem in den Figuren 8a und 8b gezeigten schematischen Beispiel erfolgt dies so, daß die Bilddaten des Urbildes 301, insbesondere die Bildinformationen der einzelnen Pixel, virtuell den einzelnen Tiefenebenen im virtuellen Bildgerüst zugewiesen werden. Es entsteht ein virtuelles dreidimensionales Bildmodell, das in dem hier dargestellten Beispiel einer Anordnung aus „Kulissen" vergleichbar ist, bei der sich das Objekt 303 virtuell auf der Höhe einer ersten virtuellen Tiefenebene im Vordergrund befindet und die weiteren, auf den Niveaus der entsprechenden anderen Tiefenebenen gelegenen „Kulissen" der Objekte 304 und 305 „verdeckt".The two-dimensional archetype is adapted to the virtual frame. In the schematic example shown in FIGS. 8a and 8b, this is done in such a way that the image data of the original image 301, in particular the image information of the individual pixels, are virtually assigned to the individual depth planes in the virtual image frame. A virtual three-dimensional image model is created which, in the example shown here, is comparable to an arrangement of “backdrops” in which the object 303 is virtually in the foreground at the level of a first virtual depth plane and the further “scenes” of objects 304 and 305 located on the levels of the corresponding other depth levels are “hidden”.
Fließende Übergänge zwischen den einzelnen virtuellen Tiefenebenen können in Ergänzung dazu zum einen dadurch erreicht werden, indem das Raster der Abstufungen der virtuellen Abstände zwischen den einzelnen Tiefenebenen verfeinert wird und bei den einzelnen Tiefenebenen weitere Abstufungen vorgenommen werden. Zum anderen ist es auch möglich, die Ränder der Tiefenebenen bzw. der auf den Tiefenebenen gelegenen Objekte geeignet virtuell so zu deformieren, daß diese ineinander übergehen. So wäre es beispielsweise bei dem schematischen Objekt 303 in Fig. 8a möglich, den Rand von dessen Tiefenebene virtuell so deformieren, dass das Objekt 303 eine virtuelle sphärische Krümmung erhält. In einer dazu entsprechenden Weise können die Tiefenebenen des virtuellen Bildgerüstes so deformiert werden, daß die darauf abgebildeten Bildinformationen des zweidimensionalen Urbildes im Rahmen eines zweckmäßigen oder gewünschten virtuellen dreidimensionalen Bildmodells prinzipiell beliebige Formen oder Verzerrungen aufweisen können, die entweder einer wirklichen dreidimensionalen Körperform weitgehend entsprechen oder auch mit beliebigen künstlerischen Effekten angereichert sein können.In addition to this, smooth transitions between the individual virtual depth levels can be achieved by refining the grid of the gradations of the virtual distances between the individual depth levels and by carrying out further gradations at the individual depth levels. On the other hand, it is also possible to appropriately deform the edges of the depth planes or the objects located on the depth planes in such a way that they merge into one another. For example, in the case of the schematic object 303 in FIG. 8 a, it would be possible to virtually deform the edge of its depth plane in such a way that the object 303 receives a virtual spherical curvature. In a corresponding manner, the depth planes of the virtual image framework can be deformed in such a way that the image information of the two-dimensional archetype mapped thereon can in principle have any shape or distortion within the scope of an expedient or desired virtual three-dimensional image model, which either largely corresponds to a real three-dimensional body shape or also can be enriched with any artistic effects.
Die Figuren 9a und 9b zeigen ein aus dem virtuellen Bildgerüst aus der Figur 8b erzeugtes virtuelles dreidimensionales Bildmodell 807 im Schnitt entlang der Linien A - A bzw. B - B aus Fig. 8a und deren virtuelle Aufnahmen aus zwei Betrachtungswinkeln 351 und 352. Die in den Figuren 9a und 9b dargestellte Konfiguration entspricht einer binokularen Betrachtung eines dreidimensionalen Objektes, die innerhalb des Verfahrens virtuell ausgeführt wird. Entsprechend den Gesetzmäßigkeiten der Perspektive erscheinen die virtuellen dreidimensionalen Objekte 303, 304, 305 und 306 von den betreffenden virtuellen Betrachtungswinkeln 351 und 352 aus unterschiedlich gegeneinander verschoben. Diese perspektivische Verschiebung ist die Grundlage der binokularen oder multiokularen Betrachtung räumlicher Objekte und wird im Rahmen des erfindungsgemäßen Verfahrens virtuell modellhaft nachvollzogen.FIGS. 9a and 9b show a virtual three-dimensional image model 807 generated from the virtual image framework from FIG. 8b in section along the lines A - A and B - B from FIG. 8a and their virtual recordings from two viewing angles 351 and 352 The configuration shown in FIGS. 9a and 9b corresponds to a binocular view of a three-dimensional object, which is carried out virtually within the method. In accordance with the laws of perspective, the virtual three-dimensional objects 303, 304, 305 and 306 appear to be shifted differently from one another from the relevant virtual viewing angles 351 and 352. This perspective shift is the basis for the binocular or multi-ocular viewing of spatial objects and is virtually modeled within the scope of the method according to the invention.
Fig. 10 zeigt ein Beispiel einer virtuell erzeugten Verschiebung unter dem Einfluß der virtuellen betrachtenden Projektion aus dem virtuellen Betrachtungswinkel 352 am10 shows an example of a virtually generated displacement under the influence of the virtual viewing projection from the virtual viewing angle 352 am
Beispiel des Ausschnitts des virtuellen dreidimensionalen Bildmodells aus Fig. 9a. Zum Berechnen der virtuellen perspektivischen Verschiebung der virtuellen Objekte des virtuellen dreidimensionalen Bildmodells können unterschiedliche Verfahren angewendet werden. Bei dem in Fig. 10 beispielhaft gezeigten Verfahren wird das Prinzip der zentrischen Streckung angewendet, wobei die virtuell vom Betrachtungswinkel 352 aus anvisierten Objekte 303, 304 und 306 auf eine virtuelle Projektionsebene 308 projiziert werden und dabei eine Größenveränderung erfahren. Die Projektionsebene kann sich sowohl virtuell vor dem virtuellen dreidimensionalen Bildmodell, als auch hinter dem dreidimensionalen Bildmodell befinden. Eine Lage der virtuellen Projektionsebene innerhalb des virtuellen dreidimensionalen Bildmodells, beispielsweise in einer der bei der Fixpunktbestimmung festgelegten Bildschirmebene ist ebenfalls möglich und sogar am zweckmäßigsten, da eine solche Projektion binokulare Betrachtungsverhältnisse am besten nachvollzieht. Bei der in Fig. 10 gezeigten Projektion bildet der Betrachtungswinkel 352 gleichzeitig ein Projektionszentrum, wobei das virtuelle dreidimensionale Bildmodell gleichsam in einem virtuellen „Auflichtverfahren" betrachtet wird, bei dem die Strahlenquelle virtuell mit der Kamera zusammenfällt.Example of the section of the virtual three-dimensional image model from FIG. 9a. To calculate the virtual perspective shift of the virtual objects of the Different three-dimensional image models can be used. In the method shown by way of example in FIG. 10, the principle of centric stretching is applied, the objects 303, 304 and 306 virtually sighted from the viewing angle 352 being projected onto a virtual projection plane 308 and thereby experiencing a change in size. The projection plane can be virtually in front of the virtual three-dimensional image model as well as behind the three-dimensional image model. A position of the virtual projection plane within the virtual three-dimensional image model, for example in one of the screen planes determined during the fixed point determination, is also possible and even the most expedient, since such a projection best reflects binocular viewing conditions. In the projection shown in FIG. 10, the viewing angle 352 simultaneously forms a projection center, the virtual three-dimensional image model being viewed as it were in a virtual “incident light method” in which the radiation source virtually coincides with the camera.
Andere virtuelle Projektionstechniken sind ebenfalls anwendbar bzw. zweckmäßig. So kann das Projektionszentrum virtuell hinter dem Hintergrund des virtuellen dreidimensionalen Bildmodells angeordnet sein und die entsprechenden Objekte der virtuellen Tiefenebenen als „Schattenriß" auf eine zweckmäßig positionierte Projektionsebene projizieren, die von einem Betrachtungswinkel aus betrachtet wird. Bei einer derartigen virtuellen Projektion erscheinen die im virtuellen Vordergrund gelegenen Objekte gegenüber den virtuell hinter ihnen befindlichen Objekten vergrößert, wodurch ein zusätzlicher Raumeffekt hervorgerufen werden kann.Other virtual projection techniques can also be used or are expedient. Thus, the projection center can be arranged virtually behind the background of the virtual three-dimensional image model and project the corresponding objects of the virtual depth planes as a “silhouette” onto an appropriately positioned projection plane that is viewed from a viewing angle. In the case of such a virtual projection, they appear in the virtual foreground located objects are enlarged compared to the objects virtually behind them, which can create an additional spatial effect.
Weiterhin ist es möglich, mehrere virtuelle Projektionszentren in Verbindung mit mehreren virtuellen Projektionsebenen in beliebiger zweckmäßiger Kombination vorzusehen. So kann beispielsweise der virtuelle Hintergrund von einem virtuell sehr weit hinter dem virtuellen dreidimensionalen Bildmodell angeordneten Projektionszentrum auf eine erste Projektionsebene projiziert werden, während eine Anordnung vieler, sehr dicht gegeneinander abgestufter Objekte im virtuellen Vordergrund durch ein zweites Projektionszentrum projiziert werden, die keinerlei Vergrößerungen an diesen Objekten, sondern nur eine virtuelle Verschiebung dieser Objekte hervorruft. Die Wahl der virtuellen Projektionsmechanismen bzw. der Anzahl der Betrachtungswinkel hängt von konkreten Einzelfall, insbesondere vom Bildmotiv des zweidimensionalen Urbildes, von den in das Urbild hinein interpretierten Tiefenverhältnissen, von den gewünschten und/oder zu unterdrückenden Bildeffekten und nicht zuletzt auch vom als zweckmäßig erachteten Rechenaufwand und von dem letztlich angewendeten räumlichen Abbildungsverfahren ab, für das die Raumbildvorlage erzeugt werden soll. Prinzipiell können jedoch von dem virtuellen dreidimensionalen Bildmodell beliebig viele perspektivische Einzelbilder mit beliebig vielen, beliebig angeordneten virtuellen Projektionszentren, virtuellen Projektionsebenen, Betrachtungswinkeln usw. erzeugt werden, wobei das in Fig. 10 dargestellte sehr einfache Ausführungsbeispiel nur eine nicht repräsentative, sondern nur beispielhafte Ausführungsmöglichkeit aufzeigt.Furthermore, it is possible to provide several virtual projection centers in connection with several virtual projection levels in any suitable combination. For example, the virtual background can be projected onto a first projection level from a projection center that is located very far behind the virtual three-dimensional image model, while an arrangement of many, very densely graduated objects in the virtual foreground is projected through a second projection center that does not enlarge them Objects, but only a virtual displacement of these objects. The choice of the virtual projection mechanisms or the number of viewing angles depends on the specific individual case, in particular on the image motif of the two-dimensional archetype, on the depth ratios interpreted into the archetype, on the desired and / or suppressed image effects and, last but not least, on the computing effort deemed appropriate and on the ultimately used spatial imaging method for which the spatial image template is to be generated. In principle, however, any number of perspective single images with any number of arbitrarily arranged virtual projection centers, virtual projection planes, viewing angles, etc. can be generated from the virtual three-dimensional image model, the very simple exemplary embodiment shown in FIG. 10 only showing an unrepresentative, but only exemplary embodiment ,
In der Figur 11a ist eine Reihe von nach einem der vorhergehend beschriebenen Projektionsverfahren virtuell erzeugten Einzelbildern 208a bis 208d aus einem virtuellen dreidimensionalen Bildmodell des in Fig. 5a beispielhaft gezeigten Urbildes 200 dargestellt. Obwohl die virtuellen Einzelbilder 208a bis 208d in diesem Ausführungsbeispiel schwarz/weiß dargestellt sind, sind diese in der Regel farbig. In den Einzelbildern 208a, 208b, 208c und 208d ist vor allem durch Vergleich der im oberen Bildteil dargestellten Blütenstruktur eine unterschiedliche Deformation dieses Bildabschnittes zu erkennen. Diese entsteht durch die virtuelle Projektion des virtuellen dreidimensionalen Bildmodells für die jeweiligen, in diesem Ausführungsbeispiel vier virtuellen Betrachtungswinkel.FIG. 11 a shows a series of individual images 208 a to 208 d generated virtually according to one of the previously described projection methods from a virtual three-dimensional image model of the original image 200 shown as an example in FIG. 5 a. Although the virtual individual images 208a to 208d are shown in black and white in this exemplary embodiment, they are generally colored. In the individual images 208a, 208b, 208c and 208d, a different deformation of this image section can be seen above all by comparing the flower structure shown in the upper part of the image. This arises from the virtual projection of the virtual three-dimensional image model for the respective, in this exemplary embodiment four virtual viewing angles.
Fig. 11 zeigt eine aus den virtuellen Einzelbildern 208a, 208b, 208c und 208d kombinierte Raumbildvorlage 209 für ein Abbildungsverfahren mit Raumeindruck in Verbindung mit einem vergrößerten Bildausschnitt 211 des oberen mittleren Bildteiles aus der Raumbildvorlage 209. Die Raumbildvorlage 209 wird aus den Einzelbildern 208a-d nach einem für das jeweils zur Anwendung kommende Abbildungsverfahren mit Tiefenwirkung kombiniert.11 shows a spatial image template 209 combined from the virtual individual images 208a, 208b, 208c and 208d for an imaging method with spatial impression in conjunction with an enlarged image section 211 of the upper middle image part from the spatial image template 209. The spatial image template 209 is made up of the individual images 208a-d combined with a depth effect for an imaging process used in each case.
Im Folgenden werden unter Bezugnahme auf die Figuren 12a und 12b, bzw. auf die Figuren 13a bis 13c beispielhafte zweidimensionale Bildvorlagen und deren Abbildungen mittels eines monofokalen Linsenrasters beschrieben. Fig. 12a zeigt ein beispielhaftes zweidimensionales Urbild 200, das in eine Reihe von Bildabschnitten 361 unterteilt ist. Die Größe der einzelnen Bildabschnitte ist prinzipiell beliebig und wird im wesentlichen durch die durchschnittliche Größe der kleinsten geschlossenen Bildobjekte und der einzelnen Bildpunkte bestimmt. Sofern angenommen wird, dass deutlich erkennbare Bildstrukturen im Bildvordergrund liegen, müssen diese zweckmäßigerweise durch die Bildabschnitte im wesentlichen als Einheit erfaßt werden, damit diese von anderen Strukturen unterscheidbar sind und dem betrachtenden Auge einen ausreichenden Akkomodationsreiz bieten. Das bedeutet, dass mit einer zunehmend kleinen Rasterung für eine zunehmende Anzahl von Einzelheiten Akkomodationsreize geschaffen werden können, die zu einem Tiefeneindruck beim Betrachter führen, sofern dabei nicht die einzelnen Bildpunkte, d.h. die Bildpixel hervorgehoben werden.Exemplary two-dimensional image templates and their images are described below with reference to FIGS. 12a and 12b, or FIGS. 13a to 13c, using a monofocal lenticular screen. 12a shows an exemplary two-dimensional original image 200, which is divided into a series of image sections 361. The size of the individual image sections is in principle arbitrary and is essentially determined by the average size of the smallest closed image objects and the individual pixels. If it is assumed that clearly recognizable image structures lie in the foreground of the image, these must expediently be detected essentially as a unit by the image sections, so that they can be distinguished from other structures and offer the viewing eye a sufficient accommodation stimulus. This means that with an increasingly small grid for an increasing number of details, accommodation stimuli can be created, which lead to a deep impression on the viewer, provided that the individual image points, ie the image pixels, are not emphasized.
Die Fig. 12a zeigt ein matrixförmiges Raster aus im wesentlichen quadratischen Bildabschnitten. Eine andere Einteilung des zweidimensionalen Urbildes 200 ist jedoch ohne weiteres möglich. Zweckmäßig sind unter anderem hier nicht dargestellte kreisförmige Bildabschnitte in einer hexagonalen Anordnung. Die hexagonale Anordnung kreisförmiger Bildabschnitte bietet den Vorteil, daß ein gegebener Bildabschnitt im Vergleich zu der matrixförmigen Bildaufteilung sechs unmittelbare Nachbarn existieren und somit für das akkomodierende Auge ein homogenerer Übergang von einem ersten Bildabschnitt zur nächsten Umgebung des Bildes vorhanden ist.FIG. 12a shows a matrix-shaped grid of essentially square image sections. Another division of the two-dimensional archetype 200 is, however, readily possible. Among other things, it is useful to have circular image sections, not shown here, in a hexagonal arrangement. The hexagonal arrangement of circular image sections offers the advantage that a given image section has six immediate neighbors compared to the matrix-shaped image division, and thus there is a more homogeneous transition for the accommodating eye from a first image section to the immediate surroundings of the image.
Die Bildabschnitte 361 können vorverarbeitete, insbesondere skalierte, gedrehte oder auch gegenüber mehreren Achsen gespiegelte Bilddaten enthalten, die vor allem in Hinblick auf die Kompensation der abbildenden Wirkung des Linsenrasters vorab vorgenommen werden. In diesem Fall bilden die Bildabschnitte ein tatsächlich auf der zweidimensionalen Bildvorlage vorhandenes Mosaik aus. Aus Fig. 12a geht darüber hinaus hervor, dass einige Bildabschnitte 361a eine überwiegend strukturarme Bildinformation enthalten, während einige andere Bildabschnitte 361b besonders strukturreich sind.The image sections 361 can contain preprocessed, in particular scaled, rotated or also mirrored image data with respect to several axes, which are carried out in advance with a view to compensating for the imaging effect of the lenticular screen. In this case, the image sections form a mosaic that is actually present on the two-dimensional image template. 12a also shows that some image sections 361a contain predominantly structurally poor image information, while some other image sections 361b are particularly structurally rich.
In dem in Fig. 12a dargestellten Beispiel liegt das Raster der Bildabschnitte jedoch zunächst nicht tatsächlich in der Bildvorlage selbst vor und tritt erst durch das darüber gelegte Linsenraster in Erscheinung. Eine dafür beispielhafte Anordnung ist in einer Seitenansicht in Fig. 12b gezeigt. Die zweidimensionale Bildvorlage erscheint auf einer Display-Fläche 370, beispielsweise der fluoreszierenden Fläche einer Bildröhre oder der flüssigkristallinen Matrix eines Flachbildschirms und wird durch eine Display- Oberfläche 375 hindurch betrachtet. Auf der Display-Oberfläche 375 ist das monofokale Linsenraster 360 angeordnet, das beispielsweise als eine transparente, einer Reihe von matrixartig oder hexagonal angeordneten Fresnel-Linsen oder Zonenplatten enthaltende Folie ausgebildet sein kann. Die Folie selbst haftet durch adhäsive Haftkräfte, elektrostatische Kräfte oder einen transparenten Haftfilm fest auf der Displayoberfläche. Jedes Linsenelement 365 des Linsenrasters bildet einen darunter befindlichen Bildabschnitt 361 so ab, dass dieser durch die dabei bewirkte Vergrößerung vor oder hinter der Bildebene des Displays 370 erscheint. Daher sind die Linsenelemente 365 so ausgeführt, dass sich die Displayoberfläche entweder kurz vor oder hinter den einzelnen Brennpunkten des Linsenrasters befindet.In the example shown in FIG. 12a, however, the raster of the image sections is initially not actually present in the original image itself and only appears through the lens raster placed above it. An exemplary arrangement for this is in one Side view shown in Fig. 12b. The two-dimensional image template appears on a display surface 370, for example the fluorescent surface of a picture tube or the liquid-crystalline matrix of a flat screen, and is viewed through a display surface 375. The monofocal lenticular grid 360 is arranged on the display surface 375 and can be designed, for example, as a transparent film which contains a number of matrix-like or hexagonally arranged Fresnel lenses or zone plates. The film itself adheres firmly to the display surface through adhesive, electrostatic forces or a transparent adhesive film. Each lens element 365 of the lenticular screen forms an image section 361 located underneath it in such a way that it appears in front of or behind the image plane of the display 370 as a result of the enlargement thereby caused. Therefore, the lens elements 365 are designed such that the display surface is either just before or behind the individual focal points of the lenticular screen.
In den Figuren 13a bis 13c ist dies näher dargestellt. Die Figuren zeigen einen beispielhaften Bildausschnitt 200a aus dem in Fig. 12a gezeigten zweidimensionalen Urbild 200 mit den durch das Linsenraster 360 bzw. den lokalen Linsenelementen hervorgerufenen Veränderungen des Bildausschnitts.This is shown in more detail in FIGS. 13a to 13c. The figures show an exemplary image detail 200a from the two-dimensional original image 200 shown in FIG. 12a with the changes in the image detail caused by the lens grid 360 or the local lens elements.
Der Bildausschnitt 200a wird durch einen unveränderten Teil des zweidimensionalen Urbildes 200 aus Fig. 12a gebildet, der auf dem Display 370 angezeigt wird. In Fig. 13b wird der Bildausschnitt 200a durch eine Anordnung aus vier beispielhaften Bildabschnitten 361 unterteilt. Dabei enthalten die beiden linken Bildabschnitte 361a jeweils eine eher strukturlose und diffuse Bildhintergrundinformation, während die rechten Bildabschnitte 361 einen strukturreichen Inhalt zeigen, der sich offensichtlich im Bildvordergrund befindet.The image section 200a is formed by an unchanged part of the two-dimensional original image 200 from FIG. 12a, which is shown on the display 370. 13b, the image section 200a is divided by an arrangement of four exemplary image sections 361. The two left-hand image sections 361a each contain more structureless and diffuse background information, while the right-hand image sections 361 show structure-rich content that is obviously located in the foreground of the image.
Jeder dieser Bildabschnitte wird, wie in Fig. 13c beispielhaft dargestellt, durch ein Linsenelement 365 vergrößert abgebildet. In der in Fig. 13c gezeigten beispielhaften Darstellung beträgt der Vergrößerungsfaktor bei Verwendung eines Linsenelementes mit fokussierender Wirkung 365 etwa 1:2. Bei dieser beispielhaften Darstellung ergeben die linken Bildteile 361a, die einen diffusen strukturlosen Bildhintergrund enthalten, auch bei der Vergrößerung durch das Linsenraster durch deren Strukturlosigkeit einen geringen Akkomodationsreiz, während die beiden rechten Bildabschnitte 361b aus Fig. 13c Strukturen enthalten, die eine Akkomodation des Auges auf die so dargestellten Bildinhalte veranlassen. Im Ergebnis erscheinen die Bildinhalte der rechten Bildabschnitte 361b aus Fig. 13c dem Betrachter deutlich näher als die Inhalte der linken Bildabschnitte 361a. Bei einer zweckmäßigen Größe der einzelnen Bildabschnitte 361 werden die bei der Abbildung durch das Linsenraster erzeugten Lücken durch die Wirkungsweise des physiologischen visuellen Wahrnehmungsapparates ausgeglichen und integriert.As illustrated by way of example in FIG. 13c, each of these image sections is imaged enlarged by a lens element 365. In the exemplary illustration shown in FIG. 13c, the magnification factor when using a lens element with a focusing effect 365 is approximately 1: 2. In this exemplary representation, the left image parts 361a, which contain a diffuse structure-free image background, also result in a slight accommodation stimulus when they are enlarged by the lenticular grid due to their structurelessness, while the two right image sections 361b from FIG. 13c contain structures which accommodate the Have your eyes on the image content displayed in this way. As a result, the image contents of the right image sections 361b from FIG. 13c appear significantly closer to the viewer than the contents of the left image sections 361a. With a suitable size of the individual image sections 361, the gaps generated during the imaging by the lenticular grid are compensated for and integrated by the mode of action of the physiological visual perception apparatus.
Bei dem Ausführungsbeispiel aus den Figuren 13a bis 13c führt die Abbildung der Bildabschnitte 361 zu einer horizontal und vertikal gespiegelten Darstellung. Grundsätzlich bieten sich zwei Möglichkeiten, um diesem Effekt zu begegnen. Bei einer ersten Vorgehensweise werden die einzelnen Bildabschnitte der zweidimensionalen Urbildvorlage in der Nachfolge des vorhergehend erwähnten Bildbearbeitungsverfahrens so vorbereitet, insbesondere skaliert bzw. horizontal oder vertikal gespiegelt, dass deren Abbildung wieder zum ursprünglichen Ausgangsbild zurückführt. Die Stärke der vorbereitenden Skalierungen, bzw. Spiegelungen wird aufgrund des Vergrößerungsfaktors des Linsenrasters bzw. der aus dem virtuellen dreidimensionalen Bildmodell abgeleiteten Lage der darzustellenden Objekte abgeleitet und an den Bildabschnitten vorab ausgeführt.In the exemplary embodiment from FIGS. 13a to 13c, the imaging of the image sections 361 leads to a horizontally and vertically mirrored representation. There are basically two ways to counter this effect. In a first procedure, the individual image sections of the two-dimensional original image are prepared in the sequence of the image processing method mentioned above, in particular scaled or mirrored horizontally or vertically, so that their mapping leads back to the original starting image. The strength of the preparatory scalings or reflections is derived on the basis of the magnification factor of the lenticular grid or the position of the objects to be represented, which is derived from the virtual three-dimensional image model, and is carried out in advance on the image sections.
Bei einer zweiten Möglichkeit, die insbesondere für einfache Bildmotive, wie Zeichen oder einfache geometrische Strukturen auf einem einheitlichen Bildhintergrund, anwendbar ist, werden Anzahl, Anordnung und Größe der Linsenelemente im Linsenraster so gewählt, dass die Abbildungsfaktoren für das gesamte Bild unbedeutend sind. Diese Ausführungsform bietet vor allem den Vorteil, dass zum Teil rechenintensive Bildvorbereitungen entfallen und die Raumbildvorlage ohne Linsenraster problemlos erkannt werden kann. Das Bild 200 wirkt ohne monofokales Linsenraster als ein normales zweidimensionales Bild, während es durch die Anwendung des Linsenrasters in einer Tiefenwirkung gestaffelt erscheint, wobei die Tiefenwirkung durch ein bloßes Anbringen des Linsenrasters, also mit sehr einfachen Mitteln, hervorgerufen werden kann.In a second possibility, which can be used in particular for simple image motifs, such as characters or simple geometric structures on a uniform image background, the number, arrangement and size of the lens elements in the lenticular grid are selected such that the imaging factors for the entire image are insignificant. Above all, this embodiment offers the advantage that image-intensive image preparations are sometimes omitted and the spatial image template can be easily recognized without a lenticular screen. The image 200 acts as a normal two-dimensional image without a monofocal lenticular screen, while it appears staggered in depth as a result of the use of the lenticular screen, the depth effect being able to be brought about simply by attaching the lenticular screen, that is to say with very simple means.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
10 Urbilddaten 20 Einlesen der Urbilddaten Anpassen der Urbilddaten Zwischenspeichern der angepaßten Urbilddaten zwischen gespeicherte Bilddaten optionale Farbkanal/Farbverteilungsänderung Umwandlung in Grauwerte Kantenerkennungsverfahren Daten des Bildpixels Auswahl des Bildpixels Einlesen des Helligkeitswertes des Bildpixels Erhöhen des Helligkeitswertes Bildpixel mit erhöhtem Helligkeitswert Erniedrigen des Helligkeitswertes Bildpixel mit erniedrigtem Helligkeitswert Gehe zu: nächster Pixel Bildmenü zur Kantenerkennung Weichzeichnungsprozedur optional: Tonwertkorrektur Fixpunktdefinition optional: setzen weiterer Fixpunktoptionen Speichern der Graustufenmaske erzeugte Graustufenmaske Verzerren der Urbildtextur, Erstellen des virtuellen dreidimensionalen Bildmodells, Erzeugen virtueller Einzelbilder virtuelle Einzelbilder Kombination der virtuellen Einzelbilder Bilddaten für räumliches Abbildungsverfahren Beispielhaftes zweidimensionales Urbilda Bildausschnitta erstes virtuelles Einzelbildb zweites virtuelles Einzelbildc drittes virtuelles Einzelbildd viertes virtuelles Einzelbild kombinierte Raumbildvorlagea vergrößerter Ausschnitt einer kombinierten Raumbildvorlage beispielhaftes kantenmarkiertes Bild 220 beispielhaftes kantenmarkiertes, weichgezeichnetes Bild10 archetype data 20 import of archetype data Adaptation of the original image data Buffering of the adapted original image data between stored image data optional color channel / color distribution change conversion into gray values edge recognition method data of the image pixel selection of the image pixel reading in of the brightness value of the image pixel increasing the brightness value image pixel with increased brightness value lowering the brightness value image pixel with reduced next brightness value Go to image menu Edge detection soft focus procedure optional: tonal value correction fixed point definition optional: setting further fixed point options saving the grayscale mask created grayscale mask distorting the original image texture, creating the virtual three-dimensional image model, generating virtual single images virtual single images combination of the virtual single images image data for spatial imaging method exemplary two-dimensional original image a single image first virtual ldc third virtual single image d fourth virtual single image combined room image template a enlarged section of a combined room image template exemplary edge-marked image 220 exemplary edge-marked, blurred image
230 beispielhaftes tonwertkorrigiertes weichgezeichnetes Bild230 exemplary tonal value-corrected soft-drawn image
239 Fixpunktdefinitionsmenü239 Fixed point definition menu
240 fixpunktdefiniertes Bild 241 Histogramm240 fixed point defined image 241 histogram
242 Grauwertleiste242 gray scale bar
243 Indikatorenzeiger243 indicator pointers
244 Auswahlindikator244 selection indicator
245 Direktauswahl für Helligkeitswerte 301 Urbild, schematisch245 Direct selection for brightness values 301 Original image, schematic
303 erstes Objekt303 first object
304 zweites Objekt304 second object
305 drittes Objekt305 third object
306 angenommener Hintergrund 307 virtuelles Bildgerüst mit virtuellen Tiefenebenen306 assumed background 307 virtual image framework with virtual depth planes
308 virtuelles Einzelbild308 virtual single image
351 erster virtueller Betrachtungspunkt mit erstem Betrachtungswinkel351 first virtual viewing point with first viewing angle
352 zweiter virtueller Betrachtungspunkt mit zweitem Betrachtungswinkel 360 monofokales Linsenraster 361 Bildabschnitt352 second virtual viewing point with second viewing angle 360 monofocal lens grid 361 image section
361a strukturarme Bildabschnitte361a structurally poor image sections
361b strukturreiche Bildabschnitte361b structurally rich image sections
365 Linsenelement365 lens element
370 Display 375 Displayoberfläche 370 display 375 display surface

Claims

Patentansprüche claims
1. Verfahren zum Erstellen und Anzeigen einer Raumbildvorlage für Abbildungsverfahren mit räumlichen Tiefenwirkungen aus zweidimensionalen Bilddaten insbesondere von Bilddaten aus Bildern, Bildsequenzen, Videofilmen und dergleichen zweidimensionalen Urbildern, dadurch gekennzeichnet, dass - auf der Grundlage von aus monokularen Urbilddaten (10) ermittelten Bildinformationen ein auf einer vermutungsbasierten räumlichen Bildtiefenabstufung beruhendes virtuelles dreidimensionales Bildgerüst (307) erzeugt wird, - die Urbilddaten auf das virtuelle dreidimensionale Bildgerüst (307) zum Erzeugen eines virtuellen dreidimensionalen Bildmodells (150) angepaßt werden, - die Daten des virtuellen dreidimensionalen Bildmodells als Vorlage zum Erstellen der Raumbildvorlage (209, 209a) verwendet werden.1. Method for creating and displaying a spatial image template for imaging methods with spatial depth effects from two-dimensional image data, in particular image data from images, image sequences, video films and similar two-dimensional original images, characterized in that - on the basis of image information determined from monocular original image data (10) a virtual three-dimensional image frame (307) based on a presumption-based spatial image depth gradation is generated, - the original image data are adapted to the virtual three-dimensional image frame (307) for generating a virtual three-dimensional image model (150), - the data of the virtual three-dimensional image model as a template for creating the spatial image template (209, 209a) can be used.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass auf den monokularen Urbilddaten (10) zum Ermitteln der Bildinformationen ein Verfahren zur Kantenerkennung (80) der abgebildeten Objekte mit einer Generierung eines kantenmarkierten Bildes (210) ausgeführt wird, wobei aufgrund eines ermittelten Kantenreichtums verschiedene Urbildareale verschiedenen virtuellen Tiefenebenen, insbesondere einem Hintergrund und/oder einem Vordergrund, zugeordnet werden.2. The method according to claim 1, characterized in that on the monocular master image data (10) for determining the image information, a method for edge detection (80) of the depicted objects is carried out with the generation of an edge-marked image (210), different edges being determined on the basis of a determined edge wealth Original image areas can be assigned to different virtual depth levels, in particular a background and / or a foreground.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass auf den Urbilddaten (10) zum Ermitteln der Bildinformation ein Verfahren zum Ermitteln der Farbinformation gegebener Urbildareale ausgeführt wird, wobei bei der vermutungsbasierten Bildtiefenabstufung mindestens eine erste identifizierte Farbinformation einer ersten virtuellen Tiefenebene und eine zweite Farbinformation einer zweiten virtuellen Tiefenebene zugeordnet werden.3. The method according to claim 1, characterized in that on the original image data (10) for determining the image information, a method for determining the color information of given original image areas is carried out, wherein in the presumption-based image depth grading at least a first identified color information of a first virtual depth level and a second color information be assigned to a second virtual depth level.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren zur Kantenerkennung (80) und das Verfahren zum Ermitteln der Farbinformation einzeln und unabhängig voneinander oder in Kombination ausgeführt werden.4. The method according to any one of the preceding claims, characterized in that the method for edge detection (80) and the method for determining the color information are carried out individually and independently of one another or in combination.
5. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass auf dem kantenmarkierten Bild (210) zur Verstärkung und Vereinheitlichen eines kantenreichen Urbildareals ein Weichzeichnungsverfahren (90, 220) angewendet wird.5. The method according to any one of claims 1 to 3, characterized in that a softening process (90, 220) is used on the edge-marked image (210) to reinforce and standardize an edge-rich original image area.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass optional eine Tonwertkorrektur (100) des kantenmarkierten Bildes (210) erfolgt.6. The method according to any one of claims 1 to 5, characterized in that a tonal value correction (100) of the edge-marked image (210) is optionally carried out.
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass auf der Grundlage des weichgezeichneten und/oder zusätzlich tonwertkorrigierten kantenmarkierten Bildes (210, 220) eine auf dem Tonwert eines Bildpunktes beruhende Zuordnung eines betreffenden Bildabschnittes zu einer virtuellen Tiefenebene (303, 304, 305, 306, 307) ausgeführt wird.7. The method according to any one of claims 1 to 6, characterized in that on the basis of the soft-drawn and / or additionally tone-corrected edge-marked image (210, 220) an assignment based on the tonal value of a pixel of a relevant image section to a virtual depth plane (303, 304, 305, 306, 307) is carried out.
8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei einer Fixpunktdefinition (110) eine Begrenzung der Färb- und/oder Tonwerte auf einen vorgegebenen Wert erfolgt und ein virtueller Drehpunkt der später erzeugten virtuellen Einzelansichten festgelegt wird.8. The method according to any one of the preceding claims, characterized in that in the case of a fixed point definition (110) the coloring and / or tonal values are limited to a predetermined value and a virtual pivot point of the virtual individual views generated later is defined.
9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass optional einem vorgegebenen Färb- und/oder Helligkeitswert eines Bildpixels eine fest vorgegebene virtuelle Tiefenebene (303, 304, 305, 306, 307) zugeordnet wird.9. The method according to any one of the preceding claims, characterized in that a fixed predetermined virtual depth level (303, 304, 305, 306, 307) is optionally assigned to a predetermined color and / or brightness value of an image pixel.
10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass festgelegten Bildabschnitten, insbesondere dem Bildrand und/oder der Bildmitte eine fest vorgegebene virtuelle Tiefenebene zugeordnet wird.10. The method according to any one of the preceding claims, characterized in that fixed image sections, in particular the image edge and / or the image center, is assigned a predetermined virtual depth level.
11. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zum Erzeugen des virtuellen dreidimensionalen Bildmodells das virtuelle dreidimensionale Bildgerüst (307) als eine entsprechend der virtuellen Tiefenebenen (303, 304, 305, 306, 307) deformierte virtuelle Netzstruktur erzeugt und das zweidimensionale Urbild in einem Mapping-Verfahren als Textur auf die deformierte Netzstruktur angepaßt wird.11. The method according to any one of the preceding claims, characterized in that for generating the virtual three-dimensional image model, the virtual three-dimensional image structure (307) as a virtual network structure deformed in accordance with the virtual depth planes (303, 304, 305, 306, 307) and the two-dimensional one Original image is adapted as texture to the deformed network structure in a mapping process.
12. Verfahren nach Anspruch 1 und 11, dadurch gekennzeichnet, dass von dem virtuellen dreidimensionalen Bildmodell aus einer Reihe von virtuellen Beobachtungswinkeln (351, 352) eine Reihe von virtuellen, die Ansichten des virtuellen dreidimensionalen Bildmodells wiedergebenden Einzelbildern (208a, 208b, 208c, 208d, 308) erzeugt werden, bei denen die einer festgelegten Tiefenebene entsprechenden Bildabschnitte des Urbildes (200, 301) entsprechend des virtuellen Betrachtungswinkels verschoben und/oder verzerrt werden.12. The method according to claim 1 and 11, characterized in that of the virtual three-dimensional image model from a number of virtual observation angles (351, 352) a number of virtual individual images (208a, 208b, 208c, 208d) representing the views of the virtual three-dimensional image model , 308) are generated, in which the image sections of the original image (200, 301) corresponding to a defined depth plane are shifted and / or distorted according to the virtual viewing angle.
13. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die virtuellen Einzelbilder (208a, 208b, 208c, 208d, 308) nach einem für das Abbildungsverfahren mit zusätzlicher Raumwirkung geeigneten Algorithmus zum Erzeugen einer Raumbildvorlage (209, 209a) kombiniert werden.13. The method according to any one of the preceding claims, characterized in that the virtual individual images (208a, 208b, 208c, 208d, 308) are combined according to an algorithm suitable for the imaging method with additional spatial effect for generating a spatial image template (209, 209a).
14. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zum Erstellen der Raumbildvorlage (209, 209a) eine Bildberarbeitung einzelner Bildbereiche des Urbildes, insbesondere ein Skalieren und/oder Drehen und/oder Spiegeln, ausgeführt und die dabei erzeugte Raumbildvorlage mittels eines darüber liegenden monofokalen Linsenrasters (360) angezeigt wird.14. The method according to claim 1, characterized in that to create the spatial image template (209, 209a) image processing of individual image areas of the original image, in particular scaling and / or rotating and / or mirroring, and the spatial image template generated thereby by means of a monofocal layer above it Lenticular grid (360) is displayed.
15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass das zweidimensionale Urbild (200) ohne eine Bildbearbeitung durch das monofokale Linsenraster (360) angezeigt wird, wobei das zweidimensionale Urbild (200) die Raumbildvorlage für die Anzeige durch das monofokale Linsenraster bildet.15. The method according to claim 14, characterized in that the two-dimensional original image (200) is displayed without image processing by the monofocal lens grid (360), the two-dimensional original image (200) forming the spatial image template for display by the monofocal lens grid.
16. Vorrichtung zum Anzeigen einer Raumbildvorlage, gekennzeichnet durch ein zweidimensionales Urbild (200) als zweidimensionale Bildvorlage und ein über der Bildvorlage ausgedehntes monofokales Linsenraster (360).16. Device for displaying a spatial image template, characterized by a two-dimensional original image (200) as a two-dimensional image template and a monofocal lenticular screen (360) extended over the image template.
17. Vorrichtung nach Anspruch 16, dadurch gekennzeichnet, dass die zweidimensionale Bildvorlage aus einem Mosaik aus der Rasterstruktur des Linsenrasters (360) zugeordneten Bildabschnitten (361, 361a, 361b) ausgeführt ist, wobei im wesentlichen jeweils ein Bildabschnitt ein Abbildungsobjekt für im wesentlichen jeweils ein Linsenelement (365) des monofokalen Linsenrasters ist.17. The apparatus as claimed in claim 16, characterized in that the two-dimensional image template is made from a mosaic of image sections (361, 361a, 361b) associated with the raster structure of the lenticular screen (360), wherein essentially one image section is an image object for essentially one Lens element (365) of the monofocal lenticular grid.
18. Vorrichtung nach einem der Ansprüche 16 oder 17, dadurch gekennzeichnet, dass bei einer ersten Ausführungsform die Bildabschnitte (361, 361a, 361b) um wesentlichen unveränderte Bildbestandteile der zweidimensionalen Bildvorlage (200) sind.18. Device according to one of claims 16 or 17, characterized in that in a first embodiment the image sections (361, 361a, 361b) are essentially unchanged image components of the two-dimensional image template (200).
19. Vorrichtung nach einem der Ansprüche 16 oder 17, dadurch gekennzeichnet, dass bei einer weiteren Ausführungsform die Bildabschnitte (361, 361a, 361b) zur Kompensation der Abbildungswirkungen des Linsenrasters (360) skaliert und/oder gespiegelt und/oder gedreht sind.19. Device according to one of claims 16 or 17, characterized in that in a further embodiment, the image sections (361, 361a, 361b) are scaled and / or mirrored and / or rotated to compensate for the imaging effects of the lens grid (360).
20. Vorrichtung nach einem der Ansprüche 16 bis 19, dadurch gekennzeichnet, dass die zweidimensionale Bildvorlage (200) ein auf einem Display (370) erzeugtes Bild ist und das Linsenraster (360) auf der Oberfläche (375) des Displays befestigt ist.20. Device according to one of claims 16 to 19, characterized in that the two-dimensional image template (200) is an image generated on a display (370) and the lenticular screen (360) is attached to the surface (375) of the display.
21. Vorrichtung nach einem der Ansprüche 16 bis 20, dadurch gekennzeichnet, dass das Linsenraster (360) als eine rasterartige und auf der Display-Oberfläche haftende Fresnel-Linsen-Anordnung ausgeführt ist.21. Device according to one of claims 16 to 20, characterized in that the lens grid (360) is designed as a grid-like Fresnel lens arrangement that adheres to the display surface.
22. Vorrichtung nach einem der Ansprüche 16 bis 20, dadurch gekennzeichnet, dass das Linsenraster (360) als eine rasterartige, auf der Display-Oberfläche haftende Zonenplatten-Anordnung ausgeführt ist.22. Device according to one of claims 16 to 20, characterized in that the lens grid (360) is designed as a grid-like zone plate arrangement adhering to the display surface.
23. Vorrichtung nach einem der Ansprüche 16 bis 20, dadurch gekennzeichnet, dass das Linsenraster (360) als eine rasterartige, auf der Display-Oberfläche haftende konventionelle Konvexlinsen-Anordnung ausgeführt ist. 23. Device according to one of claims 16 to 20, characterized in that the lenticular screen (360) is designed as a grid-like, conventional convex lens arrangement adhering to the display surface.
EP04764457A 2003-09-15 2004-08-25 Method for creating a stereoscopic image master for imaging methods with three-dimensional depth rendition and device for displaying a stereoscopic image master Withdrawn EP1665815A2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10342465 2003-09-15
DE10348618A DE10348618B4 (en) 2003-09-15 2003-10-20 Stereoscopic image master creation method e.g. for creating image from two-dimensional image data, involves creating virtual three-dimensional image structure based on assumed three-dimensional gradation of image depth
PCT/EP2004/009480 WO2005029871A2 (en) 2003-09-15 2004-08-25 Method for creating a stereoscopic image master for imaging methods with three-dimensional depth rendition and device for displaying a stereoscopic image master

Publications (1)

Publication Number Publication Date
EP1665815A2 true EP1665815A2 (en) 2006-06-07

Family

ID=34379071

Family Applications (1)

Application Number Title Priority Date Filing Date
EP04764457A Withdrawn EP1665815A2 (en) 2003-09-15 2004-08-25 Method for creating a stereoscopic image master for imaging methods with three-dimensional depth rendition and device for displaying a stereoscopic image master

Country Status (4)

Country Link
US (1) US20070159476A1 (en)
EP (1) EP1665815A2 (en)
JP (1) JP2007506167A (en)
WO (1) WO2005029871A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111189417A (en) * 2020-01-15 2020-05-22 浙江大学 Binary grating image projection reflection suppression method based on high-frequency pattern interference

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100657275B1 (en) 2004-08-26 2006-12-14 삼성전자주식회사 Method for generating a stereoscopic image and method for scaling therefor
KR100780701B1 (en) * 2006-03-28 2007-11-30 (주)오픈브이알 Apparatus automatically creating three dimension image and method therefore
WO2008062351A1 (en) 2006-11-21 2008-05-29 Koninklijke Philips Electronics N.V. Generation of depth map for an image
US8358332B2 (en) * 2007-07-23 2013-01-22 Disney Enterprises, Inc. Generation of three-dimensional movies with improved depth control
EP2425299A2 (en) * 2009-05-01 2012-03-07 Koninklijke Philips Electronics N.V. Systems and apparatus for image-based lighting control and security control
EP2474167A4 (en) * 2009-09-01 2014-12-10 Prime Focus Vfx Services Ii Inc System and process for transforming two-dimensional images into three-dimensional images
US9294751B2 (en) 2009-09-09 2016-03-22 Mattel, Inc. Method and system for disparity adjustment during stereoscopic zoom
DE102009041328A1 (en) * 2009-09-15 2011-03-24 Natural View Systems Gmbh Method and device for generating partial views and / or a spatial image template from a 2D view for stereoscopic reproduction
TW201114245A (en) * 2009-10-08 2011-04-16 Chunghwa Picture Tubes Ltd Method for forming three-dimension images and related display module
CN102055991B (en) * 2009-10-27 2013-08-14 深圳Tcl新技术有限公司 Conversion method and conversion device for converting two-dimensional image into three-dimensional image
JP5387377B2 (en) * 2009-12-14 2014-01-15 ソニー株式会社 Image processing apparatus, image processing method, and program
US20110161056A1 (en) * 2009-12-31 2011-06-30 Timothy Mueller System and method of creating a 3-d replica of a body structure
US9225961B2 (en) * 2010-05-13 2015-12-29 Qualcomm Incorporated Frame packing for asymmetric stereo video
US9049497B2 (en) 2010-06-29 2015-06-02 Qualcomm Incorporated Signaling random access points for streaming video data
US9185439B2 (en) 2010-07-15 2015-11-10 Qualcomm Incorporated Signaling data for multiplexing video components
US9596447B2 (en) 2010-07-21 2017-03-14 Qualcomm Incorporated Providing frame packing type information for video coding
EP2434764A1 (en) 2010-09-23 2012-03-28 Thomson Licensing Adaptation of 3D video content
TWI463434B (en) * 2011-01-28 2014-12-01 Chunghwa Picture Tubes Ltd Image processing method for forming three-dimensional image from two-dimensional image
CN102075779B (en) * 2011-02-21 2013-05-08 北京航空航天大学 Intermediate view synthesizing method based on block matching disparity estimation
JP2012178042A (en) * 2011-02-25 2012-09-13 Canon Inc Image forming apparatus, image forming method, and program
TWI488485B (en) 2011-05-03 2015-06-11 Au Optronics Corp Three-dimensional image synthesis method and three-dimensional image synthesis circuit applying the same method
KR101803571B1 (en) * 2011-06-17 2017-11-30 엘지디스플레이 주식회사 Stereoscopic Image Display Device and Driving Method thereof
JP5337218B2 (en) 2011-09-22 2013-11-06 株式会社東芝 Stereo image conversion device, stereo image output device, and stereo image conversion method
US9571810B2 (en) * 2011-12-23 2017-02-14 Mediatek Inc. Method and apparatus of determining perspective model for depth map generation by utilizing region-based analysis and/or temporal smoothing
JP5807571B2 (en) * 2012-01-31 2015-11-10 株式会社Jvcケンウッド Image processing apparatus, image processing method, and image processing program
CN102625127B (en) * 2012-03-24 2014-07-23 山东大学 Optimization method suitable for virtual viewpoint generation of 3D television
EP2693755A3 (en) * 2012-07-31 2015-09-09 Sony Mobile Communications AB New gamut control method for improving image performance of parallax barrier S3D display
CN103118269B (en) * 2013-02-04 2014-12-10 河北玛雅影视有限公司 Image and video 2D (2-dimension) to 3D (3-dimension) converting method based on image warping
CN103152535B (en) * 2013-02-05 2016-02-03 华映视讯(吴江)有限公司 The method of automatic decision 3D image format
KR102255188B1 (en) 2014-10-13 2021-05-24 삼성전자주식회사 Modeling method and modeling apparatus of target object to represent smooth silhouette
KR20160067518A (en) * 2014-12-04 2016-06-14 삼성전자주식회사 Method and apparatus for generating image
KR101586765B1 (en) * 2015-02-27 2016-01-25 주식회사 다우인큐브 3 Dimensional Modeling Method for Object Producted through Semiconductor Manufacturing Process
US9772395B2 (en) 2015-09-25 2017-09-26 Intel Corporation Vision and radio fusion based precise indoor localization
US10032307B2 (en) * 2016-08-10 2018-07-24 Viacom International Inc. Systems and methods for a generating an interactive 3D environment using virtual depth
US10928821B2 (en) * 2016-11-04 2021-02-23 Intel Corporation Unmanned aerial vehicle-based systems and methods for generating landscape models
CN109246463B (en) * 2017-06-02 2020-06-26 腾讯科技(深圳)有限公司 Method and device for displaying bullet screen

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3895867A (en) * 1971-08-12 1975-07-22 Dimensional Dev Corp Three dimensional pictures and method of composing them
US4101210A (en) * 1976-06-21 1978-07-18 Dimensional Development Corporation Projection apparatus for stereoscopic pictures
DE3578241D1 (en) * 1985-06-19 1990-07-19 Ibm METHOD FOR IDENTIFYING THREE-DIMENSIONAL OBJECTS BY MEANS OF TWO-DIMENSIONAL IMAGES.
US5095207A (en) * 1991-01-07 1992-03-10 University Of Wisconsin - Milwaukee Method of three-dimensional atomic imaging
AU6276496A (en) * 1995-06-07 1996-12-30 Jacob N. Wohlstadter Three-dimensional imaging system
JP3005474B2 (en) * 1996-08-07 2000-01-31 三洋電機株式会社 Apparatus and method for converting 2D image to 3D image
WO1999022356A1 (en) * 1997-10-27 1999-05-06 Matsushita Electric Industrial Co., Ltd. Three-dimensional map display device and data generating device used for it
DE19825950C1 (en) * 1998-06-12 2000-02-17 Armin Grasnick Arrangement for three-dimensional representation
US20040212550A1 (en) * 1999-12-16 2004-10-28 Zhan He Three-dimensional volumetric display

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2005029871A2 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111189417A (en) * 2020-01-15 2020-05-22 浙江大学 Binary grating image projection reflection suppression method based on high-frequency pattern interference
CN111189417B (en) * 2020-01-15 2020-11-27 浙江大学 Binary grating image projection reflection suppression method based on high-frequency pattern interference

Also Published As

Publication number Publication date
WO2005029871A3 (en) 2005-12-29
WO2005029871A2 (en) 2005-03-31
JP2007506167A (en) 2007-03-15
US20070159476A1 (en) 2007-07-12

Similar Documents

Publication Publication Date Title
EP1665815A2 (en) Method for creating a stereoscopic image master for imaging methods with three-dimensional depth rendition and device for displaying a stereoscopic image master
EP1784978B1 (en) Method and device for representing a digital image on a surface which is non-trivial in terms of its geometry and photometry
DE2056605A1 (en) Method and device for simulating movement
DE102014205519A1 (en) Method and apparatus for adapting a display of an autostereoscopic display for a vehicle
DE1937719A1 (en) Stereoscopic photography
WO2006021283A1 (en) Method for the autostereoscopic representation of a stereoscopic original image displayed on a display unit
DE202006013777U1 (en) Auto-stereoscopic display device especially for flat-surface image display systems, has parallax-barrier with structural elements distributed over barrier surface
DE2255269A1 (en) INCREASING THE SPACIAL EFFECT OF PICTURAL REPRESENTATIONS
WO2004023348A1 (en) Method for simulating optical components for the stereoscopic production of spatial impressions
DE3529819C2 (en) Projection device for generating autostereoscopically viewable images
DE10348618B4 (en) Stereoscopic image master creation method e.g. for creating image from two-dimensional image data, involves creating virtual three-dimensional image structure based on assumed three-dimensional gradation of image depth
EP2478705A1 (en) Method and device for generating partial views and/or a stereoscopic image master from a 2d-view for stereoscopic playback
DE19853608C2 (en) Method for displaying an autostereoscopic image
DE102020214055A1 (en) Apparatus and method for simulating a 3-D effect in a two-dimensional image
WO1999009449A1 (en) Method and device for producing an image which can be represented in 3-d
DE1772820A1 (en) Process for recording and reproducing images in color and in plastic state and in color, in particular for use in television, and devices for carrying out this process
DE112012002679T5 (en) Apparatus and method for encoding / decoding multi-view images
EP2297970A2 (en) Method for producing an autostereoscopic display and arrangement for an autostereoscopic display
DE102017205077A1 (en) Environmentally dependent interface
DE19512293A1 (en) Method and device for generating spatial images
DE10123933C1 (en) Stereoscopic information representation method uses laser beam for scanning projection surface with structured pixel elements
DE2244451C3 (en) Apparatus for generating three-dimensional color photographic images
DE112008002083T5 (en) Method and software for image transformation
DE102008025913A1 (en) Scene and/or object image recording and reproducing method for multi-focal camera system, involves providing combination of two different images for spatial representation, and representing combined three-dimensional image on display
DE731244C (en) Process for the production of photographic images

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20060404

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LI LU MC NL PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL HR LT LV MK

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20101126

R17C First examination report despatched (corrected)

Effective date: 20101221

PUAJ Public notification under rule 129 epc

Free format text: ORIGINAL CODE: 0009425

32PN Public notification

Free format text: FESTSTELLUNG EINES RECHTSVERLUSTES NACH REGEL 112 (1) (EPA FORM 2524 27.07.2011)

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20110301