WO2005098508A2 - Bildaufnahmesystem, bildwiedergabesystem und bildaufnahme/-wiedergabesystem - Google Patents

Bildaufnahmesystem, bildwiedergabesystem und bildaufnahme/-wiedergabesystem Download PDF

Info

Publication number
WO2005098508A2
WO2005098508A2 PCT/EP2005/003568 EP2005003568W WO2005098508A2 WO 2005098508 A2 WO2005098508 A2 WO 2005098508A2 EP 2005003568 W EP2005003568 W EP 2005003568W WO 2005098508 A2 WO2005098508 A2 WO 2005098508A2
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
camera
recording
elements
Prior art date
Application number
PCT/EP2005/003568
Other languages
English (en)
French (fr)
Other versions
WO2005098508A3 (de
Inventor
Christoph Hauger
Andreas Obrebski
Original Assignee
Carl Zeiss Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Ag filed Critical Carl Zeiss Ag
Publication of WO2005098508A2 publication Critical patent/WO2005098508A2/de
Publication of WO2005098508A3 publication Critical patent/WO2005098508A3/de

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/18Arrangements with more than one light path, e.g. for comparing two specimens
    • G02B21/20Binocular arrangements
    • G02B21/22Stereoscopic arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/48Increasing resolution by shifting the sensor relative to the scene
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0147Head-up displays characterised by optical features comprising a device modifying the resolution of the displayed image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas

Definitions

  • Image acquisition system image display system and image recording / display system
  • the invention relates to an image recording system, an image reproduction system and an image recording / reproduction system.
  • the invention relates to such image recording systems and image reproduction systems in which an effective image resolution is increased compared to a physical resolution of a camera used for recording or a display used for reproduction.
  • the resolution of an image reproduction is limited by the physical resolution of a display used, which is given by a number of picture elements or pixels of the display.
  • a resolution of the image recording is accordingly limited by the physical resolution of a camera used, which is given by a number of light-sensitive elements or pixels of a light-sensitive substrate of the camera.
  • An image display system is known from US Pat. No. 6,188,382 B1 in which the effective resolution is increased compared to a pixel resolution of the display used.
  • a layer of switchable birefringent material is arranged directly in front of the level of the display pixels, which layer can be controlled in order to generate an offset of the beam path in a beam path of the display which is a distance of half a distance between adjacent image pixels, i.e. a sub -Pixel distance, corresponds.
  • This enables the viewer to be shown an image whose resolution is twice as high as the resolution of the image pixels, since the display shows two images in a rapidly alternating sequence, namely once without the offset activated and once with the offset activated for the sub pixel distance.
  • This presupposes that the image with the increased resolution is kept in a corresponding image memory, a part of which is transmitted for display without the offset switched on for display and which other part is displayed for display with the offset switched on for display.
  • An image display system is known from US Pat. No. 5,726,670, in which two partial images of different resolutions are overlaid to form an overall image, the partial image with the higher resolution representing a central region of the overall image and the partial image with the lower resolution an edge region surrounding the central region of the overall picture.
  • the two partial images are each generated by a display with a small number of pixels. Compared to a single display, which represents the overall image with the high resolution and which therefore must have a correspondingly high number of pixels and size, it is thus possible to display the overall image with two comparatively small displays of the lower number of pixels, although there is a loss of resolution in the Edge area of the overall picture is accepted.
  • an image recording and reproduction system for recording and reproducing an image of an object
  • the system comprising a first camera and a second camera, different from the first camera, for recording an image of the object, a first display, a comprises a second display, different from the first display, for generating a partial image of the object and display optics for superimposing the two partial images into an overall image of the object.
  • the first display is fed with image signals which are generated by the first camera
  • the second display is fed with image signals which are generated by the second camera.
  • both cameras have the same number of light-sensitive elements or pixels
  • the two displays have the same number of picture elements or pixels, the number of pixels of the cameras also being equal to the number of pixels of the displays.
  • An object field of an object is represented by the overall picture.
  • the first camera records a central area of the object field with such a magnification that the central area is essentially imaged onto an entire light-sensitive substrate of the camera.
  • the image of the central area recorded by the first camera is displayed by the first display and forms a corresponding central area of the overall image.
  • the second camera records the entire object field with such an enlargement that it covers essentially the entire photosensitive substrate. second camera is shown.
  • the image recorded by the second camera is represented by the second display as the second partial image, which forms an edge region of the overall image surrounding the central region of the overall image.
  • the second display does not show in its central area, which corresponds in the overall image to the central area of the overall image represented by the first display.
  • the superimposition of the first and second partial images then leads to an overall image, the central area of which has a higher resolution is shown as its edge area.
  • there is no loss of resolution in the edge region here since the edge region of the object field shown there was recorded by the second camera with a correspondingly lower resolution than the central region of the object field recorded by the first camera.
  • An example of an application of the image recording and reproduction system is to use it in a microscope, in particular in a stereomicroscope, such as an operating microscope.
  • the user does not take a look at eyepieces through which the observed object is directly represented optically via a beam path, rather the user looks at an electronic display such as for example an LCD display, to which image data are fed which a camera records from the object.
  • the display can be, for example, a head-mounted display, such as a head mounted display or the like. This enables the user to move freely around the observed object without being spatially bound by viewing the eyepieces. Examples of such a video microscope are described in US 2004/0017607 AI, the disclosure of which is fully incorporated by reference into the present application.
  • the imaging quality is conventionally limited, inter alia, by the pixel resolutions of the cameras and displays used.
  • the use of the image recording and playback system with at least two cameras and two displays, the images of which are superimposed to form an overall image, permits a comparatively increased resolution in a central area of the overall image.
  • this central area is also the subject of interest for the user viewing the overall picture. This area is thus perceived by the user with high resolution, and the edge area of the overall image lies in an area of the image field of the user in which his perception of resolution is physiologically restricted anyway.
  • the display system comprises a direction-of-view detection device ("eye-tracker") with which a direction of view of the user and thus a center of his interest can be detected within the overall image.
  • eye-tracker a direction-of-view detection device
  • the area of the object field recorded with high resolution by the first camera is then shifted within the object field, and the partial image represented by the first display is accordingly shifted within the overall image.
  • the Users view all areas of the overall image with the increased resolution.
  • the invention provides an image recording and reproduction system which comprises a camera with camera optics with variable magnification for imaging the object on a light-sensitive substrate of the camera.
  • images of the object are recorded, which, however, are not shown or stored separately, but rather are combined to form an overall image, which are displayed or stored as an overall image.
  • the overall image then has different resolutions in different areas, depending on the magnification at which the area of the object field corresponding to the respective area of the overall image was recorded by the camera.
  • the object is recorded with at least two different magnifications, which differ by more than 40%.
  • the camera comprises a light-sensitive substrate with a plurality of light-sensitive elements or pixels.
  • a first set magnification which is greater than a second set magnification
  • a larger amount of pixels is read out to form the overall image than with the second set magnification.
  • those pixels of the light-sensitive substrate are not read out on which the areas of the object field are imaged by the camera which are imaged on the light-sensitive substrate at the first larger magnification.
  • the data of these pixels represent this area of the object field with a lower resolution than the image taken at the first enlargement and are therefore redundant.
  • the amount of pixels that is read out at the first set magnification is therefore different from the amount of pixels, which is read out at the second set magnification.
  • this includes the possibility that the pixel quantities overlap and thus pixels exist which belong to both the quantity of pixels read out at the first enlargement and the quantity of pixels read out at the second enlargement.
  • a display system for displaying the partial images recorded at the at least two different enlargements comprises a single display area which represents the partial image recorded at the first enlargement in a partial area of the display area and the partial image recorded at the second smaller enlargement at least in this partial area partially encompassing second sub-area.
  • the display system comprises at least two different display areas and a display optics in order to superimpose the partial images represented by the at least two display areas into an overall image, as has already been described above.
  • the display system comprises a display area and display optics, via which the user views the display area.
  • the display optics are optics with changeable magnification, which are changed in accordance with the magnification of the camera optics.
  • the display optics are set to a smaller magnification when the camera optics are set to a larger magnification, and vice versa. Images of the object are then taken in succession with different magnifications of the camera optics and each is represented by the display system with corresponding magnifications of the display optics.
  • the system also includes a viewing direction detection device in order to shift a position of the area of the object field recorded with the larger magnification of the camera optics within the same.
  • the invention provides an image recording and reproduction system which is designed as a stereo system in which the two eyes of a user are provided with images for viewing which have been recorded on an object at different viewing angles.
  • an image supplied to a first eye of the user represents a smaller area of the object than an image supplied to a second eye of the user, this smaller area being shown in the first image with a higher resolution than the area of the object shown in the second image.
  • the magnifications with which the object is represented in the first and the second image are identical to one another.
  • the second image then occupies a larger area of the user's field of vision than the first image.
  • an area of the image field of the first eye is supplemented by corresponding parts of the second image so that both eyes of the user are shown an image field of essentially the same size, although in the supplemented area of the image field of the a stereo impression of the object is not produced in the first eye and the corresponding area of the second eye.
  • a viewing direction detection device can also be provided here in order to shift the area of the object shown with increased resolution and with stereo impression within the object field.
  • an image recording and reproduction system for recording and reproducing an image of an object, the system comprising a camera with camera optics, a light-sensitive substrate with a plurality of light-sensitive elements or pixels and a first scanner, and a Display comprising a plurality of • picture elements or pixels and a second scanner.
  • the first scanner is used to increase an effective resolution of the camera compared to a pixel resolution of the camera
  • the second scanner is used to increase an effective resolution of the display compared to a pixel resolution of the camera.
  • the system further comprises a controller which is designed to set a scan deflection of the first scanner in synchronism with a scan deflection of the second scanner.
  • a controller which is designed to set a scan deflection of the first scanner in synchronism with a scan deflection of the second scanner. This makes it possible to read an image recorded by the camera for a given scan deflection of the first scanner from the light-sensitive substrate and to display it directly by means of the display with a corresponding scan deflection of the second scanner. Thereafter, the process of taking the image, reading out the photosensitive substrate and displaying by the display is repeated with changed settings of the first and the second scanner. It is hereby possible to provide the user with an image of the object with a resolution which exceeds a resolution limited by the pixel resolution of the camera or display, without having to electronically generate an image with this effective resolution by successively reading out the light-sensitive substrate.
  • the system manages with image memories or buffers with a resolution that does not exceed a larger of the two resolutions of camera and display.
  • the image memory or buffer can thus have a number of storage elements which is not greater than the number of pixels of the camera or the number of pixels of the display, depending on which number is the larger. In any case, the image memory or buffer is smaller than four times the number of pixels of the camera or pixels of the display, depending on the number of. is bigger.
  • the first scanner of the camera is arranged in a beam path between the object and the light-sensitive substrate and is designed to shift an image plane of the camera optics in a direction which is oriented in the image plane.
  • the first scanner can in particular comprise a layer with an adjustable birefringence.
  • the first scanner of the camera comprises a shadow mask arranged in the beam path in front of the light-sensitive substrate and an actuator, the shadow mask having a plurality of openings assigned to the light-sensitive elements, and the actuator being designed to hold the shadow mask in one to shift in the direction oriented in the image plane.
  • the actuator being designed to hold the shadow mask in one to shift in the direction oriented in the image plane.
  • the scanning deflection By changing the scanning deflection, it is thus possible to read out different partial images of the object from the camera one after the other, which can be combined to form an overall image, the effective resolution of which is higher than the pixel resolution of the camera.
  • This version of the first scanner is particularly sensitive to such photos Advantageous substrates, the photosensitive elements are arranged at a small distance from each other, so that a total area of the photosensitive elements is larger than about a quarter of the total area of the photosensitive substrate.
  • the first scanner comprises an actuator for displacing the light-sensitive substrate relative to the camera optics in a direction oriented in the image plane.
  • an increase in the effective. Resolution of the camera compared to a pixel resolution thereof can be achieved, this embodiment of the scanner being particularly advantageous in the case of light-sensitive substrates, the picture elements of which are arranged at a distance from one another. Examples of these are photosensitive substrates in which a total area of the photosensitive elements is less than about a third or about a quarter of the total area of the photosensitive substrate.
  • the second scanner of the display comprises a scanner which is arranged in the beam path of the display and is designed to generate a changeable offset of the beam path in a direction oriented in a plane of the picture elements of the display.
  • the scanner can in particular comprise a layer of a switchable birefringent material which is arranged between the picture elements and the eye of the user.
  • the second scanner comprises a hole mass arranged in the beam path of the display and an actuator in order to displace the shadow mask relative to the picture elements.
  • This embodiment is particularly advantageous for displays whose picture elements are arranged at a short distance from one another and whose total area occupies more than about a quarter of the total area.
  • the second scanner comprises an actuator for displacing the display relative to a viewer of the display in a plane of the picture elements. This embodiment is particularly advantageous for displays whose picture elements are arranged at a distance from one another and, for example, occupies a total area of less than approximately one third or approximately one quarter of the total surface of the display.
  • a maximum scan deflection is -first and. of the second scanner is smaller than a pixel spacing of the light-sensitive substrate of the camera or the display.
  • the scan deflection in one direction can correspond to approximately half the pixel spacing in this direction.
  • the scanner can be deflected in two different and in particular mutually orthogonal directions.
  • the invention also provides image recording and reproduction methods corresponding to the devices described above.
  • an image capture and display method for capturing and reproducing an image of an object includes capturing a first image of a larger first area of the object; Capturing a second image of a smaller second area of the object, which has a smaller extent on the object than the first area; Displaying the first image with a first display and displaying the second image with a second display; and optically superimposing the image represented by the first display with the image represented by the second display to form an overall image of the object.
  • an image capture and display method includes capturing a first image of a Larger first area of the object with an imaging optics of a camera set to a first magnification of the imaging optics; Taking a second image of a smaller first area of the object, which has a smaller extent on the object than the ⁇ first area, with the imaging optics, the imaging optics being set to a second magnification of the imaging optics different from the first magnification of the imaging optics; and generating an overall image of the object from the captured first image and the captured second image.
  • an image recording and reproduction method comprises imaging the object with camera optics onto a camera chip and reading out a first detected image from the camera chip; Imaging the object with the camera optics onto the camera chip, a position of the image of the object being displaced by a first distance relative to a position of the image of the object when the first image is taken, and reading out a second detected image from the camera chip; Displaying the recorded first image on a display chip and imaging the display chip with. a visual display; and displaying the recorded second image on the display chip and imaging the display chip with the display optics, a position of an image of the display chip being displaced by a second distance relative to a position of the image of the display chip when the first image is displayed.
  • a data structure is provided which is based on the previously explained method and device. represents captured images.
  • the two images are represented in the data structure with the same image resolution.
  • One embodiment of the invention also provides a data carrier which contains a computer-readable embodiment of the data structure.
  • the computer-readable carrier can comprise any type of carrier, such as a solid-state memory, a magnetic memory, an optical memory or other types of memory, or else modulated waves or signals, such as radio frequency signals, audio frequency signals or optically modulated waves or signals, which are suitable for transmission through a suitable network, such as the Internet.
  • FIG. 1 shows a schematic illustration of a stereo microscopy system according to the invention
  • FIG. 2 shows a schematic representation of partial images of an overall image shown with the stereo microscopy system of FIG. 1,
  • FIG. 3 shows a variant of a display system for use with the stereo microscopy system of FIG. 1,
  • FIG. 4 shows a further embodiment of a microscopy system according to the invention
  • FIG. 5 shows a sequence of schematic representations to explain partial images generated with the microscopy system of FIG. 4
  • FIG. 6 shows a further embodiment of a stereo microscopy system according to the invention
  • FIG. 7 shows a schematic illustration for explaining images generated in the stereo microscopy system of FIG. 6,
  • FIG. 8 shows a partial view of a further embodiment of an image recording and reproduction system according to the invention.
  • FIG. 9 shows a representation of scanners used in the system according to FIG. 8,
  • FIG. 10 shows a camera or a display for an image recording and reproduction system according to a further embodiment of the invention
  • FIG. 11 shows a perspective illustration of a camera or a display for a further embodiment of an image recording and reproduction system according to the invention
  • FIG. 12 shows a further embodiment of an imaging optics with changeable magnification
  • FIG. 13 shows a further embodiment of an image recording system
  • FIG. 14 shows a schematic illustration of a data structure according to an embodiment of the invention.
  • FIG. 15 is a schematic representation of a data structure according to another embodiment of the invention.
  • a stereo microscopy system 11, shown schematically in FIG. 1, comprises a stereo image recording system 13 and a stereo image display system 15. Both systems 13, 15 are constructed symmetrically in that they each have the same components for displaying an image of an object 17 to be examined for a left Have a user's eye 181 and a right eye 18r.
  • the components for displaying the image for the left eye 181 are provided with the additional letter "1" and the components for displaying the image for the right eye 18r are provided with the additional letter "r". Due to the symmetrical structure of the components, they are described below together with the omission of the additional letters "1" and "r".
  • the image recording system 13 comprises a main microscope objective 21 with a plurality of lenses 22 in order to convert an object-side bundle of rays 23 emanating from an object plane 19 of the objective 21 into a solid angle region into an image-side parallel bundle of rays 25.
  • a first camera optic 27 takes a partial beam of rays 29 from a plurality of lenses 28 out of the image-side bundle of rays 25 and feeds it to a camera chip 31 such that the object plane 19 is imaged there.
  • a beam splitter cube 37 is arranged in a beam path of the partial beam bundle 29 between the objective 21 and the camera optics 27, which divides the partial beam bundle 29 into the part supplied to the camera optics 27 and a further part in which a second camera optics 41 with lenses 42 is arranged. which supplies this partial beam of rays to a camera chip 43 in such a way that the object plane 19 is also imaged on them, specifically at an observation angle which is equal to the observation angle ⁇ at which the object plane 19 is imaged on the camera chip 31.
  • the camera optics 27 have a magnification twice as large as the camera optics 41.
  • FIG. 2 the mapping of the object plane 19 on the camera chips 31 and 43 is shown schematically. Both camera chips 31 and 43 have an equal number of light-sensitive elements or pixels 45, which in one. Rectangular grids are arranged. For the purposes of the simple illustration of FIG. 2, the camera chips 31 and 43 each have 16 pixels 45 in the horizontal direction and 12 pixels 45 in the vertical direction, that is a total of 192 pixels. In reality, however, the number of pixels is much higher, such as 1024 x 768 pixels or the like.
  • a small object field 1 is imaged on the camera chip 31, the extent of which is half the size of an object field 3, which is imaged on the camera chip 43.
  • the object field 1 is centered within the object field 3.
  • the image display system 15 comprises an eyepiece 51 consisting of a plurality of lenses 52, into which the user's eye 18 looks. A superimposition of two images is fed to the eyepiece 51, each of which is represented by an LCD screen 53 or 55.
  • display optics 57 comprise a lens 59 for enlarging the image represented by the display 55 and a lens 61 comprising a plurality of lenses 62 for enlarging the image represented by the display 53 and a beam splitter 63 for superimposing the ones represented by the cameras 53 and 55 Feed images to the eyepiece 51.
  • the lens 59 has twice as large to enlarge the image of the display 55 Magnification on like the lens 61 to enlarge the image of the display 53.
  • the display 55 is supplied with the image signals generated by the camera chip 43 for display via a data line 67
  • the display 53 is supplied with the image signals generated by the camera chip 31 for display via a data line 69.
  • the two displays 53 and 55 each have a same number of pixels as that of the two camera chips 31 and 43 so that the displays 53 and 55 reflect the images exactly, which was added to the cameras 43 and '31st to have. Due to the different magnifications of the two lenses 60 and 62, however, the two displays 53 and 55 appear to be of different sizes, as is also shown schematically in FIG. Here, the image of the display 55 is centered within the image of the display 53.
  • the user can thus arrange the subject of his interest in the object 17 in the central area 1 of the object field 19 and then direct his gaze to the center of the overall image represented by the displays 53 and 55.
  • the object then appears to him with the increased resolution, which in itself corresponds to the resolution of cameras used with 24 x 32 pixels and corresponding displays with 24 x 32 pixels in the simplified illustration in FIG. 2.
  • the resolution is only half as large as in the image of the display 55.
  • the resolution of the human eye is also lower towards the edge of the visual field, so that this lower resolution of the image of the display 53 hardly affects the quality of the overall image perceived by the user diminishes.
  • the microscopy system 11 thus achieves a quality of the image of the object 17 perceived by the user, as is possible when using only a single camera and a single display only with camera chips and displays with a four times larger number of pixels.
  • a central area of the image of the display 53 which corresponds to the area of the image of the display 55 in the overall image, is not shown.
  • this area is already removed in the beam path to the camera 43, for example an aperture or the like, or the exposed pixels of the corresponding area on the camera chip 43 are not read out by the camera chip 43 or are not read to the camera chip 43
  • FIGS. 1 and 2 Components which correspond to components of FIGS. 1 and 2 with regard to their function or structure are provided with the same reference numerals as in FIGS. 1 and 2, but are differentiated by a letter to distinguish them.
  • FIG. 3 schematically shows an image reproduction system 15a, which can be used in addition or as an alternative to the eyepieces explained with reference to FIG. 1 together with the image recording system 13 from FIG.
  • the image display system 15a is designed as a head-mounted display device or a head-mounted display, which can be fixedly attached to a head 71 of the user.
  • the display system includes a light source 73, the light of which is collimated with a collimator 74 to illuminate an LCD display 53a connected to the data line 69.
  • the Image of LCD display 53 is passed through lens 75 and lens 76 and reflected on a curved semi-transparent mirror 63a to form an image on retina 77 of eye 18.
  • the LCD display 53a thus represents the image of the larger object field 3.
  • the image display system 15a further comprises a light source 78, the light of which is shaped into a parallel beam by a collimator 79 in order to illuminate a further LCD display 55a, to which data is supplied via the control line 67.
  • the image of the display 55a is passed over a lens 80 and a further lens 81, passes through the semitransparent mirror 63a and likewise generates an image on the retina 77 of the eye which is superimposed in a central area on the image generated by the LCD display 53a ,
  • the retina 77 thus in turn recognizes the central area 1 of the object field 19 with a higher resolution than an edge area surrounding this central area, just as is schematically explained in FIG.
  • An image recording and reproduction system 1b shown schematically in FIG. 4 comprises an image recording system 13b for recording an image of an object 17b and an image reproduction system 15b for displaying the recorded image for viewing with an eye 18b of a user.
  • the image recording system 13b comprises a camera 14 with camera optics 16, the components of which are arranged along an optical axis 33b between an object plane 19b and an image plane in which a camera chip 43b is arranged.
  • the camera optics 16 comprises a lens 21b, a zoom system 91 for setting an enlargement of the image from the object plane 19b to the camera chip 43b and an adapter lens 93.
  • the zoom system 91 is an afocal zoom system of variable refractive power, which has two lens assemblies 95 and 97, which are arranged at a fixed distance along the optical axis 33b.
  • the lens assembly 95 includes a lens 98 negative refractive power, which is cemented with a lens 99 positive refractive power.
  • Such lenses of changeable optical refractive power are known, for example, from US 4,795,248, US 6,317,190 B1, US 5,617,109, US 4,909,626, US 4,781,440, US 4,190,330, US ' 4,572,616 and US 5,815,233, the disclosure of which is incorporated in the present application by reference.
  • the lens assembly 97 comprises a lens 101 of negative refractive power which is cemented to a lens 102 of positive refractive power.
  • a lens 103 of variable refractive power is applied to the surface of the lens 102 not cemented to the lens 101.
  • the lenses 100 and 103 of variable refractive power can be controlled by a controller 105 in order to control their refractive powers with regard to a change in the magnification of the zoom system 91.
  • the adjustable lenses 100 and 103 are not shown as layers of constant thickness but as corresponding lenses made of glass, which provide a refractive power corresponding to the setting.
  • Lenses 100 and 103 of the zoom system 91 are controlled by the controller 105 in such a way that an enlargement of the zoom system is 2.0 times.
  • An image of the object plane 19b recorded by the camera chip 43 at a set magnification of the zoom system 91 is transmitted via a line 109 from a main controller 107 of the image recording and reproduction system Ib. From there, the image is transmitted via line 111 to a display 55b of the image display system 15b.
  • the image display system 15b comprises an adapter lens 113, a zoom system 91 'and an eyepiece 51b. with a plurality of lenses 52.
  • the zoom system 91 ' has a structure similar to that of the zoom system 91 of the image recording system 13b.
  • the zoom system 91 'thus comprises a lens assembly 95' with two lenses 99 'and 98' with a fixed optical effect and a lens 100 'with an adjustable optical effect, which is controlled by a controller 105'.
  • the lens assembly 97 ' comprises two lenses 101', 102 'with a fixed focal length and a lens 103' with an adjustable optical effect which can also be controlled by the controller 105 '.
  • the zoom system 91 ' has a magnification of 1.3. Taking into account the enlarged effect of the lens 51b, the adapter optics 93, the adapter optics 113 and the eyepiece 51b, an overall magnification of the image recording and reproduction system is approximately 5 to 50 times.
  • the main controller 107 controls the controllers 105, 105 'of the zoom systems 91, 91' in such a way that three different magnifications of the zoom systems 91 and 91 'are set one after the other in time, and a partial image is read out from the camera chip 43b to the controller 107 at each magnification and from this is transmitted to the display 55b.
  • These three settings are explained below with reference to FIGS. 5a, 5b and 5c.
  • an overall enlargement of the image recording and reproduction system 1b is the same.
  • the magnification of the zoom system 91 has its greatest value under the three different settings, and a small central part 1b of the object field is imaged on the camera chip 43b.
  • the image data " detected by the camera chip 43b " are transmitted to the display 55b, which the user perceives as a small part 115 of his image field, since the magnification of the zoom system 91 'has its smallest value in this setting.
  • the Magnification of the zoom system 91 is set to a medium value, so that a medium-sized part 3b of the object field, which is shown hatched in FIG. 5b, is imaged on the camera chip 43b.
  • the image data generated by the camera chip 43b becomes
  • Transmit the display 55b although not the entire image content of the camera chip 43b is transmitted, but only image data which are arranged in an area 114 outside a central area 113 of the area of the chip 43b.
  • the area 113 in this image of the object plane 19b corresponds to the partial area 1b, which was already recorded as an image in the previous setting (compare FIG. 5a).
  • image information is generated around the central area 115, which is perceived by the user's eye 18b.
  • the zoom system 91 has its smallest magnification among the three settings, so that a large part 5b of the object plane 19b is imaged on the camera chip 43b.
  • the image information is again from the Transfer camera chip 43b to the display 55b via the main controller 107, although only the information from the ring area 114 around the central area 113 of the camera chip 43b is transferred to the display 55b.
  • magnifications in the three settings are matched to one another in such a way that the area of the central region 113 in the image on the camera chip 43b corresponds to the part 3b in the object plane 19b, which already corresponds to the display in the settings described above (compare FIGS. 5a, 5b) transferred and represented by this.
  • the first small portion lb of the object plane as a central small part of the overall image 115 'is shown, with the full resolution of the camera 43b and the display 55b.
  • the medium-sized area 3b of the object plane 19b, from which, however, the small central area 1b is removed, is represented as a ring area 116 by the display 55b, again with the full resolution of the display 55b, whereby this However, resolution is perceived by the user as a lower effective resolution due to the changed enlargement of the image display system 15b.
  • the large area 5b of the object field 19b is shown by the display 55b, although the medium-sized area 3b of the object plane 19b is excluded from the illustration.
  • the full resolution of the display 55b is again used for this representation in the outer ring area 117 of the overall image, which, however, is perceived by the user as a lower effective resolution due to the increased magnification of the zoom system 91 '. as the representation of the ring area 116 in the setting according to FIG. 5b or even the central area 115 in the setting of FIG. 5a.
  • the image recording and reproduction system 1b thus enables the object to be viewed with a resolution which is particularly high in the center of the image field under consideration, is lowered in a ring area encompassing this center, and is further reduced in a further ring area surrounding this ring area. Since the user has mostly focused on the center and there is also the area of the object that interests the user the most, the user can perceive this area of interest with the highest of the three different resolutions and feels the generated image as special high-quality.
  • the decreasing resolution in two steps towards the edge of the perceived image is not perceived by the user as disadvantageous with regard to the quality of the image, since the resolution capacity of the human eye also decreases towards the edge of the visual field.
  • the ring area 114 With a very large number of settings, it is then possible to provide the ring area 114 by means of four line detectors, the image contents of which can be transmitted very quickly to the controller 107 or the display 55b.
  • the display 55b can also use line displays to display the ring areas, which can be controlled correspondingly quickly.
  • FIGS. 14a and 14b A data structure which is suitable for storing images taken with two settings of the magnifications is now explained in more detail with reference to FIGS. 14a and 14b.
  • FIG. 14a schematically shows a central part 1g of an overall image, which is to be recorded and reproduced with a large magnification, and an area 3g, surrounding the central part 1g. which should be recorded and reproduced with a comparatively lower magnification.
  • the area 3g is divided into four blocks 3g lA 3g 2 , 3g 3 , 3g 4 .
  • a data structure 230 for storing the image data from parts 1g and 3g is shown schematically in FIG. 14b.
  • the data structure 320 comprises a first data block 321 which represents the enlargements used in the recording of the parts 1g and 3g or to be used in the reproduction of the images.
  • the representation of the magnifications can in this case be represented as a ratio of the two magnifications V x and V 2 or else by data which represent the magnifications V x and V 2 in absolute or relative to a predetermined magnification.
  • a data block 322 represents the image data of the central part Ig, for example intensity values, color values or saturation values assigned by image pixels, or other suitable representations, and the person skilled in the art can also do this known compression methods are used to represent the image data of the central part 1g.
  • a second data record 323 represents the image data for the block 3g- L of the outer partial image 3g, and further data records 324, 325 and 326 represent the image data for the blocks 3g 2 , 3g 3 or 3g 4 of part 3g.
  • the image data can be presented in any way, as was explained for data record 322.
  • the data structure 320 can be recorded in the order shown in Figure 14b on a recording medium such as a magnetic tape or an optical disk or the like, however, the data format recorded on the medium also differently from the data structure shown in Figure 14b 14b may contain sequential representation.
  • a schematically illustrated stereo microscopy system 1c comprises a main objective 21c for converting an object-side bundle of rays 23c emanating from an object plane 19c into an image-side bundle of rays 25c, from which a right camera optics 27er picks out a right sub-bundle of rays 29er and feeds it to a camera chip 31er in such a way that the object plane 19c is shown.
  • a left camera optic 27cl picks a partial beam 29cl out of the image-side beam 25c and feeds it to a camera chip 31cl in such a way that the object plane 19c is also imaged there.
  • the images of the object plane 19c imaged on the camera chips 31cl and 31er differ by 2 ⁇ with regard to their observation angle.
  • the imaged images and 31er on the 'camera chip 31cl differ in magnification due to different magnifications of the camera lenses 27cl and 27-gauge, as shown schematically in FIG. 7
  • a smaller, central part of the object plane 19c is depicted on the camera chip 31cl, and a larger part 3c of the object plane 19c is depicted on the camera chip 31er, the smaller part lc being arranged centered in the larger part 3c.
  • a reproduction system 15c of the stereo microscopy system 1c is constructed symmetrically and comprises, for a left eye 18cl and a right eye 18cr of a user, a display 55c, an optical display system 59c and an eyepiece 51c in order to view an image represented by the display 55c.
  • a main controller 107 receives image data of the camera chip 31cr via a data line 123 and forwards it directly to the display 55cr via a data line 124.
  • the controller 107 contains an image memory or buffer 121, in which an overall image is put together and output to the display 55cl.
  • the overall image is composed of a central partial image 123, which represents the image data, which is read out as an image from the camera chip 31cl and transmitted to the controller 107 via a data line 126.
  • the overall image comprises a partial image 127, which forms a ring surrounding the central part 125 in the overall image.
  • the image data of the partial image 127 originate from image data which are read out by the camera chip 31cr, as can be seen schematically in FIG.
  • the overall image thus composed in the buffer 121 is then transmitted to the display 55cl via a data line 122.
  • the user's left eye 18cl thus sees the central area 1c of the object plane 19c with a high resolution and at a viewing angle which is different from the viewing angle at which the right eye 18cr perceives the central area 1c.
  • the part of the larger area 3c surrounding the central area 1c appears to the left eye 18cl and the right eye 18cr at the same viewing angle and with the same lower resolution. This means that there is no stereo impression in the outer area of the perceived image. However, this can be accepted, since the user is mostly interested in the central area of the Focused.
  • the left eye also receives the higher resolution, which dominates over the lower resolution of the right eye, so that the user perceives an overall stereoscopic image of the object with an increased quality.
  • FIG. 13 schematically shows a further embodiment of an image recording system 13f in perspective.
  • the image recording system 13f is a stereoscopic image recording system with a left image recording system 13fi and a right image recording system 13f r , each of which records images of an object plane 19f, the two image recording systems 13fi and 13f r being oriented relative to one another with respect to the object plane 13f.
  • Each of the image recording systems 13fi and 13f r records partial images of the object plane 19f, as was explained above with reference to FIGS. 5a to 5c.
  • the image recording system 13fi records a larger part 3f ⁇ of the object plane 19f with a lower resolution than a smaller part lfi of the object plane 19f
  • the image recording system 13f r takes a larger part 3f r of the object plane 19f with a lower resolution to a smaller part lf r the object level 19f
  • the image recording systems 13fi and 13f r are configured and oriented to one another such that the respectively smaller parts lf x and lf r , which are recorded by the object plane 19f, essentially coincide, while the respectively larger parts 3f ⁇ and 3f r of the object plane 19f do not coincide.
  • the smaller parts lfi, lf r are not arranged centrally in their associated larger parts 3f ⁇ and 3f r .
  • a central area of the object plane 19f is covered by both larger parts 3f ⁇ and 3f r , which overlap there.
  • a left region of the object plane 19f is only covered by part 3f ⁇ and not by part 3f r
  • a right region of the object plane is only covered by part 3f r and not by part 3f ⁇ .
  • the part is lf ⁇ within the part 3f ⁇ closer to the right edge arranged as at the left edge, and correspondingly, the portion lf r within the portion 3f r closer to its left edge arranged as on its right edge.
  • the central part of the entire stereoscopic image which is composed of the non-coinciding parts 3f ⁇ and 3f r , is recorded stereoscopically by the coinciding parts lf and lf r with a higher resolution than the surrounding parts 3f ⁇ and 3f r , and, during playback, perceived by a user even with the increased resolution.
  • the image recording systems 13fx and 13f r are shown as separate systems. However, it is also possible for the two image recording systems to use components of common optics, such as, for example, a common objective, as is the case with the embodiment explained with reference to FIG. 1.
  • a stereoscopic reproduction system can be used which corresponds, for example, to the stereoscopic image reproduction system explained with reference to FIG. 1.
  • An image recording and display system 1d shown schematically in FIG. 8 comprises an image recording system 13d with a camera chip 43d and an image display system 15d with a display chip 55d.
  • the camera chip 43d has a plurality of pixels 45d, which are arranged in one plane.
  • two layers 201 and 202 made of a birefringent material which can be controlled by a controller 107d are arranged.
  • light beams penetrate the layers 202 and 201 in a straight line, as is indicated by a beam 205 as an example in FIG. 8.
  • a beam 206 represents a driving situation in which the layer 202 is driven in order to displace the light beams by a distance d in the y direction, the distance d being half as large as a pixel spacing of the camera chip 43d in the y direction.
  • the pixels 45d of the camera chip 43d each have a size which is less than half the pixel spacing in the x and y directions, so that the area of the pixels 45d is approximately a quarter of the total area of the camera chip 43d.
  • a control of the layers 201, 202 is explained in an area I of FIG. 9, in which none of the layers introduces an offset.
  • a situation II in FIG. 9 shows a situation in which the layer 202 is not excited and the layer 201 is excited to introduce an offset by a distance d in the x direction for all light beams.
  • both layers 201, 202 are excited in order to introduce an offset of d both in the x direction and in the y direction for all light beams, and in an area IV of FIG. 9, the layer 201 is not excited and excite layer 202 to introduce an offset of d in the y direction.
  • the pixels 45d of the camera chip 43d are successively offset in such a way that, after all the settings have been made, each beam of the beam cross section hits a light-sensitive pixel 45d once. This measures the full beam cross-section in terms of its intensity and not just a quarter of the part, as would be the case if the layers 201 and 202 were not operated in succession in the four settings.
  • the display system 15d comprises a display chip 55d with a number of pixels which corresponds to the number of pixels of the camera chip 43d.
  • Two layers 201 and 202 of the controllable birefringent material are arranged in the beam path of the display system 15d directly in front of the plane of the pixels 45d and are controlled by the controller 107d in synchronism with the corresponding layers 201, 202 of the image recording system 13d.
  • the pixels do not appear to be offset in four steps in succession, offset by a distance d in the x direction, offset by a distance d in the x and y direction, and by a distance d offset in the y direction, so that the viewer also perceives the image with an effective resolution which in the x and y directions is twice as large as the physical resolution of the display 55d.
  • the camera chip 43d is read out by the controller 107d, and the corresponding image data are transmitted directly to the display chip 55d.
  • the setting of the layers 201 and 202 is then changed, and the camera chip 43d is again read out and the corresponding image data are again transmitted to the display chip 55d.
  • the image with the increased effective resolution was taken after carrying out steps I to IV and was also displayed with this increased effective resolution.
  • the controller 107d does not have to include an image memory or buffer for this in order to combine this overall image with the increased resolution from the four individual images, which is why the controller 107d requires a comparatively small memory.
  • a data structure 320 is now explained with reference to FIG.
  • the data structure 320 comprises a first data record 331, which represents the setting at which the respective image was taken. In the embodiment described above, the data record 331 will represent one of the settings I to IV.
  • the data structure 320 then further comprises a data record 332, which is assigned to the data record 331 and represents the image taken in the setting represented by the data record 331, for example intensities, color values, color saturation values assigned by individual pixels, which can also be compressed, if necessary.
  • an overall picture is made up of four different ones.
  • Settings I to IV composed of individual images, so that the data structure 320 for storing an overall image thus comprises four pairs of data blocks 331 and 332.
  • the data structure .320 can be written in the sequence shown in FIG. 15 or in any other possible sequence onto a recording medium suitable for this purpose and can be reproduced by the latter.
  • An image recording system 13e shown in FIG. 10 comprises a camera chip 43e with a plurality of pixels 45e mounted on a carrier 211.
  • the carrier 211 lies on a base 213 of a frame 215.
  • Piezoactive elements 219 are inserted between cheeks 217 of the carrier 215 and end faces of the carrier 211, which define a position of the camera chip 43e relative to the carrier 215 in the x direction and in the y direction.
  • the piezo elements 219 are from a controller 107e which also reads the camera chip 45e, can be controlled in order to shift the carrier 211 and thus also the camera chip 45e in the x and y directions relative to the frame 215 by a sub-pixel distance. In this way, an image of an object, the effective resolution of which exceeds the pixel resolution of the camera chip 43e, can also be recorded in accordance with a scheme, as was explained with reference to FIG. 9.
  • the actuation of the actuators 219 results in an offset of the pixels 45e of the camera chip 43e.
  • mount a display chip on the carrier 211 in order to generate the principles explained with reference to FIG. 10 for generating an offset by a sub-pixel distance in the beam path of the image recording system 13e also in a beam path of an image display system and thus an increased resolution of a combined image recording and reproduction system without having to provide an image memory for the image of the increased resolution.
  • FIG. 13f A further variant of an image recording system 13f is shown in perspective in a simplified manner in FIG.
  • This image recording system 13f comprises a base 213 on which a camera chip 43f with a plurality of pixels 45f is arranged, which have a total pixel area which is larger than a quarter of the area of the photosensitive region of the camera chip 43f.
  • Stands 231 made of an elastomer material carry a shadow mask 235 with holes 236 such that the shadow mask 235 is arranged at a small distance from an area of the pixels 45f, with a hole 236 of the shadow mask 235 being associated with each pixel 45f.
  • the holes 236 take up a quarter of the area of the. Shadow mask 235 a.
  • Rigid columns 239 are arranged on the base 213, which carry piezo actuators 219f, which bear against the end faces of the shadow mask 235 and thus fix the shadow mask 235 in the x and y directions.
  • the actuators 219f can be controlled by a controller (not shown in FIG. 11) and the shadow mask relative to the camera chip 43f by a sub-pixel distance in x- and y- To shift direction, so that by four different settings of the actuators or the relative position between the shadow mask 235 and the camera chip 43f, the method explained with reference to FIG. 9 for increasing an effective resolution of the image recording system 13f can be carried out via a physical resolution of the camera chip 43f ,
  • This principle can also be applied to an image reproduction system if, instead of the camera chip 43f, a corresponding display chip is arranged in the device shown in FIG. 11.
  • FIG. 12 shows a further variant of an imaging system with a changeable magnification.
  • a switchable mirror 304 is located in a beam path 25e.
  • the switchable mirror 304 can be switched between a light-reflecting state and a light-transmitting state by means of a controller (not shown in FIG. 12).
  • FIG. 12 shows the beam path 25e for the state of the mirror 304 in solid lines, in which the mirror 304 is in its light-reflecting state. Then the beam path is deflected by the switchable mirror 304 to a mirror 305, from this in turn deflected to a mirror 306, further deflected by the latter to a further switchable mirror 303, which is also shown in FIG. 12 in its light-reflecting state. The beam path is then directed from the switchable mirror 303 to a camera chip 43e, which can thus record an image of an object not shown in FIG. 12 transmitted by the beam path 25e.
  • a part 25e 'of the beam path 25e passes through the mirror 304, is expanded by means of magnifying optics 91e from lenses 301 and 302 shown schematically here, passes through the switched in its light-transmitting state Mirror 303 and also strikes the camera chip 43e, which thus arrives enlarged image of only a part of the image transmitted by the beam path 25e.
  • the imaging optics explained with reference to FIG. 12 can be switched back and forth between two different magnifications in a simple manner in order to record images of different magnifications of the same object.
  • the recording or reproduction optics explained with reference to FIG. 12 can be used in any of the image recording and reproduction systems explained with reference to FIGS. 1 to 11.
  • mirrors 304 and 303 are polarizing beam splitters in order to select between the two beam paths.
  • magnification optics cannot be arranged in the beam path that passes straight through the beam splitters 304 and 303, but in the beam path that is deflected by the mirrors 304, 305, 306 and 303.
  • mirrors 304 and 303 are designed as rotating mirrors.
  • an overall image is composed of a plurality of sub-images, and both the recording and the reproduction of the sub-images can take place simultaneously or sequentially in order to record the overall image and display it to a user.
  • An image recording and reproduction system comprises at least one camera with first camera optics for imaging the object on a light-sensitive first substrate of the first camera and recording at least a first partial image and a second partial image, the first partial image including a smaller area of the object and the latter represents a higher resolution than the second field; and a display system for overlaying the first field and the. second partial image to an overall image of the object that can be perceived by a user's eye.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Cameras In General (AREA)

Abstract

Ein Bildaufnahme- und -wiedergabesystem umfaßt wenigstens eine Kamera mit einer ersten Kameraoptik zum Abbilden des Objekts auf ein lichtempfindliches erstes Substrat der ersten Kamera und Aufnehmen wenigstens eines ersten Teilbilds und eines zweiten Teilbilds, wobei das erste Teilbild eine einen kleineren Bereich des Objekts und diesen mit einer höheren Auflösung repräsentiert als das zweite Teilbild; und ein Anzeigesystem zum Überlagern des ersten Teilbildes und des zweiten Teilbildes zu einem von einem Auge eines Benutzers wahrnehmbaren Gesamtbild des Objekts.

Description

Bildaufnahmesystem, Bildwiedergabesystem und Bildaufnähme/-wiedergabesystem
Die Erfindung betrifft ein Bildaufnahmesystem, ein Bildwiedergabesystem und ein Bildaufnahme/-Wiedergabesystem. Insbesondere betrifft die Erfindung solche Bildaufnahmesysteme und Bildwiedergabesysteme, bei denen eine effektive Bildauflösung im Vergleich zu einer physikalischen Auflösung einer zur Aufnahme verwendeten Kamera bzw. einer zur Wiedergabe verwendeten Anzeige erhöht ist.
Bei herkömmlichen Systemen ist die Auflösung einer Bildwiedergabe limitiert durch die physikalische Auflösung einer verwendeten Anzeige, welche durch eine Anzahl von Bildelementen bzw. Pixeln der Anzeige gegeben ist. Eine Auflösung der Bildaufnahme ist entsprechend limitiert durch die physikalische Auflösung einer verwendeten Kamera, welche durch eine Anzahl von lichtempfindlichen Elementen bzw. Pixeln eines lichtempfindlichen Substrats der Kamera gegeben ist.
Aus US 6,188,382 Bl ist ein Bildwiedergabesystem bekannt, bei dem die effektive Auflösung gegenüber einer Pixelauflösung der verwendeten Anzeige erhöht ist. Es ist hierbei unmittelbar vor der Ebene der Anzeigepixel eine Schicht aus schaltbarem doppelt brechendem Material angeordnet, welches ansteuerbar ist, um in einem Strahlengang der Anzeige einen Versatz des Strahlengangs zu erzeugen, welcher einem Abstand von der Hälfte eines Abstands zwischen benachbarten Bildpixeln, also einer Sub-Pixeldistanz, entspricht . Damit kann dem Betrachter ein Bild dargestellt werden, dessen Auflösung doppelt so groß ist wie die Auflösung der Bildpixel, indem die Anzeige in schneller alternierender Ab- folge zwei Bilder darstellt, nämlich einmal ohne den eingeschalteten Versatz und einmal mit dem eingeschalteten Versatz um die Sub-Pixeldistanz. Dies setzt voraus, daß das Bild mit der erhöhten Auflösung in einem entsprechenden Bildspeicher bereitgehalten wird, von dem ein Teil zur Darstellung ohne den eingeschalteten Versatz zur Anzeige übertragen wird und der andere Teil zur Darstellung mit dem eingeschalteten Versatz zur Anzeige übertragen wird.
Aus US 5, 726, 670 ist ein Bildwiedergabesystem bekannt, bei welchem zwei Teilbilder unterschiedlicher Auflösung zu einem Gesamtbild überlagert werden, wobei das Teilbild mit der höheren Auflösung einen zentralen Bereich des Gesamtbilds darstellt und das Teilbild mit der niedrigeren Auflösung einen den zentralen Bereich umgebenden Randbereich des Gesamtbilds darstellt . Die beiden Teilbilder werden jeweils durch eine Anzeige mit einer geringen gleichen Pixelzahl erzeugt. Im Vergleich zu einer einzigen Anzeige, welche das Gesamtbild mit der hohen Auflösung darstellt und die deshalb eine entsprechend hohe Pixelzahl und Größe aufweisen muß, ist es damit möglich, das Gesamtbild mit zwei vergleichsweise kleinen Anzeigen der geringeren Pixelzahl darzustellen, wobei allerdings ein Auflösungsverlust in dem Randbereich des Gesamtbilds in Kauf genommen wird.
Es ist eine Aufgabe der vorliegenden Erfindung, ein Bild- aufnahmesystem oder/und ein Bildwiedergabesystem oder/und ein kombiniertes Bildaufnahme und -Wiedergabesystem vorzuschlagen, bei welchem eine effektive Auflösung gegenüber einer Pixelauflösung einer eingesetzten Kamera bzw. Anzeige erhöht ist.
Unter einem ersten Aspekt der Erfindung ist ein Bildaufnahme und -Wiedergabesystem zur Aufnahme und Wiedergabe eines Bildes eines Objekts vorgesehen, wobei das System eine erste Kamera und eine von der ersten Kamera verschiedene zweite Kamera zur Aufnahme jeweils eines Bildes des Objekts, eine erste Anzeige, eine von der ersten Anzeige verschiedene zweite Anzeige zum Erzeugen jeweils eines Teilbildes des Objekts und eine Anzeigeoptik zum Überlagern der beiden Teilbilder zu einem Gesamtbild des Objekts umfaßt . Hierbei wird die erste Anzeige mit Bildsignalen gespeist, welche von der ersten Kamera erzeugt werden, und die zweite Anzeige wird mit Bildsignalen gespeist, welche von der zweiten Kamera erzeugt werden. Gemäß einer beispielhaften Ausführungsform haben beide Kameras eine gleiche Zahl von lichtempfindlichen Elementen bzw. Pixeln, und die beiden Anzeigen haben eine gleiche Anzahl von Bildelementen bzw. Pixeln, wobei weiter die Anzahl von Pixeln der Kameras gleich der Anzahl von Pixeln der Anzeigen ist . Durch das Gesamtbild wird ein Objektfeld eines Objekts wiedergegeben. Die erste Kamera nimmt einen zentralen Bereich des Objektfelds mit einer solchen Vergrößerung auf, daß der zentrale Bereich im wesentlichen auf ein gesamtes lichtempfindliches Substrat der Kamera abgebildet wird. Das von der ersten Kamera aufgenommene Bild des zentralen Bereichs wird von der ersten Anzeige dargestellt und bildet einen entsprechenden zentralen Bereich des Gesamtbilds. Die zweite Kamera nimmt das gesamte Objektfeld mit einer solchen Vergrößerung auf, daß dieses auf im wesentlichen das gesamte lichtempfindliche Substrat der . zweiten Kamera abgebildet wird. Das von der zweiten Kamera aufgenommene Bild wird von der zweiten Anzeige als das zweite Teilbild dargestellt, welches einen den zentralen Bereich des Gesamtbilds umgebenden Randbereich des Gesamtbilds bildet . Hierbei stellt die zweite Anzeige in deren zentralem Bereich, der in dem Gesamtbild dem von der ersten Anzeige dargestellten zentralen Bereich des Gesamtbilds entspricht, nicht dar. Die Überlagerung des ersten und des zweiten Teilbildes führt dann zu einem Gesamtbild, dessen zentraler Bereich mit einer höheren Auflösung dargestellt ist als dessen Randbereich. Allerdings tritt hier ein Auflösungsverlust in dem Randbereich nicht auf, da der dort dargestellte Randbereich des Objektfelds von der zweiten Kamera mit einer im Vergleich zu dem von der ersten Kamera aufgenommenen zentralen Bereich des Objektfeldes mit einer entsprechend niedrigeren Auflösung aufgenommen wurde.
Eine beispielhafte Anwendung des Bildaufnahme und -Wiedergabesystems liegt in einem Einsatz desselben in einem Mikroskop, insbesondere in einem Stereomikroskop, wie etwa einem Operationsmikroskops. Der Benutzer nimmt hierbei nicht Einblick in Okulare, über welche das beobachtete Objekt über einen Strahlengang direkt optisch dargestellt wird, der Benutzer betrachtet vielmehr eine elektronische Anzeige, wie beispielsweise ein LCD-Display, welchem Bilddaten zugeführt werden, welche eine Kamera von dem Objekt aufnimmt. Die Anzeige kann beispielsweise eine köpfgetragene Anzeige, wie etwa ein head mounted display oder dergleichen sein. Dies ermöglicht es dem Benutzer, sich frei um das beobachtete Objekt herum zu bewegen, ohne durch die Einblicknahme in Okulare räumlich gebunden zu sein. Beispiele eines solchen Videomikroskops sind in US 2004/0017607 AI beschrieben, deren Offenbarung vollumfänglich durch in Bezugnahme in die vorliegende Anmeldung aufgenommen wird.
Bei einem solchen Videomikroskop ist die Abbildungsqualität herkömmlicherweise unter anderem beschränkt durch die Pixelauflδsungen der verwendeten Kameras und Anzeigen.
Der Einsatz des Bildaufnahme und -Wiedergabesystems mit wenigstens zwei Kameras und zwei Anzeigen, deren Bilder zu einem Gesamtbild überlagert werden, erlaubt eine vergleichsweise erhöhte Auflösung in einem zentralen Bereich des Gesamtbilds.
Es kann weiter davon ausgegangen werden, daß dieser zentrale Bereich auch den Gegenstand des Interesses des das Gesamtbild betrachtenden Benutzers bildet. Somit wird dieser Bereich vom Benutzer mit hoher Auflösung wahrgenommen, und der Randbereich des Gesamtbildes liegt in einem Bereich des Bildfelds des Benutzers, in dem dessen Auflösungswahrnehmung physiologisch ohnehin eingeschränkt ist.
Gemäß einer beispielhaften Ausführungsform umfaßt das An- zeigesystem eine Blickrichtungserfassungseinrichtung ("eye- tracker"), mit welcher eine Blickrichtung des Benutzers und damit ein Zentrum seines Interesses innerhalb des Gesamtbilds erfaßbar ist. In Abhängigkeit davon wird dann der mit hoher Auflösung durch die erste Kamera aufgenommene Bereich des Objektfelds innerhalb des Objektfelds verlagert, und entsprechend wird das von der ersten Anzeige dargestellte Teilbild innerhalb des Gesamtbilds verlagert. Somit kann der Benutzer sämtliche Bereiche des Gesamtbilds mit der erhöhten Auflösung betrachten.
Gemäß einem weiteren Aspekt sieht die Erfindung ein Bildaufnahme und -Wiedergabesystem vor, welches eine Kamera mit einer Kameraoptik mit änderbarer Vergrößerung zum Abbilden des Objekts auf ein lichtempfindliches Substrat der Kamera umfaßt. Es werden bei verschiedenen Vergrößerungen der Kameraoptik jeweils Bilder des Objekts aufgenommen, welche allerdings nicht separat dargestellt oder gespeichert werden sondern vielmehr zu einem Gesamtbild zusammengefügt werden, welche als Gesamtbild dargestellt oder gespeichert werden. Das Gesamtbild weist dann in verschiedenen Bereichen verschiedene Auflösungen auf, je nachdem mit welcher Vergrößerung der dem jeweiligen Bereich des Gesamtbilds entsprechende Bereich des Objektfelds durch die Kamera aufgenommen wurde.
Gemäß einer beispielhaften Ausführungsform wird das Objekt mit wenigstens zwei verschiedenen Vergrößerungen aufgenommen, welche sich um mehr als 40 % unterscheiden.
Bei einer weiteren beispielhaften Ausführungsform umfaßt die Kamera ein lichtempfindliches Substrat mit einer Vielzahl von lichtempfindlichen Elementen bzw. Pixeln. Bei einer ersten eingestellten Vergrößerung, welche größer ist als eine zweite eingestellte Vergrößerung, wird eine größere Menge von Pixeln zur Bildung des Gesamtbilds ausgelesen als bei der zweiten eingestellten Vergrößerung. Damit werden insbesondere bei der zweiten eingestellten kleineren Vergrößerung diejenigen Pixel des lichtempfindlichen Substrats nicht ausgelesen, auf welche durch die Kamera die Bereiche des Objektfelds abgebildet werden, welche bei der ersten größeren Vergrößerung auf das lichtempfindliche Substrat abgebildet werden. Die Daten dieser Pixel repräsentieren diesen Bereich des Objektfelds mit einer geringeren Auflösung als das bei der ersten Vergrößerung aufgenommene Bild und sind somit redundant . Die Menge von Pixeln, welche bei der ersten eingestellten Vergrößerung ausgelesen wird, ist damit verschieden von der Menge von Pixeln, welche bei der zweiten eingestellten Vergrößerung ausgelesen wird. Dies umfaßt allerdings - die Möglichkeit, daß die Pixelmengen überlappen und damit Pixel existieren, welche sowohl der Menge der bei der ersten Vergrößerung ausgelesenen Pixel als auch der Menge der bei der zweiten Vergrößerung ausgelesenen Pixel angehören.
Bei einer beispielhaften Ausführungsform umfaßt ein Anzeigesystem zur Darstellung der bei den wenigstens zwei verschiedenen Vergrößerungen aufgenommenen Teilbilder eine einzige Anzeigefläche, welche das bei der ersten Vergrößerung aufgenommenen Teilbild in einem Teilbereich der Anzeigefläche darstellt und das bei der zweiten kleineren Vergrößerung aufgenommene Teilbild in einem diesen Teilbereich wenigstens teilweise umgreifenden zweiten Teilbereich darstellt. Dies stellt ein besonders einfaches Anzeigesystem zur Verfügung, wobei allerdings die maximale Pixelauflösung der Anzeigefläche nur in dem Bereich genutzt wird, in dem das bei der ersten großen Vergrößerung aufgenommene Teilbild in dem- Gesamtbild angeordnet ist .
Bei einer weiteren beispielha ten . Ausführungsform umfaßt das Anzeigesystem wenigstens zwei verschiedene Anzeigeflächen und eine Anzeigeoptik, um die von den wenigstens zwei Anzeigeflächen dargestellten Teilbilder zu einem Gesamtbild zu überlagern, wie dies bereits vorangehend beschrieben wurde .
Bei einer weiteren beispielhaften Ausführungsform umfaßt das Anzeigesystem eine Anzeigefläche und eine Anzeigeoptik, über die der Benutzer die Anzeigefläche betrachtet. Die Anzeigeoptik ist hierbei eine Optik mit änderbarer Vergrößerung, welche in Übereinstimmung mit der Vergrößerung der Kameraoptik geändert wird. Insbesondere wird die Anzeigeoptik auf eine kleinere Vergrößerung eingestellt, wenn die Kameraoptik auf eine größere Vergrößerung eingestellt ist, und umgekehrt. Es werden dann nacheinander Bilder des Objekts mit verschiedenen Vergrößerungen der Kameraoptik aufgenommen und jeweils durch das Anzeigesystem mit entsprechenden Vergrößerungen der Anzeigeoptik dargestellt. Bei einer weiteren beispielhaften Ausführungsform umfaßt das System auch hierbei eine Blickrichtungserfassungseinrichtung, um eine Lage des mit der größeren Vergrößerung der Kameraoptik aufgenommenen Bereichs des Objektfelds innerhalb desselben zu verlagern.
Gemäß einem weiteren Aspekt sieht die Erfindung ein Bildaufnahme und -Wiedergabesystem vor, welches als ein Stereosystem ausgebildet ist, bei dem den beiden Augen eines Benutzers Bilder zur Betrachtung bereitgestellt werden, welche unter verschiedenen Beobachtungswinkeln auf ein Objekt aufgenommen wurden. Hierbei repräsentiert ein einem ersten Auge des Benutzers zugeführtes Bild einen kleineren Bereich des Objekt als ein einem zweiten Auge des Benutzers zugeführtes Bild, wobei dieser kleinere Bereich in dem ersten Bild mit einer höheren Auflösung dargestellt ist als der in dem zweiten Bild dargestellte Bereich des Objekts. Hierdurch ist mit vergleichsweise geringem Aufwand ein Stereosystem geschaffen, mit dem wenigstens ein Teilbereich des Objekts mit hoher Auflösung und unter Bereitstellung eines gewünschten Stereoeindrucks von dem Benutzer wahrnehmbar ist.
Gemäß einer beispielhaften Ausführungsform sind die Ver- größerungen, mit welchen das Objekt in dem ersten und dem zweiten Bild dargestellt sind, einander gleich. Das zweite Bild nimmt dann einen größeren Bereich des Blickfelds des Benutzers ein als das erste Bild.
Gemäß einer bevorzugten Ausführungsform ist hierbei ein Bereich des Bildfelds des ersten Auges um das erste Bild herum ergänzt durch entsprechende Teile des zweiten Bilds, so daß beide Augen des Benutzers ein im wesentlichen gleich großes Bildfeld dargestellt bekommen, wobei allerdings in dem ergänzten Bereich des Bildfelds des ersten Auges und dem entsprechenden Bereich des zweiten Auges ein Stereoeindruck des Objekts nicht hervorgerufen wird. Gemäß einer beispielhaften Ausführungsform kann auch hier wiederum eine Blickrichtungserfassungseinrichtung vorgesehen sein, um den mit erhöhter Auflösung und mit Stereoeindruck dargestellten Bereich des Objekts innerhalb des Objektfelds zu verlagern.
Gemäß einem weiteren Aspekt der Erfindung ist ein Bildaufnahme und -Wiedergabesystem zur Aufnahme und Wiedergabe eines Bildes eines Objekts vorgesehen, wobei das System eine Kamera mit einer Kameraoptik, einem lichtempfindlichen Substrat mit einer Mehrzahl von lichtempfindlichen Elementen bzw. Pixeln und einem ersten Scanner, sowie eine Anzeige mit einer Mehrzahl von • Bildelementen bzw. Pixeln und einem zweiten Scanner umfaßt. Der erste Scanner dient dazu, eine effektive Auflösung der Kamera im Vergleich zu einer Pixelauflösung der Kamera zu erhöhen, und der zweite Scanner dient dazu, eine effektive Auflösung der Anzeige im Vergleich zu einer Pixelauflösung der Kamera zu erhöhen.
Das System umfaßt ferner eine Steuerung, welche dazu ausgebildet ist, eine Scannauslenkung des ersten Scanners synchron mit einer Scannauslenkung des zweiten Scanners einzustellen. Hierdurch ist es möglich, ein bei einer gegebenen Scannauslenkung des ersten Scanners durch die Kamera aufgenommenes Bild aus dem lichtempfindlichen Substrat auszulesen und unmittelbar durch die Anzeige bei einer entsprechenden Scannauslenkung des zweiten Scanners darzustellen. Danach wird der Vorgang des Aufnehmens des Bildes, Auslesen des lichtempfindlichen Substrats und Darstellen durch die Anzeige bei geänderten Einstellungen des ersten und des zweiten Scanners wiederholt . Es ist hierdurch möglich, dem Benutzer ein Bild des Objekts mit einer Auflösung bereitzustellen, welche eine durch die Pixelauflösung der Kamera bzw. Anzeige limitierte Auflösung übersteigt, ohne ein Bild mit dieser effektiven Auflösung durch aufeinander folgendes Auslesen des lichtempfindlichen Substrats elektronisch erzeugen zu müssen. Insbesondere muß auf einem Signalweg zwischen den Pixeln des lichtempfindlichen Substrats und den Pixeln der Anzeige ein elektronischer Bildspeicher bzw. Puffer mit dieser erhöhten effektiven Auflösung nicht bereitgestellt werden. Das System kommt mit Bildspeichern bzw. Puffern einer Auflösung aus, welche eine größere der beiden Auflösungen von Kamera und Anzeige nicht übersteigt. Der Bildspeicher bzw. Puffer kann damit eine Anzahl von Speicherelementen aufweisen, welche nicht größer ist als die Anzahl der Pixel der Kamera bzw. die Anzahl der Pixel der Anzeige, je nachdem welche Anzahl die größere ist. Jedenfalls ist der Bildspeicher bzw. Puffer kleiner als das vierfache der Anzahl der Pixel der Kamera bzw. der Pixel der Anzeige, je nachdem welche Anzahl die. größere ist.
Der erste Scanner der Kamera ist gemäß einer beispielhaften Ausführungsform in einem Strahlengang zwischen dem Objekt und dem lichtempfindlichen Substrat angeordnet und dazu ausgebildet, eine Bildebene der Kameraoptik in eine Richtung zu verlagern, welche in der Bildebene orientiert ist. Der erste Scanner kann hierbei insbesondere eine Schicht mit einer einstellbaren Doppelbrechung umfassen..
Gemäß einer weiteren beispielhaften Ausführungsform umfaßt der erste Scanner der Kamera eine in dem Strahlengang vor dem lichtempfindlichen Substrat angeordnete Lochmaske und einen Aktuator, wobei die Lochmaske eine Mehrzahl von den lichtempfindlichen Elementen zugeordneten Öffnungen aufweist, und wobei der Aktuator dazu ausgebildet ist, die Lochmaske in einer in der Bildebene orientierten Richtung zu verlagern. Je nach Scannauslenkung des Aktuators werden dann verschiedene Teilstrahlen aus dem Strahlengang durch eine jeweilige Öffnung der Lochmaske auf das dieser Öffnung zugeordnete lichtempfindliche Element durchgelassen, und den Teilstrahlen zugeordnete Lichtintensitäten werden von dem Bildelement jeweils detektiert . Durch Ändern der Scannauslenkung ist es damit möglich, nacheinander verschiedene Teilbilder des Objekts aus der Kamera auszulesen, welche sich zu einem Gesamtbild zusammensetzen lassen, dessen effektive Auflösung höher ist als die Pixelauflösung der Kamera. Diese Ausführung des ersten Scanners ist insbesondere bei solchen lichtempfindlichen Substraten vorteilhaft, deren lichtempfindliche Elemente mit einem geringen Abstand voneinander angeordnet sind, so da eine Gesamtfläche der lichtempfindlichen Elemente größer ist als etwa ein Viertel der Gesamtfläche des lichtempfindlichen Substrats.
Gemäß einer weiteren beispielhaften Ausführungsform umfaßt der erste Scanner einen Aktuator zur Verlagerung des lichtempfindlichen Substrats relativ zu der Kameraoptik in einer i der Bildebene orientierten Richtung. Damit kann ähnlich wie bei der vorangehend erläuterten Ausführungsform eine Erhöhung der effektiven . Auflösung der Kamera gegenüber einer Pixelauflösung derselben erreicht werden, wobei diese Ausführungsform des Scanners insbesondere vorteilhaft ist bei lichtempfindlichen Substraten, deren Bildelemente mit Abstand voneinander angeordnet sind. Beispiele hierfür sind lichtempfindliche Substrate, bei denen eine Gesamtfläche der lichtempfindlichen Elemente kleiner ist als etwa ein Drittel oder etwa ein Viertel der Gesamtfläche des lichtempfindlichen Substrats.
Gemäß einer beispielhaften Ausführungsform umfaßt der zweite Scanner der Anzeige einen Scanner, welcher in dem Strahlengang der Anzeige angeordnet und dazu ausgebildet ist, einen änderbaren Versatz des Strahlengangs in einer in einer Ebene der Bildelemente der Anzeige orientierten Richtung zu erzeugen. Der Scanner kann insbesondere eine Schicht aus einem schaltbaren doppelbrechenden Material umfassen, welche zwischen den Bildelementen und dem Auge des Benutzers angeordnet ist.
Gemäß einer weitern beispielhaften Ausführungsform umfaßt der zweite Scanner eine in dem Strahlengang der Anzeige angeordnete Lochmasse und einen Aktuator, um die Lochmaske relativ zu den Bildelementen zu verlagern. Diese Ausführungsform ist insbesondere vorteilhaft bei Anzeigen, deren Bildelemente mit einem geringen Abstand voneinander angeordnet sind und deren Gesamtfläche mehr als etwa ein Viertel der Gesamtfläche einnimmt . Gemäß einer weiteren beispielhaften Ausführungsform umfaßt der zweite Scanner einen Aktuator zur Verlagerung der Anzeige relativ zu einem Betrachter der Anzeige in einer Ebene der Bildelemente. Diese Ausführungsform ist insbesondere vorteilhaft für Anzeigen, deren Bildelemente mit Abstand voneinander angeordnet sind und beispielsweise eine Gesamtfläche von weniger als etwa einem Drittel oder etwa einem Viertel der Gesamtfläche der Anzeige einnimmt .
Gemäß einer beispielhaften Ausführungsform ist eine maximale Scannauslenkung -des ersten und. des zweiten Scanners kleiner als ein Pixelabstand des lichtempfindlichen Substrats der Kamera bzw. der Anzeige. Beispielsweise kann die Scannauslenkung in eine Richtung etwa der Hälfte des Pixelabstands in dieser Richtung entsprechen.
Gemäß einer beispielhaften Ausführungsform ist der Scanner in zwei verschiedene und insbesondere zueinander orthogonale Richtungen auslenkbar.
Die Erfindung sieht auch den vorangehend beschriebenen Vorrichtungen entsprechende Bildaufnahme- und -wiedergäbe-verfahren vor.
Gemäß einer Ausführungsform der Erfindung umfaßt ein Bildaufnahme- und -wiedergabeverfahren zur Aufnahme und Wiedergabe eines Bildes eines Objekts Aufnehmen eines ersten Bildes eines größeren ersten Bereichs des Objekts; Aufnehmen eines zweiten Bildes eines kleineren zweiten Bereichs des Objekts, welcher eine kleinere Ausdehnung an dem Objekt aufweist als der erste Bereich; Darstellen des ersten Bildes mit einer ersten Anzeige und Darstellen des zweiten Bildes mit einer zweiten Anzeige; und optisches Überlagern des durch die erste Anzeige dargestellten Bildes mit dem durch die zweite Anzeige dargestellten Bild zu einem Gesamtbild des Objekts.
Gemäß einer weiteren Ausführungsform umfaßt ein Bildaufnahme- und -wiedergabeverfahren Aufnehmen eines ersten Bildes eines größeren ersten Bereichs des Objekts mit einer auf eine erste Vergrößerung der Abbildungsoptik eingestellten Abbildungsoptik einer Kamera; Aufnehmen eines zweiten Bildes eines kleineren ersten Bereichs des Objekts, welcher eine kleinere Ausdehnung an dem Objekt aufweist als der ■ erste Bereich, mit der Abbildungsoptik, wobei die Abbildungsoptik auf eine von der ersten Vergrößerung der Abbildungsoptik verschiedene zweite Vergrößerung der Abbildungsoptik eingestellt ist; und Erzeugen eines Gesamtbildes des Objekts aus dem aufgenommenen ersten Bild und dem aufgenommenen zweiten Bild.
Gemäß einer weiteren Ausführungsform umfaßt ein Bildaufnahme- und -wiedergabeverfahren Abbilden des Objekts mit einer Kameraoptik auf einen Kamerachip und Auslesen eines ersten detektierten Bildes aus dem Kamerachip; Abbilden des Objekts mit der Kameraoptik auf den Kamerächip, wobei eine Lage des Abbilds des Objekts relativ zu einer Lage des Abbilds des Objekts bei der Aufnahme des ersten Bildes um eine erste Distanz verlagert ist, und Auslesen eines zweiten detektierten Bildes aus dem Kamerachip; Darstellen des aufgenommenen ersten Bildes auf einem Displaychip und Abbilden des Displaychips mit . einer Darstellungsoptik; und Darstellen des aufgenommenen zweiten Bildes auf dem Displaychip und Abbilden des Displaychips mit der Darstellungsoptik, wobei eine Lage eines Abbilds des Display- chips relativ zu einer Lage des Abbilds des Displaychips bei der Darstellung des ersten Bildes um eine zweite Distanz verlagert ist.
Gemäß einer weiteren Ausführungsform der Erfindung ist eine Datenstruktur vorgesehen, welche durch die vorangehend erläuterten Verfahren und Vorrichtung . aufgenommene Bilder repräsentiert .
Hierbei ist es möglich, eine Menge an Daten zu reduzieren, in dem Teilbereiche eines mit einer geringen Vergrößerung aufgenommenen Bildes in der Datenstruktur nicht als Daten enthalten sind, wobei diese Teilbereiche allerdings in einem zweiten Bild enthalten sind, welches mit einer größeren Vergrößerung aufgenommen wurde.
Gemäß einer Ausführungsform der Erfindung sind die beiden Bilder in der Datenstruktur mit einer gleichen Bildauflösung repräsentiert .
Eine Ausführungsform der Erfindung sieht auch einen Datenträger vor, welcher eine computerlesbare Verkörperung der Datenstruktur enthält. Der computerlesbare Träger kann hierbei jegliche Art von Träger umfassen, wie etwa einen Festkörperspeicher, einen magnetischen Speicher, einen optischen Speicher oder andere Typen von Speicher, oder auch modulierte Wellen bzw. Signale, wie etwa Radiofrequenzsignale, Audiofrequenzsignale oder optisch modulierte Wellen bzw. Signale, welche zur Übertragung durch ein geeignetes Netzwerk, wie etwa das Internet, geeignet sind.
Nachfolgend werden Ausführungsformen der Erfindung anhand von Zeichnungen näher erläutert . Hierbei zeigt. .
Figur 1 eine schematische Darstellung eines erfindungsgemäßen Stereo-Mikroskopiesystems,
Figur 2 eine schematische Darstellung von Teilbildern eines mit dem Stereo-Mikroskopiesystem der Figur 1 dargestellten Gesamtbilds,
Figur 3 eine Variante eines Anzeigesystems zur Verwendung mit dem Stereo-Mikroskopiesystem der Figur 1,
Figur 4 eine weitere Ausführungsform eines erfindungsgemäßen Mikroskopiesystems ,
Figur 5 eine Folge von schematischen Darstellungen zur Erläuterung von mit dem Mikroskopiesystem der Figur 4 erzeugten Teilbildern, Figur 6 eine weitere Ausführungsform eines erfindungsgemäßen Stereo-Mikroskopiesystems ,
Figur 7 eine schematische Darstellung zur Erläuterung von in dem Stereo-Mikroskopiesystem der Figur 6 erzeugten Bildern,
Figur 8 eine Teilansicht einer weiteren Ausführungsform eines erfindungsgemäßen Bildaufnahme- und -Wiedergabesystems,
Figur 9 eine Darstellung von in dem System gemäß Figur 8 eingesetzten Scannern,
Figur 10 eine Kamera bzw. eine Anzeige für ein Bildaufnahme und -Wiedergabesystem gemäß einer weiteren Ausführungsform der Erfindung,
Figur 11 eine perspektivische Darstellung einer Kamera bzw. einer Anzeige für eine weitere Ausführungsform eines erfindungsgemäßen Bildaufnahme- und -Wiedergabesystems ,
Figur 12 eine weitere Ausführungsform einer Abbildungsoptik mit änderbarer Vergrößerung,
Figur 13 eine weitere Ausführungsform eines Bildaufnahme- Systems,
Figur 14 eine schematische Darstellung einer Datenstruktur gemäß einer Ausführungsform der Erfindung, und
Figur 15 eine schematische Darstellung einer Datenstruktur gemäß einer weiteren Ausführungsform der Erfindung. Ein in Figur 1 schematisch dargestelltes Stereo-Mikroskopiesystem 11 umfaßt ein Stereo-Bildaufnahmesystem 13 und ein Stereo-Bildwiedergabesystem 15. Beide Systeme 13, 15 sind symmetrisch aufgebaut, indem sie jeweils gleiche Komponenten für die Darstellung eines Bildes eines zu untersuchenden Objekts 17 für ein linkes Auge 181 und ein rechtes Auge 18r eines Benutzers aufweisen. In Figur 1 sind die Komponenten zur Darstellung des Bildes für das linke Auge 181 mit dem Zusatzbuchstaben "1" versehen und die Komponenten zur Darstellung des Bildes für das rechte Auge 18r sind mit dem Zusatzbuchstaben "r" versehen. Aufgrund des symmetrischen Aufbaus der Komponenten werden diese nachfolgend unter Weglassung der Zusatzbuchstaben "1" und "r" gemeinsam beschrieben.
Das Bildaufnahmesystem 13 umfaßt ein Haupt-Mikroskopieobjektiv 21 mit mehreren Linsen 22, um ein von einer Objektebene 19 des Objektivs 21 in einen Raumwinkelbereich ausgehendes objektseitiges Strahlenbündel 23 in ein bildseitiges paralleles Strahlenbündel 25 überzuführen. Aus dem bildseitigen Strahlenbündel 25 greift eine erste Kameraoptik 27 aus mehreren Linsen 28 ein TeilStrahlenbündel 29 aus dem bildseitigen Strahlenbündel 25 heraus und führt dieses einem Kamerachip 31 derart zu, daß auf diesem die Objektebene 19 abgebildet wird.
Da eine Hauptachse 33 der Kameraoptik 27 mit Abstand von einer optischen Achse 35 des Objektivs 21 angeordnet ist, erscheint das auf den Kamerachip 31 abgebildete Bild der Objektebene 19 unter einem Beobachtungswinkel α zur optischen Achse 35 des Bildaufnahmesystems 13. Die beiden Kameras 311 und 31r nehmen damit Bilder von der Objektebene 19 auf, deren Beobachtungswinkel sich um 2α unterscheiden.
In einem Strahlengang des TeilStrahlenbündels 29 ist zwischen dem Objektiv 21 und der Kameraoptik 27 ein Strahlteilerwürfel 37 angeordnet, welcher das TeilStrahlenbündel 29 aufteilt in den der Kameraoptik 27 zugeführten Teil und einen weiteren Teil, in dem eine zweite Kameraoptik 41 mit Linsen 42 angeordnet ist, welche dieses TeilStrahlenbündel einem Kamerachip 43 derart zuführt, daß auf diesen ebenfalls die Objektebene 19 abgebildet ist, und zwar unter einem Beobachtungswinkel, der gleich dem Beobachtungswinkel α ist, unter welchem die Objektebene 19 auf den Kamerachip 31 abgebildet ist. Allerdings weist die Kameraoptik 27 eine doppelt so große Vergrößerung auf wie die Kameraoptik 41.
In Figur 2 ist die Abbildung der Objektebene 19 auf die Kamerachips 31 und 43 schematisch dargestellt. Beide Kamerachips 31 und 43 weisen eine gleiche Anzahl von lichtempfindlichen Elementen bzw. Pixeln 45 auf, welche in einem. Rechteckgitter angeordnet sind. Für die Zwecke der einfachen Darstellung der Figur 2 haben die Kamerachips 31 und 43 jeweils 16 Pixel 45 in Horizontalrichtung und 12 Pixel 45 in Vertikalrichtung, also insgesamt 192 Pixel. In der Realität ist die Anzahl der Pixel jedoch wesentlich höher, wie beispielsweise 1024 x 768 Pixel oder dergleichen.
Aufgrund der unterschiedlichen Vergrößerungen der Kameraoptiken 27 und 41 werden auf die Kamerachips 31 und 43 unterschiedlich große Objektfelder der Objektebene 19 abgebildet. Auf den Kamerachip 31 wird ein kleines Objektfeld 1 abgebildet, dessen Ausdehnung halb so groß ist wie ein Objektfeld 3, welches auf den Kamerachip 43 abgebildet wird. Das Objektfeld 1 ist innerhalb des Objektfelds 3 zentriert.
Das Bildwiedergabesystem 15 umfaßt ein Okular 51 aus mehreren Linsen 52, in welches das Auge 18 des Benutzers Einblick nimmt. Dem Okular 51 wird eine Überlagerung von zwei Bildern zugeführt, welche jeweils von einem LCD-Bildschirm 53 bzw. 55 dargestellt werden. Hierzu umfaßt eine Anzeigeoptik 57 ein Objektiv 59 zur Vergrößerung des von der Anzeige 55 dargestellten Bildes und ein Objektiv 61 aus mehreren Linsen 62 zur Vergrößerung des von der Anzeige 53 dargestellten Bildes und einen Strahlteiler 63 , um eine Überlagerung der von den Kameras 53 und 55 dargestellten Bilder dem Okular 51 zuzuführen. Hierbei weist das Objektiv 59 zur Vergrößerung des Bildes der Anzeige 55 eine doppelt so große Vergrößerung auf wie das Objektiv 61 zur Vergrößerung des Bildes der Anzeige 53.
Der Anzeige 55 werden über eine Datenleitung 67 die von dem Kamerachip 43 erzeugten Bildsignale zur Darstellung zugeführt, und der Anzeige 53 werden über eine Datenleitung 69 die von dem Kamerachip 31 erzeugten Bildsignale zur Darstellung zugeführt. Die beiden Anzeigen 53 und 55 weisen jeweils eine gleiche Anzahl von Pixeln auf wie die beiden Kamerachips 31 und 43, so daß die Anzeigen 53 und 55 genau die Bilder wiedergeben, die die Kameras 43 bzw.' 31 aufgenommen . haben. Aufgrund der unterschiedlichen Vergrößerungen der beiden Objektive 60 und 62 erscheinen allerdings die beiden Anzeigen 53 und 55 unterschiedlich groß, wie dies in Figur 2 ebenfalls schematisch wiedergegeben ist. Hierbei ist das Bild der Anzeige 55 innerhalb des Bildes der Anzeige 53 zentriert. Da die beiden Anzeigen 53 und 55 jeweils eine gleiche Anzahl von Pixeln 57 aufweisen, ist allerdings eine sichtbare Pixeldichte in dem Bild der Anzeige 55. jeweils in Horizontalrichtung und Vertikalrichtung doppelt so groß wie die entsprechende sichtbare Pixeldichte in dem Bild der Anzeige 53. Damit wird der zentrale Bereich 1 der Objektebene 19 für das Auge 18 mit einer doppelt so großen Auflösung dargestellt wie das größere Objektfeld 3.
Damit kann der Benutzer den Gegenstand seines Interesses an dem Objekt 17 in dem zentralen Bereich 1 des Objektfeldes 19 anordnen und dann seinen Blick auf die Mitte des von den Anzeigen 53 und 55 dargestellten Gesamtbildes richten. Ihm erscheint dann der Gegenstand mit der erhöhten Auflösung, welche an sich der Auflösung von verwendeten Kameras mit 24 x 32 Pixeln und entsprechend Anzeigen mit 24 x 32 Pixeln in der vereinfachten Darstellung der Figur 2 entsprechen. In dem Rand des Bildes der Anzeige 53, welcher das Bild der Anzeige 55 umgibt, ist die Auflösung allerdings nur halb so groß wie in dem Bild der Anzeige 55. Allerdings wird auch die Auflösung des menschlichen Auges zum Rande des Gesichtsfeldes hin geringer, so daß diese geringere Auflösung des Bildes der Anzeige 53 die Qualität des von dem Benutzer wahrgenommenen Gesamtbildes kaum schmälert. Es wird mit dem Mikroskopiesystem 11 somit eine Qualität des von dem Benutzer wahrgenommenen Bildes des Objekts 17 erreicht, wie sie bei Verwendung nur einer einzigen Kamera und einer einzigen Anzeige nur mit Kamerachips und Anzeigen mit einer vierfach größeren Pixelzahl möglich ist.
Zur weiteren Erhöhung der Qualität des Gesamtbildes wird ein zentraler Bereich des Bildes der Anzeige 53, welcher in dem Gesamtbild dem Bereich des Bildes der Anzeige 55 entspricht, nicht dargestellt. Hierzu gibt es wenigstens folgende Möglichkeiten: es wird dieser Bereich bereits in dem Strahlengang zu der Kamera 43 hindurch beispielsweise eine Blende oder dergleichen entfernt, oder es werden die belichteten Pixel des entsprechenden Bereichs auf dem Kamerachip 43 nicht von dem Kamerachip 43 ausgelesen oder nicht zu der Anzeige 53 hin geleitet, oder es werden die entsprechenden Pixel 57 der Anzeige 53 inaktiv geschaltet, oder es ist eine ' Blende in dem Strahlengang zwischen der Anzeige 53 und dem Strahlteuer 57 vorgesehen, um die entsprechenden Bereiche aus dem Bild der Anzeige 53 auszublenden.
Nachfolgend werden weitere Varianten der anhand der Figuren 1 und 2 erläuterten Ausführungsformen beschrieben. Hierbei sind Komponenten, die Komponenten der Figuren 1 und 2 hinsichtlich ihrer Funktion oder ihres Aufbaus entsprechen, mit den gleichen Bezugsziffern wie in den Figuren 1 und 2 versehen zur Unterscheidung jedoch durch einen Buchstaben ergänzt.
In Figur 3 ist ein Bildwiedergabesystem 15a schematisch dargestellt, welches ergänzend oder als Alternative zu den anhand der Figur 1 erläuterten Okularen zusammen mit dem Bildaufnahmesystem 13 der Figur 1 verwendbar ist. Das Bildwiedergabesystem 15a ist als eine kopfgetragene Anzeigevorrichtung bzw. ein head mounted display ausgebildet, welches an einem Kopf 71 des Benutzers fest anbringbar ist. Das Anzeigesystem umfaßt eine Lichtquelle 73, deren Licht mit einem Kollimator 74 kollimiert wird, um eine LCD-Anzeige 53a zu beleuchten, welche an die Datenleitung 69 angeschlossen ist. Das Bild der LCD-Anzeige 53 wird durch eine Linse 75 und eine Linse 76 geführt und an einem gekrümmten halbdurchlässigen Spiegel 63a reflektiert, um ein Bild auf einer Retina 77 des Auges 18 zu formen. Die LCD-Anzeige 53a stellt damit das Bild des größeren Objektfeldes 3 dar.
Das Bildwiedergabesystem 15a umfaßt weiter eine Lichtquelle 78, deren Licht mit einem Kollimator 79 zu einem parallelen Strahl geformt wird, um eine weitere LCD-Anzeige 55a zu beleuchten, welcher Daten über die Steuerleitung 67 zugeführt werden. Das Bild der Anzeige 55a wird über eine Linse 80 und eine weitere Linse 81 geführt, durchsetzt den halbdurchlässigen Spiegel 63a und erzeugt ebenfalls ein Bild auf der Retina 77 des Auges, welches dem von der LCD-Anzeige 53a erzeugten Bild in einem zentralen Bereich überlagert ist. Die Retina 77 erkennt damit wiederum den zentralen Bereich 1 des Objektfeldes 19 mit einer höheren Auflösung als einen diesen zentralen Bereich umgebenden Randbereich, ebenso wie dies in Figur 2 schematisch erläutert ist .
Ein in Figur 4 schematisch dargestelltes Bildaufnahme und -Wiedergabesystem lb umfaßt ein Bildaufnahmesystem 13b zur Aufnahme eines Bildes eines Objekts 17b und ein Bildwiedergabesystem 15b zur Darstellung des aufgenommenen Bildes zur Betrachtung mit einem Auge 18b eines Benutzers .
Das Bildaufnahmesystem 13b umfaßt eine Kamera 14 mit einer Kameraoptik 16, deren Komponenten entlang einer optischen Achse 33b zwischen einer Objektebene 19b und einer Bildebene angeordnet sind, in welcher ein Kamerachip 43b angeordnet, ist. Die Kameraoptik 16 umfaßt ein Objektiv 21b, ein Zoomsystem 91 zur Einstellung einer Vergrößerung der Abbildung von der Objektebene 19b auf den Kamerachip 43b und eine Adapterlinse 93.
Das Zoomsystem 91 ist ein afokales Zoomsystem änderbarer Brechkraft, welches zwei Linsenbaugruppen 95 und 97 aufweist, welche mit festem Abstand entlang der optischen Achse 33b angeordnet sind. Die Linsenbaugruppe 95 umfaßt eine Linse 98 negativer Brechkraft, welche mit einer Linse 99 positiver Brechkraft verkittet ' ist. Auf der mit der Linse 99 nicht verkitteten Oberfläche der Linse 98 ist eine Linse 100 änderbarer Brechkraft fest aufgebracht, deren Brechkraft bzw. optische Wirkung durch Anlegen elektrischer Signale änderbar ist . Derartige Linsen änderbarer optischer Brechkraf sind beispielsweise aus US 4,795,248, US 6,317,190 Bl, US 5,617,109, US 4,909,626, US 4,781,440, US 4,190,330, US' 4,572,616 und US 5,815,233 bekannt, deren Offenbarung in die vorliegende Anmeldung durch Inbezugnahme voliumfanglich aufgenommen wird.
Die Linsenbäugruppe 97 umfaßt eine Linse 101 negativer Brechkraft, welche mit einer Linse 102 positiver Brechkraft verkittet ist. Auf der mit der Linse 101 nicht verkitteten Oberfläche der Linse 102 ist eine Linse 103 änderbarer Brechkraft flächig aufgebracht .
Die Linsen 100 und 103 änderbarer Brechkraft sind von einer Steuerung 105 ansteuerbar, um deren Brechkräfte im Hinblick auf eine Änderung der Vergrößerung des Zoomsystems 91 anzusteuern.
Elektrisch ansteuerbare Linsen sind zur Realisierung des Zoomsystems 91 gut geeignet, da diese eine schnelle Umstellung der Vergrößerung des Zoomsystems ermöglichen. Allerdings ist es auch möglich, im Rahmen der Erfindung einsetzbare Zoomsysteme bereitzustellen, welche relativ zueinander mechanisch verlagerbare optische Komponenten zur Änderung der Vergrößerung umfassen. Beispiele für optische Systeme . mit Linsen einstellbarer optischer Wirkung sind in der deutschen Patentanmeldung Nr. 103 49 293.3 der Anmelderin beschrieben, deren Offenbarung durch Inbezugnahme vollumfänglich in die vorliegende Anmeldung aufgenommen wird.
In der Darstellung der Figur 4 sind die einstellbaren Linsen 100 und 103 nicht als Schichten konstanter Dicke dargestellt sondern als entsprechende Linsen aus Glas, welche eine der Einstellung entsprechende Brechkraft bereitstellen. Die Linsen 100 und 103 des Zoomsystems 91 werden von der Steuerung 105 derart angesteuert, daß eine Vergrößerung des Zoomsystems 2,0fach ist.
Ein bei einer eingestellten Vergrößerung des Zoomsystems 91 durch den Kamerachip 43 auf genommenes Bild der Objektebene 19b wird über eine Leitung 109 von einer HauptSteuerung 107 des Bildaufnahme und -Wiedergabesystems lb übertragen. Von dort wird das Bild über eine Leitung 111 auf eine Anzeige 55b des Bildwiedergabesystems 15b übertragen. Das Bildwiedergabesystem 15b umfaßt neben der Anzeige 55b entlang einer optischen Achse eine Adapterlinse 113, ein Zoomsystem 91' und ein Okular 51b. mit mehreren Linsen 52. Das Zoomsystem 91 ' weist einen ähnlichen Aufbau auf wie das Zoomsystem 91 des Bildaufnahmesystems 13b. So umfaßt das Zoomsystem 91' eine Linsenbaugruppe 95' mit zwei Linsen 99' und 98' fester optischer Wirkung und eine Linse 100' einstellbarer optischer Wirkung, welche von einer Steuerung 105' angesteuert ist. Die Linsenbaugruppe 97' umfaßt zwei Linsen 101', 102' fester Brennweite und eine Linse 103' einstellbarer optischer Wirkung, welche ebenfalls von der Steuerung 105' ansteuerbar ist. In der in Figur 4. gezeigten Darstellung weist das Zoomsystem 91' eine Vergrößerung von 1,3 auf. Unter Berücksichtigung der vergrößerten Wirkung des Objektivs 51b, der Adapteroptik 93, der Adapteroptik 113 und des Okulars 51b ist eine Gesamtvergrößerung des Bildaufnahme und -Wiedergabesystems etwa 5 bis 50fach.
Die HauptSteuerung 107 kontrolliert die Steuerungen 105, 105' der Zoomsysteme 91, 91' derart, daß zeitlich nacheinander drei verschiedene Vergrößerungen der Zoomsysteme 91 und 91' eingestellt werden, und bei einer jeden Vergrößerung ein Teilbild von dem Kameraσhip 43b an die Steuerung 107 ausgelesen und von dieser auf die Anzeige 55b übertragen wird. Diese drei Einstellungen werden nachfolgend anhand der Figuren 5a, 5b und 5c erläutert. Bei einer jeden der drei Einstellungen ist eine Gesamtvergrößerung des Bildaufnahme und -Wiedergabesystems lb gleich. Allerdings sind die Vergrößerungen der beiden Zoomsysteme 91 und 91' in den drei Stellungen verschieden. Um die Gesamtvergrößerung gleich zu halten, muß hierzu bei einer Verringerung der Vergrößerung des Zoomsystems 91 die Vergrößerung des Zoomsystems 91' entsprechend erhöht werden.
In der in Figur 5a dargestellten Situation hat die Vergrößerung des Zoomsystems 91 unter den drei verschiedenen Einstellungen ihren größten Wert, und es wird ein kleiner zentraler Teil lb des Objektfeldes auf den Kamerachip 43b abgebildet. Die von dem Kamerachip 43b detektierten Bilddaten" werden auf die Anzeige 55b übertragen, welche von dem Benutzer als ein kleiner Teil 115 seines Bildfeldes wahrgenommen wird, da die Vergrößerung des Zoomsystems 91' in dieser Einstellung ihren kleinsten Wert aufweist . In der nächsten Einstellung wird die Vergrößerung des Zoomsystems 91 auf einen mittleren Wert eingestellt, so daß ein mittelgroßer Teil 3b des Objektfeldes, welcher in Figur 5b schraffiert dargestellt ist, auf den Kamerachip 43b abgebildet wird. Die von dem Kamerachip 43b erzeugten Bilddaten werden auf
•die Anzeige 55b übertragen, wobei allerdings nicht der gesamte Bildinhalt des Kamerachips 43b übertragen wird, sondern nur Bilddaten, welche in einem Bereich 114 außerhalb eines zentralen Bereichs 113 der Fläche des Chips 43b angeordnet sind. Der Bereich 113 entspricht in diesem Bild der Objektebene 19b dem Teilbereich lb, welcher bei der vorangehenden Einstellung (vergleiche Figur 5a) bereits als Bild aufgenommen wurde . Der den zentralen Bereich 113 umgebende Randbereich 114, welcher in Figur 5b schraffiert dargestellt ist, enthält damit Bildinformation, welche in den vorangehenden in Figur 5a erläuterten Schritt, nicht bereits aufgenommen wurde.
Damit wird in einem im rechten Teil der Figur 5b gezeigten Ringbereich 116 um den zentralen Bereich 115 Bildinformation erzeugt, welche von dem Auge 18b des Benutzers wahrgenommen wird.
Bei einer anhand der Figur 5c erläuterten Einstellung der Ver- größerungen der Zoomsysteme 91, 91' weist das Zoomsystem 91 seine kleinste Vergrößerung unter den drei Einstellungen auf, so daß ein großer Teil 5b der Objektebene 19b auf den Kamerachip 43b abgebildet wird. Die Bildinformation wird wieder von dem Kamerachip 43b über die HauptSteuerung 107 auf die Anzeige 55b übertragen, wobei allerdings lediglich die Information aus demRingbereich 114 um den zentralen Bereich 113 des Kamerachips 43b auf die Anzeige 55b übertragen wird.
Die Vergrößerungen in den drei Einstellungen sind so aufeinander abgestimmt, daß die Fläche des zentralen Bereichs 113 im Bild auf dem Kamerachip 43b dem Teil 3b in der Objektebene 19b entspricht, welcher in den vorangehend beschriebenen Einstellungen (vergleiche Figur 5a, 5b) bereits an die Anzeige übertragen und durch diese dargestellt wurde.
Somit wird in der ersten Einstellung der Figur 5a zuerst der kleine Teilbereich lb der Objektebene als zentraler kleiner Teil 115 des Gesamtbildes ' dargestellt, und zwar mit der vollen Auflösung der Kamera 43b bzw. der Anzeige 55b. Daraufhin wird in der Einstellung der Figur 5b der mittelgroße Bereich 3b der Objektebene 19b, aus welchem allerdings der kleine zentrale Bereich lb herausgenommen ist, als Ringbereich 116 durch .die Anzeige 55b dargestellt, und zwar wiederum mit der vollen Auflösung der Anzeige 55b, wobei diese Auflösung allerdings aufgrund der geänderten Vergrößerung des Bildwiedergabesystems 15b von dem Benutzer als eine geringere effektive Auflösung wahrgenommen wird.
Weiter wird in der in Figur 5c erläuterten Einstellung der große Bereich 5b des Objektfeldes 19b durch die Anzeige 55b dargestellt, wobei aus der Darstellung allerdings der mittelgroße Bereich 3b der Objektebene 19b ausgenommen ist. Auch für diese Darstellung in dem äußeren Ringbereich 117 des Gesamtbildes wird wieder die volle Auflösung der Anzeige 55b eingesetzt, welche allerdings von dem Benutzer aufgrund der nochmals erhöhten Vergrößerung des Zoomsystems 91' als geringere effektive Auflösung wahrgenommen wird . als die Darstellung des Ringbereichs 116 in der Einstellung gemäß Figur 5b oder gar des zentralen Bereichs 115 in der Einstellung der Figur 5a. Somit ermöglicht es das Bildaufnahme und -Wiedergabesystem lb, das Objekt mit einer Auflösung zu betrachten, welche in dem Zentrum des betrachteten Bildfeldes besonders hoch ist, in einem dieses Zentrum umgreifenden Ringbereich erniedrigt ist und in einem diesen Ringbereich umschließenden weiteren Ringbereich noch weiter erniedrigt ist. Da der Benutzer seinen Blick meist auf das Zentrum gerichtet hat und dort auch der Bereich des Objekts angeordnet ist, welcher den Benutzer am meisten interessiert, kann der Benutzer diesen interessierten Bereich mit der höchsten der drei verschiedenen Auflösungen wahrnehmen und empfindet das erzeugte Bild qualitativ als besonders hochwertig. Die abnehmende Auflösung in zwei Stufen zum Rand des wahrgenommenen Bildes hin nimmt der Benutzer hinsichtlich der Qualität der Abbildung nicht als nachteilhaft wahr, da auch das Auflösungsvermögen des menschlichen Auges zum Rande des Gesichtsfeldes hin abnimmt.
In dem anhand der Figur 4 und 5 erläuterten Beispiel werden drei verschiedene Einstellungen der Vergrößerungen des Bildaufnahmesystems, und des BildwiedergabeSystems beschrieben. Es ist jedoch auch möglich, hier eine größere Zahl von Einstellungen zu verwenden, wozu insbesondere die Vergrößerungen des Bildaufnahmesystems und des Bildwiedergabesystems kontinuierlich oder quasi-kontinuierlich geändert werden können. Abgesehen von der Einstellung, bei der die Vergrößerung des Bildaufnahmesystems maximal ist, sind dann die Ringbereiche (vergleiche 114 in Figur 5b, 5c) , welche zum Aufbau des Gesamtbildes auszulesen sind, immer schmaler je mehr Einstellungen der Vergrößerung eingesetzt werden. Bei einer sehr großen Zahl von Einstellungen ist es dann möglich, den Ringbereich 114 durch vier Zeilendetektoren bereitzustellen, deren Bildinhalte sehr schnell an die Steuerung 107 bzw. die Anzeige 55b übertragbar sind. Entsprechend kann auch die Anzeige 55b zur Anzeige der Ringbereiche Zeilendisplays verwenden, welche entsprechend schnell ansteuerbar sind.
Bei einigen der Einstellungen der Vergrößerungen des Bildaufnahme und -Wiedergabesystems lb werden lediglich Teile des Kamerachips 43b ausgelesen und entsprechend lediglich Teile der Anzeige 55b zur Darstellung des Bildes gebraucht. Dadurch ist eine hohe Redundanz von übertragenen Daten nicht gegeben. Deshalb eignen sich diese Daten auch zur Aufzeichnung der aufgenommenen Bilder durch ein AufZeichnungsgerät 121. Dort wird für eine jede der eingestellten Vergrößerungen ein zugeordneter Datensatz abgespeichert, wobei bei der beschriebenen Ausführungsform jeweils drei solcher Datensätze, zusammen ein Gesamtbild des Objekts 17 repräsentieren. Bei einer geänderten Anzahl von verschiedenen Einstellungen der Vergrößerungen würden dann entsprechend mehr oder lediglich zwei solcher Datensätze, von denen nicht sämtliche die gesamte Bildinformation des Kamerachips 43b pro Einstellung enthalten, eingesetzt.
Anhand der Figuren 14a und 14b wird nun eine Datenstruktur näher erläutert, welche geeignet ist, mit zwei Einstellungen der Vergrößerungen aufgenommene Bilder zu speichern.
Figur 14a zeigt hierbei schematisch einen zentralen Teil lg eines Gesamtbildes, welcher mit einer großen Vergrößerung aufgenommen und wiedergegeben werden soll, sowie einen den zentralen Teil lg umgebenden Bereich 3g, . welcher mit einer vergleichsweise niedrigeren- Vergrößerung aufgenommen und wiedergegeben werden soll. Der Bereich 3g ist unterteilt in vier Blöcke 3glA 3g2, 3g3, 3g4. Eine Datenstruktur 230 zur Speicherung der Bilddaten aus den Teilen lg und 3g ist in Figur 14b schematisch dargestellt. Die Datenstruktur 320 umfaßt einen ersten Datenblock 321, welcher die bei der Aufnahme der Teile lg und 3g verwendeten bzw. bei der Wiedergabe der Bilder zu verwendenden Vergrößerungen repräsentiert. Die Repräsentierung der Vergrößerungen kann hierbei als ein Verhältnis der beiden Vergrößerungen Vx und V2 repräsentiert sein oder aber durch Daten, welche die Vergrößerungen Vx und V2 absolut oder relativ zu einer vorgegebenen Vergrößerung repräsentieren. Ein Datenblock 322 repräsentiert die Bilddaten des zentralen Teils lg, beispielsweise durch Bildpixeln zugeordnete Intensitätswerte, Farbwerte oder Sättigungswerte oder andere geeignete Darstellungen, und hierbei können auch dem Fachmann an sich bekannte Kompressionsverfahren zur Repräsentierung der Bilddaten des zentralen Teils lg eingesetzt werden.. Ein zweiter Datensatz 323 repräsentiert die Bilddaten für den Bock 3g-L des äußeren Teilbilds 3g, und weitere Datensätze 324, 325 und 326 repräsentieren die Bilddaten für die Blöcke 3g2, 3g3 bzw. 3g4 des Teils 3g. Auch hier können die Bilddaten in an sich beliebiger Weise präsentiert sein, wie dies für den Datensatz 322 erläutert wurde.
Die Datenstruktur 320 kann in der in Figur 14b dargestellten Ordnung auf ein Aufzeichnungsmedium, wie beispielsweise ein Magnetband oder eine optische Disk oder dergleichen, aufgezeichnet werden, wobei jedoch auch das auf das Medium aufgezeichnete Datenformat die in Figur 14b gezeigte Datenstruktur auf eine andere Weise als der in Figur 14b gezeigten sequentiellen Darstellung enthalten kann.
Ein Figur 6 schematisch dargestelltes Stereo-Mikroskopiesystem lc umfaßt ein Hauptobjektiv 21c zur Überführung eines von einer Objektebene 19c ausgehenden objektseitigen Strahlenbündels 23c in ein bildseitiges Strahlenbündel 25c, aus welchem eine rechte Kameraoptik 27er ein rechtes Teilstrahlenbündel 29er herausgreift und einem Kamerachip 31er derart zuführt, daß auf diesen die Objektebene 19c abgebildet ist. Eine linke Kameraoptik 27cl greift aus dem bildseitigen Strahlenbündel 25c ein Teilstrahlenbündel 29cl heraus und führt dieses einem Kamerachip 31cl derart zu, daß auf diesen ebenfalls die Objektebene 19c abgebildet ist. Die auf die Kamerachips 31cl und 31er abgebildeten Bilder der Objektebene 19c unterscheiden sich hinsichtlich ihres Beobachtungswinkels um 2α. Ferner unterscheiden sich die auf die' Kamerachips 31cl und 31er abgebildeten Bilder hinsichtlich Ihrer Vergrößerung aufgrund unterschiedlicher Vergrößerungen der Kameraoptiken 27cl und 27er, wie dies in Figur 7 schematisch dargestellt ist. Auf den Kamerachip 31cl ist ein kleinerer zentraler Teil der Objektebene 19c abgebildet, und auf den Kamerachip 31er ist ein größerer Teil 3c der Objektebene 19c abgebildet, wobei der kleinere Teil lc in dem größeren Teil 3c zentriert angeordnet ist. Ein Wiedergabesystem 15c des Stereo-Mikroskopiesystems lc ist symmetrisch aufgebaut und umfaßt für ein linkes Auge 18cl und ein rechtes Auge 18cr eines Benutzers jeweils eine Anzeige 55c, eine Anzeigeoptik 59c und ein Okular 51c, um ein durch die Anzeige 55c dargestelltes Bild zu betrachten.
Eine Hauptsteuerung 107 empfängt über eine Datenleitung 123 Bilddaten des Kamerachips 31cr und leitet diese direkt über eine Datenleitung 124 an die Anzeige 55cr weiter. Die Steuerung 107 enthält einen Bildspeicher bzw. Puffer 121, in welchem ein Gesamtbild zusammengesetzt wird und an die Anzeige 55cl ausgegeben wird. Das Gesamtbild ist zusammengesetzt aus einem zentralen Teilbild 123, welches die Bilddaten repräsentiert, welche als Bild aus dem Kamerachip 31cl ausgelesen und über eine Datenleitung 126 an die Steuerung 107 übertragen werden. Ferner umfaßt das Gesamtbild ein Teilbild 127, welches in dem Gesamtbild einen den zentralen Teil 125 umschließenden Ring bildet. Die Bilddaten des Teilbildes 127 stammen .aus Bilddaten, welche von dem Kamerachip 31cr ausgelesen werden, wie dies aus Figur 7 schematisch ersichtlich ist. Das in dem Puffer 121 derart zusammengesetzte Gesamtbild wird über eine Datenleitung 122 dann auf die Anzeige 55cl übertragen.
Damit sieht das linke Auge 18cl des Benutzers den zentralen Bereich lc der Objektebene 19c mit einer hohen Auflösung und unter einem Betrachtungswinkel, der verschieden ist von dem Betrachtungswinkel, unter dem das rechte Auge 18cr den zentralen Bereich lc wahrnimmt . Somit entsteht für den zentralen Bereich lc der Objektebene 19c ein stereoskopischer Eindruck, wobei allerdings lediglich das rechte Auge 18cr die vergleichsweise erhöhte Auflösung wahrnimmt . Der den zentralen Bereich lc umschließende Teil des größeren Bereichs 3c erscheint dem linken Auge 18cl und dem rechten Auge 18cr unter einem gleichen Betrachtungswinkel und mit gleicher geringerer Auflösung. Damit ergibt sich in dem Außenbereich des wahrgenommenen Bildes kein Stereoeindruck. Dies kann allerdings in Kauf genommen werden, da der Benutzer sein Interesse meist auf den zentralen Bereich des Bildes fokussiert. Dort erhält auch das linke Auge die höhere Auflösung, welche gegenüber der geringeren Auflösung des rechten Auges dominiert, so daß der Benutzer ein stereoskopisches Gesamtbild des Objekts mit einer erhöhten Qualität wahrnimmt.
In Figur 13 ist eine weitere Ausführungsform eines Bildaufnahmesystems 13f schematisch in Perspektive dargestellt. Das Bildaufnahmesystem 13f ist ein stereoskopisches Bildaufnahmesystem mit einem linken Bildaufnahmesystem 13fi und einem rechten Bildaufnahmesystem 13fr, welche jeweils Bilder einer Objektebene 19f aufnehmen, wobei die beiden Bildaufnahmesysteme 13fi und 13fr bezüglich der Objektebene 13f unter einem Winkel α relativ zueinander orientiert sind. Ein jedes der Bildaufnahmesysteme 13fi und 13fr nimmt Teilbilder der Objektebene 19f auf, wie dies anhand der Figuren 5a bis 5c vorangehend erläutert wurde. Insbesondere nimmt das Bildaufnahmesystem 13fi einen größeren Teil 3fι der Objektebene 19f mit einer geringeren Auflösung auf als einen kleineren Teil lfi der Objektebene 19f, und das Bildaufnahmesystem 13fr nimmt einen größeren Teil 3fr der Objektebene 19f mit einer geringeren Auflösung auf einen kleineren Teil lfr der Objektebene 19f. Hierbei sind die Bildaufnahmesysteme 13fi und 13fr derart konfiguriert und zueinander orientiert, daß die jeweils kleineren Teile lfx und lfr, welche von der Objektebene 19f aufgenommen werden, im wesentlichen zusammenfallen, während die jeweils größeren Teile 3fχ und 3fr der Objektebene 19f nicht zusammenfallen. Damit sind, anders als in der Darstellung der Figuren 5a bis 5c, die jeweils kleineren Teile lfi, lfr nicht zentral in ihren zugehörigen größeren Teilen 3fχ und 3fr angeordnet. Ein zentraler Bereich der Objektebene 19f ist durch beide größeren Teile 3fι und 3fr abgedeckt, welche dort überlappen. Ein linker Bereich der Objektebene 19f ist lediglich durch den Teil 3fχ und nicht durch den Teil 3fr abgedeckt, während ein rechter Bereich der Objektebene lediglich durch den Teil 3fr abgedeckt ist und nicht durch den Teil 3fχ. Der Teil lfχ ist innerhalb des Teils 3fχ näher an dessen rechtem Rand angeordnet als an dessen linkem Rand, und entsprechend ist der Teil lfr innerhalb des Teils 3fr näher an dessen linkem Rand angeordnet als an dessen rechtem Rand. Allerdings wird der zentrale Teil des gesamten stereoskopischen Bildes, welches aus den nicht zusammenfallenden Teilen 3fχ und 3fr zusammengesetzt ist, durch die zusammenfallenden Teile lf und lfr stereoskopisch mit einer im Vergleich zu den umliegenden Teilen 3fχ und 3fr erhöhten Auflösung aufgenommen, und, bei der Wiedergabe, von einem Benutzer auch mit der erhöhten Auflösung wahrgenommen.
In Figur 13 sind die Bildaufnahmesysteme 13fx und 13fr als voneinander separate Systeme dargestellt. Es ist allerdings auch möglich, daß die beiden Bildaufnahmesysteme Komponenten einer gemeinsamen Optik einsetzen, wie beispielsweise ein gemeinsames Objektiv, wie dies bei der anhand der Figur 1 erläuterten Ausführungsform der Fall ist.
Zur Wiedergabe des mit dem Bildaufnahmesystem 13f aufgenommenen stereoskopischen Bildes kann ein stereoskopisches Wiedergabesystem eingesetzt werden, welches beispielweise dem anhand der Figur 1 erläuterten stereoskopischen Bild- wiedergabesystem entspricht .
Ein in Figur 8 schematisch dargestelltes Bildaufnahme und - iedergabesystem ld umfaßt ein Bildaufnahmesystem 13d mit einem Kamerachip 43d und ein Bildwiedergabesystem 15d mit einem Anzeigechip 55d. Der Kamerachip 43d weist eine Vielzahl von Pixeln 45d auf, welche in einer Ebene angeordnet sind. Unmittelbar vor der Ebene der Pixel 45d im Strahlengang des Anzeigesystems 13d sind zwei Schichten 201 und 202 aus einem von einer Steuerung 107d ansteuerbaren doppelbrechenden Material angeordnet. In einem Ansteuerzustand, in dem keine der Schichten 201, 202 erregt ist, durchsetzen Lichtstrahlen die Schichten 202 und 201 geradlinig wie dies exemplarisch in Figur 8 durch einen Strahl 205 angedeutet ist. Ein Strahl 206 repräsentiert eine Ansteuersituation, in der die Schicht 202 angesteuert ist, um die Lichtstrahlen um eine Strecke d in y-Richtung zu versetzen, wobei die Strecke d halb so groß ist wie ein Pixelabstand des Kamerachips 43d in y-Richtung. Durch Ansteuerung der Schicht 201 ist es möglich, die Lichtstrahlen ebenfalls um eine Strecke d in x-Richtung zu versetzen.
Mit dem Kamerachip 43d werden zeitlich nacheinander vier Bilder aufgenommen und in die Steuerung 107d eingelesen, wobei bei einem jeden aufgenommenen Bild eine andere Einstellung für die Schichten 201 und 202 gewählt ist wie dies in Figur 9 schematisch dargestellt ist. Die Pixel 45d des Kamerachips 43d weisen jeweils eine Größe auf, welche in x- und y-Richtung kleiner als die Hälfte des Pixelabstandes ist, so daß die Fläche der Pixel 45d etwa ein Viertel der gesamten Fläche des Kamerachips 43d beträgt. In einem Bereich I der Figur 9 ist eine Ansteuerung der Schichten 201, 202 erläutert, in der keine der Schichten einen Versatz einführt. In einem Bereich II der Figur 9 ist eine Situation dargestellt, in der die Schicht 202 nicht erregt ist und die Schicht 201 dazu erregt ist, um einen Versatz um eine Strecke d in x-Richtung für sämtliche Lichtstrahlen einzuführen. In einem Bereich III der Figur 9 sind beide Schichten 201, 202 erregt, um einen Versatz von d sowohl in x- Richtung als auch in y-Richtung für sämtliche Lichtstrahlen einzuführen, und in einem Bereich IV der Figur 9 ist die Schicht 201 nicht erregt und die Schicht 202 derart erregt, daß diese einen Versatz von d in y-Richtung einführt.
Auf diese Weise werden, aus einer Sicht des von dem Bildaufnahmesystem 13d aufgenommenen Objekts die Pixel 45d des Kamerachips 43d nacheinander derart versetzt, daß nach der Durchführung sämtlicher Einstellung ein jeder Strahl des Strahlquerschnitts einmal auf einen lichtempfindlichen Pixel 45d getroffen ist . Damit wird der volle Strahlquerschnitt hinsichtlich seiner Intensität vermessen und nicht lediglich ein Viertel des Teils, wie dies der Fall wäre, wenn die Schichten 201 und 202 nicht nacheinander in den vier Einstellungen betrieben werden würden.
Da die Bilder aus dem Kamerachip 43d für eine jede der Einstellungen I, II, III, IV separat ausgelesen werden, ist es möglich, aus den vier ausgelesenen Bildern ein Gesamtbild zu errechnen, welches in x- und y-Richtung jeweils eine effektive Auflösung aufweist, welche doppelt so groß ist wie die durch den Pixelabstand in der Richtung gegebene physikalische Auflösung des Kamerachips 43d.
Das Anzeigesystem 15d umfaßt einen Anzeigechip 55d mit einer Anzahl von Pixeln, welche der Anzahl der Pixel des .Kamerachips 43d entspricht. In dem Strahlengang des Anzeigesystems 15d sind unmittelbar vor der Ebene der Pixel 45d zwei Schichten 201 und 202 des ansteuerbaren doppelbrechenden Materials angeordnet, welche von der Steuerung 107d synchron mit den entsprechenden Schichten 201, 202 des Bildaufnahmesystems 13d angesteuert werden. Damit erscheinen aus einer Sicht des Betrachters der Anzeige 55d die Pixel in vier Schritten nacheinander jeweils nicht versetzt, um eine Strecke d in x-Richtung versetzt, um eine Strecke d jeweils in. x- und y-Richtung versetzt, und um eine Strecke d in y-Richtung versetzt, so daß auch der Betrachter das Bild mit einer effektiven Auflösung wahrnimmt, die in x- und y-Richtuiig jeweils doppelt so groß ist wie die physikalische Auflösung der Anzeige 55d.
In einer jeden Einstellung I bis IV der Erregung der Schichten 201 und 202 wird der Kamerachip 43d von der Steuerung 107d ausgelesen, und die entsprechenden Bilddaten werden unmittelbar an den Anzeigechip 55d übermittelt. Danach wird die Einstellung der Schichten 201 und 202 geändert, und es wird wiederum der Kamerachip 43d ausgelesen und es werden wieder die entsprechenden Bilddaten an den Anzeigechip 55d übermittelt. Somit ist das Bild mit der erhöhten effektiven Auflösung nach der Durchführung der Schritte I bis IV aufgenommen und mit dieser erhöhten effektiven Auflösung auch dargestellt worden. Allerdings muß die Steuerung 107d hierzu nicht einen Bildspeicher bzw. Puffer umfassen, um dieses Gesamtbild mit der erhöhten Auflösung aus den vier Einzelbildern zusammenzufügen, weshalb die Steuerung 107d mit einem vergleichsweise kleinen Speicher auskommt . Anhand der Figur 15 wird nun eine Datenstruktur 320 erläutert, um die vier Einzelbilder in dem Speicher der Steuerung 107d oder in einem Aufzeichnungsmedium zu speichern. Die Datenstruktur 320 umfaßt einen ersten Datensatz 331, welcher die Einstellung repräsentiert, bei welcher das jeweilige Bild aufgenommen wurde. In der vorangehend beschriebenen Ausführungsform wird der Datensatz 331 eine der Einstellungen I bis IV repräsentieren. Die Datenstruktur 320 umfaßt dann ferner einen Datensatz 332, welcher dem Datensatz 331 zugeordnet ist und das bei der durch den Datensatz 331 repräsentierten Einstellung aufgenommene Bild repräsentiert, beispielsweise durch einzelnen Pixel zugeordnete Intensitäten, Farbwerte, Farbsättigungswerte, welche gegebenenfalls auch komprimiert sein können.
In dem vorangehend beschriebenen Ausführungsbeispiel ist ein Gesamtbild aus vier verschiedenen . Einstellungen I bis IV aufgenommenen Einzelbildern zusammengesetzt, so daß die Datenstruktur 320 zur Speicherung eines Gesamtbilds somit vier Paare von Datenblöcken 331 und 332 umfaßt.
Die Datenstruktur .320 kann in der in Figur 15 dargestellten Reihenfolge oder auch in jeder möglichen anderen Reihenfolge auf ein hierfür geeignetes Aufzeichnungsmedium geschrieben und von diesem wiedergegeben werden.
In der anhand der Figuren 8 und 9 erläuterten Ausführungsform wird der Versatz des Strahlengangs durch ansteuerbare doppelbrechende Schichten erzielt. Figur 10 stellt eine Variante dieser Ausführungsform dar.
Ein in Figur 10 gezeigtes Bildaufnahmesystem 13e umfaßt einen auf einem Träger 211 montierten Kamerachip 43e mit einer Vielzahl von Pixeln 45e. Der Träger 211 liegt auf einer Basis 213 eines Rahmens 215 auf. Zwischen Wangen 217 des Trägers 215 und Stirnseiten des Trägers 211 sind piezoaktive Elemente 219 eingefügt, welche eine Position des Kamerachips 43e relativ zu dem Träger 215 in x-Richtung und in y-Richtung festlegen. Die Piezoelemente 219 sind von einer Steuerung 107e, welche ebenfalls den Kamerachip 45e ausliest, ansteuerbar, um den Träger 211 und damit auch den Kamerachip 45e in x- und y- Richtung relativ zu dem Rahmen 215 um eine Sub-Pixeldistanz zu verlagern. Auf diese Weise kann nach einem Schema, wie es anhand der Figur 9 erläutert wurde, ebenfalls ein Bild eines Objekts aufgenommen werden, dessen effektive Auflösung die Pixelauflösung des Kamerachips 43e übersteigt.
In der anhand der Figur 10 erläuterten Variante wird durch die Ansteuerung der Aktuatoren 219 ein Versatz der Pixel 45e des Kamerachips 43e erreicht. Es ist jedoch auch möglich, auf dem Träger 211 einen Anzeigechip zu montieren, um die anhand der Figur 10 erläuterten Prinzipien zur Erzeugung eines Versatzes um eine Sub-Pixeldistanz im Strahlengang des Bildaufnahmesystems 13e auch in einem Strahlengang eines Bildwiedergabesystems zu erzeugen und damit eine erhöhte Auflösung eines kombinierten Bildaufnahme- und -Wiedergabesystems zu erreichen, ohne einen Bildspeicher für das Bild der erhöhten Auflösung bereitstellen zu müssen.
In Figur 11 ist eine weitere Variante eines Bildaufnahmesystems 13f perspektivisch vereinfacht dargestellt. Dieses BildaufnähmeSystem 13f umfaßt eine Basis 213, auf welcher ein Kamerachip 43f mit einer Vielzahl von Pixeln 45f angeordnet ist, welche eine Pixelgesamtfläche aufweisen, die größer als ein Viertel der Fläche des lichtempfindlichen Bereichs des Kamerachips 43f ist. Ständer 231 aus einem Elastomermaterial tragen eine Lochmaske 235 mit Löchern 236 derart, daß die Lochmaske 235 mit einem kleinen Abstand von einer Fläche der Pixel 45f angeordnet ist, wobei einem jeden Pixel 45f ein Loch 236 der Lochmaske 235 zugeordnet ist. Die Löcher 236 nehmen ein Viertel der Fläche der. Lochmaske 235 ein. Auf der Basis 213 sind starre Säulen 239 angeordnet, welche Piezoaktuatoren 219f tragen, welche an Stirnseiten der Lochmaske 235 anliegen und damit die Lochmaske 235 in x- und y-Richtung festlegen. Die Aktuatoren 219f sind durch eine in Figur 11 nicht gezeigte Steuerung ansteuerbar und die Lochmaske relativ zu dem Kamerachip 43f um eine Sub-Pixeldistanz jeweils in x- und y- Richtung zu verlagern, so daß durch vier verschiedene Einstellungen der Aktuatoren bzw. der relativen Lage zwischen der Lochmaske 235 und dem Kamerachip 43f das anhand der Figur 9 erläuterte Verfahren zur Erhöhung einer effektiven Auflösung des Bildaufnahmesystems 13f über eine physikalische Auflösung des Kamerachips 43f ausgeführt werden kann.
Dieses Prinzip kann auch auf ein Bildwiedergabesystem angewendet werden, wenn statt dem Kamerachip 43f ein entsprechender Anzeigechip in der in Figur 11 gezeigten Vorrichtung angeordnet wird.
In Figur 12 ist eine weitere Variante eines Abbildungssystems mit änderbarer Vergrößerung dargestellt. In einem Strahlengang 25e befindet sich ein schaltbarer Spiegel 304. Der schaltbare Spiegel 304 kann durch eine in Figur 12 nicht dargestellte Steuerung umgeschaltet werden zwischen einem lichtreflektierenden Zustand einem lichtransmittierenden Zustand. In Figur 12 ist in durchgezogenen Linien der Strahlengang 25e für den Zustand des Spiegels 304 eingezeichnet, in welchem dieser in seinem lichtreflektierenden Zustand ist . Dann wird der Strahlengang von dem schaltbaren Spiegel 304 umgelenkt auf einen Spiegel 305, von diesem wiederum umgelenkt auf einen Spiegel 306, von diesem weiter umgelenkt auf einen weiteren schaltbaren Spiegel 303, welcher ebenfalls in Figur 12 in seinem lichtreflektierenden Zustand dargestellt ist. Von dem schaltbaren Spiegel 303 wird der Strahlengang dann auf einen Kamerachip 43e geleitet, welcher somit ein von dem Strahlengang 25e übermitteltes Bild eines in Figur 12 nicht dargestellten Objekts aufnehmen kann.
Werden die beiden schaltbaren Spiegel 304 und 303 jeweils in ihren lichtransmittierenden Zustand geschaltet, so durchsetzt ein Teil 25e' des Strahlengangs 25e den Spiegel 304, wird durch eine Vergrößerungsoptik 91e aus hier schematisch dargestellten Linsen 301 und 302 aufgeweitet, durchsetzt den in seinem lichtransmittierenden Zustand geschalteten Spiegel 303 und trifft ebenfalls auf den Kamerachip 43e, welcher somit ein vergrδßertes Abbild lediglich eines Teils des von dem Strahlengang 25e übermittelten Bildes aufnimmt.
Somit ist die anhand der Figur 12 erläuterte Aufnahmeoptik zwischen zwei verschiedenen Vergrößerungen auf einfache Weise hin und her schaltbar, um Bilder verschiedener Vergrößerung des gleichen Objekts aufzunehmen.
Es ist ebenso möglich, die anhand der Figur 12 erläuterte Technik mit zwei schaltbaren Spiegeln und einer zwischen diesen angeordneten Vergrößerungsoptik anzuwenden auf die Darstellung von Bildern durch eine Anzeigevorrichtung. Hierzu wäre in Figur 12 am Ort des Aufnahmechips 43e ein entsprechender Displaychip anzuordnen.
Die anhand der Figur 12 erläuterte Aufnahme- bzw. Wiedergabeoptik kann in jede der anhand der Figuren 1 bis 11 erläuterten Bildaufnahme- und -Wiedergabesysteme eingesetzt werden.
Als weitere Variante zu der in Figur 12 dargestellten Aus- führungsform ist es denkbar, die Spiegel 304 und 303 auch als polarisierende Strahlteiler auszuführen, um zwischen den beiden Strahlengängen zu selektieren.
Ebenso kann in Figur 12 die Vergrößerungsoptik nicht in dem Strahlengang angeordnet sein, welche die Strahlteiler 304 und 303 geradlinig durchsetzt, sondern in dem Strahlengang, welcher von den Spiegeln 304, 305, 306 und 303 umgelenkt wird.
Auch ist es möglich, die Spiegel 304 und 303 als rotierende Spiegel auszuführen.
Die anhand der vorangehend beschriebenen Ausführungsformen erläuterten Techniken zur Erhöhung von vom Benutzer wahrgenommenen Bildauflösungen bei gegebener Beschränkung einer physikalischen Auflösung eines Bildaufnahme- oder/und -Wiedergabesystems, sind vorteilhaft einsetzbar für die Aufnahme und Wiedergabe von Infrarotbildern, da insbesondere zur Aufnahme von Infrarotbildern verfügbare Detektoren hinsichtlich ihrer Auflösung beschränkt sind.
Im Rahmen der vorangehend erläuterten Ausführungsformen wird ein Gesamtbild aus mehreren Teilbildern zusammengesetzt, wobei sowohl die Aufnahme als auch die Wiedergabe der Teilbilder gleichzeitig oder sequentiell nacheinander erfolgen kann, um einerseits das Gesamtbild aufzunehmen und dieses einem Benutzer wiederzugeben.
Ein Bildaufnahme- und -wiedergabesystem umfaßt wenigstens eine Kamera mit einer ersten Kameraoptik zum Abbilden des Objekts auf ein lichtempfindliches erstes Substrat der ersten Kamera und Aufnehmen wenigstens eines ersten Teilbilds und eines zweiten Teilbilds, wobei das erste Teilbild eine einen kleineren Bereich des Objekts und diesen mit einer höheren Auflösung repräsentiert als das zweite Teilbild; und ein Anzeigesystem zum Überlagern des ersten Teilbildes und des . zweiten Teilbildes zu einem von einem Auge eines Benutzers wahrnehmbaren Gesamtbild des Objekts.

Claims

Patentansprüche
1. Bildaufnahme- und -wiedergabesystem zur Aufnahme und Wiedergabe eines Bildes eines Objekts, umfassend: wenigstens eine Kamera mit einer ersten Kameraoptik zum Abbilden des Objekts auf ein lichtempfindliches erstes Substrat der ersten Kamera und Aufnehmen wenigstens eines ersten Teilbilds und eines zweiten Teilbilds, wobei das erste Teilbild einen kleineren Bereich des Objekts und diesen mit einer höheren Auflösung repräsentiert als das zweite Teilbild; und ein Anzeigesystem zum Überlagern des ersten Teilbildes und des zweiten Teilbildes zu einem von einem Auge eines Benutzers wahrnehmbaren Gesamtbild des Objekts.
2. Bildaufnahme- und -wiedergabesystem zur Aufnahme und Wiedergabe eines Bildes eines Objekts (19) , insbesondere in Kombination mit Anspruch 1, umfassend: - eine erste Kamera mit einer ersten Kameraoptik (27) zum Abbilden des Objekts auf ein lichtempfindliches erstes Substrat (31) der ersten Kamera; eine von der ersten Kamera verschiedene zweite Kamera mit einer zweiten Kameraoptik (41) zum Abbilden des Objekts auf ein lichtempfindliches zweites Substrat (43) der zweiten Kamera; und ein Anzeigesystem (15) mit einer ersten Anzeige (55) zum Erzeugen eines ersten Teilbildes des Objekts aus wenigstens einem von dem ersten lichtempfindlichen Substrat (31) detektierten ersten Bildsignal, einer zweiten Anzeige (53) zum Erzeugen eines zweiten Teilbildes des Objekts aus wenigstens einem von dem zweiten lichtempfindlichen Substrat (43) detektierten zweiten Bildsignal, und einer Anzeigeoptik (63) zum Überlagern des ersten Teilbildes und des zweiten Teilbildes zu einem von einem Auge eines Benutzers wahrnehmbaren Gesamtbild des Objekts, wobei das erste Teilbild einen kleineren Bereich des Objekts und diesen mit einer höheren Auflösung repräsentiert als das zweite Teilbild.
3. Bildaufnahme- und -wiedergabesystem nach Anspruch 2, wobei das erste Teilbild einen kleineren Bereich des Objekts repräsentiert als das zweite Teilbild.
4. Bildaufnahme- und -wiedergabesystem nach Anspruch 3, wobei der von dem ersten Teilbild repräsentierte Bereich des Objekts . innerhalb des von dem zweiten Teilbild repräsentierten Bereichs des Objekts angeordnet ist.
5. Bildaufnahme- und -wiedergabesystem nach Anspruch 4, wobei eine Position des von dem ersten Teilbild repräsentierten Bereichs des Objekts innerhalb des von dem zweiten Teilbild repräsentierten Bereichs des Objekts verlagerbar ist.
6. Bildaufnahme- und -wiedergabesystem nach Anspruch 5, ferner umfassend eine Blickrichtungserfassungseinrichtung zur Erfassung einer Blickrichtung des Benutzers, wobei die Position des von dem ersten Teilbild repräsentierten Bereichs des Objekts in Abhängigkeit von der erfaßten Blickrichtung änderbar ist.
7. Bildaufnahme- und -wiedergabesystem nach einem der Ansprüche 1 bis 6, wobei das erste lichtempfindliche Substrat und das zweite lichtempfindliche Substrat eine im wesentlichen gleiche Anzahl von lichtempfindlichen Elementen aufweisen.
8. Bildaufnahme- und -wiedergabesystem nach einem der Ansprüche 1 bis 7, wobei die erste Anzeige und die zweite Anzeige eine im wesentlichen gleiche Anzahl von Bildelementen aufweisen.
Bildaufnahme- und -wiedergabesystem nach einem der Ansprüche 1 bis 8, wobei die erste Kameraoptik eine von der zweiten Kameraoptik verschiedene Vergrößerung aufweist.
10. Bildaufnahme- und -wiedergabesystem nach einem der Ansprüche 1 bis 9, wobei eine Anzahl von lichtempfindlichen Elementen des ersten lichtempfindlichen Substrats gleich einer Anzahl von Bildelementen der ersten Anzeige ist.
11. Bildaufnahme- und -wiedergabesystem zur Aufnahme und Wiedergabe eines Bildes eines Objekts, insbesondere in Kombination mit einem der Ansprüche 1 bis 10, umfassend: eine Kamera (13b) mit einer Kameraoptik (91) mit änderbarer Vergrößerung zum Abbilden des Objekts auf ein lichtempfindliches Substrat (43b) der Kamera, wobei die Kameraoptik in wenigstens einem ersten Betriebsmodus das Objekt mit einer ersten Vergrößerung auf das Substrat der Kamera abbildet und in wenigstens einem zweiten Betriebsmodus das Objekt mit einer von der ersten Vergrößerung verschiedenen zweiten Vergrößerung auf das Substrat der Kamera abbildet; und ein Anzeigesystem (15b) zum Erzeugen eines Gesamtbildes des Objekts, welches aus einem aus einem von dem lichtempfindlichen Substrat in dem ersten Betriebsmodus detektierten ersten Bildsignal erzeugten ersten Teilbild des Objekts und aus einem aus einem von dem lichtempfindlichen Substrat in dem zweiten Betriebsmodus detektierten zweiten Bildsignal erzeugten zweiten Teilbild des Objekts zusammengesetzt ist.
12. Bildaufnahme- und -wiedergabesystem nach Anspruch 11, wobei gilt:
Figure imgf000041_0001
wobei Vj die erste Vergrößerung repräsentiert und V2 die zweite Vergrößerung repräsentiert .
13. Bildaufnahme- und -wiedergabesystem zur Aufnahme und Wiedergabe eines Bildes eines Objekts, insbesondere in Kombination mit einem der Ansprüche 1 bis 12, umfassend: eine Kamera (13b) mit einer Kameraoptik (91) mit änderbarer Vergrößerung zum Abbilden des Objekts auf ein lichtempfindliches Substrat (43b) der Kamera, wobei die Kameraoptik in einem ersten Betriebsmodus das Objekt mit einer ersten Vergrößerung auf das Substrat der Kamera abbildet und in einem zweiten Betriebsmodus das Objekt mit einer von der ersten Vergrößerung verschiedenen zweiten Vergrößerung auf das Substrat der Kamera abbildet, und wobei das Substrat der Kamera eine Vielzahl lichtempfindlicher Elemente aufweist; und eine Steuerung (107) zum Kontrollieren der Kameraoptik und mit einer Ausleseschaltung zum Empfang von Bildsignalen von den lichtempfindlichen Elementen, wobei die Steuerung dazu ausgebildet ist, die Kameraoptik in den ersten Betriebsmodus zu schalten und ein erstes Bildsignal von einer ersten Menge (113, 114) von Bildelementen zu empfangen und dann die Kameraoptik in den zweiten Betriebsmodus zu schalten und ein zweites Bildsignal von einer zweiten Menge (114) von Bildelementen zu empfangen, wobei die erste und die zweite Menge von Bildelementen voneinander verschieden sind.
14. Bildaufnahme- und -wiedergabesystem nach einem der Ansprüche 11 bis 13, ferner umfassend ein Anzeigesystem (15b) zum Erzeugen eines Gesamtbildes des Objekts, welches aus einem aus einem von wenigstens einem Teil des lichtempfindlichen Substrats in dem ersten Betriebsmodus detektierten ersten Bildsignal erzeugten ersten Teilbild des Objekts und einem aus einem von wenigstens einem Teil des lichtempfindlichen Substrats in dem zweiten Betriebsmodus detektierten zweiten Bildsignal erzeugten. zweiten Teilbild des Objekts zusammengesetzt ist.
15. Bildaufnahme- und -wiedergabesystem nach einem der Ansprüche 11 bis 14, wobei die erste Vergrößerung größer ist als die zweite Vergrößerung und das erste Teilbild einen kleineren Bereich des Objekts repräsentiert als das zweite Teilbild.
16. Bildaufnahme- und -wiedergabesystem nach Anspruch 14 oder 15, wobei das Anzeigesystem zum Anzeigen des ersten und des zweiten Teilbilds eine einzige Anzeigefläche aufweist und das erste Teilbild durch einen zentralen Bereich der Anzeigefläche dargestellt ist und wenigstens ein Teil des zweiten Teilbilds durch einen den zentralen Bereich der Anzeigefläche umgebenden Randbereich der Anzeigefläche dargestellt ist.
17. Bildaufnahme- und -wiedergabesystem nach einem der Ansprüche 14 bis 16, wobei das Anzeigesystem umfaßt: eine erste Anzeige zum Erzeugen des ersten Teilbildes des Objekts; eine zweite Anzeige zum Erzeugen des zweiten Teilbildes des Objekts; und eine Anzeigeoptik zum Überlagern des ersten Teilbildes und des zweiten Teilbildes zu dem Gesamtbild des Objekts.
18. Bildaufnahme- und -wiedergabesystem nach Anspruch 17, wobei die erste Anzeige und die zweite Anzeige eine im wesentlichen gleiche Anzahl von Bildelementen aufweisen.
19. Bildaufnahme- und -wiedergabesystem nach Anspruch 17 oder 18, wobei eine Anzahl von lichtempfindlichen Elementen des lichtempfindlichen Substrats gleich einer Anzahl von Bildelementen der ersten Anzeige ist .
20. Bildaufnahme- und -.wiedergabesystem nach einem der Ansprüche 14 bis 19, wobei das Anzeigesystem umfaßt: wenigstens eine gemeinsame Anzeige zum Erzeugen des ersten und des zweiten Teilbildes des Objekts, und eine Anzeigeoptik mit einer änderbaren Vergrößerung.
21. Bildaufnahme- und -wiedergabesystem nach einem der Ansprüche 11 bis 20, wobei eine Position eines von dem ersten Teilbild repräsentierten Bereichs des Objekts innerhalb eines von dem zweiten Teilbild repräsentierten Bereichs des Objekts verlagerbar ist .
22. Bildaufnahme- und -wiedergabesystem nach Anspruch 21, ferner umfassend eine Blickrichtungserfassungseinrichtung zur Erfassung. einer Blickrichtung des Benutzers.
23. Bildaufnahme- und -wiedergabesystem nach einem der Ansprüche 11 bis 22, wobei das Substrat der Kamera eine Vielzahl lichtempfindlicher Bildelemente aufweist, wobei eine Anzahl der Bildelemente, aus denen das erste Bildsignal gebildet ist, verschieden ist von einer Anzahl der Bildelemente, aus denen das zweite Bildsignal gebildet ist .
24. Bildaufnahme- und -wiedergabesystem nach Anspruch 23, wobei die erste Vergrößerung größer ist als die zweite Vergrößerung, wobei die Bildelemente, aus denen das erste Bildsignal gebildet ist, in einem .ersten Bereich des Substrats angeordnet sind, und wobei die Bildelemente, aus denen das zweite Bildsignal gebildet ist, wenigstens teilweise in einem von dem ersten Bereich verschiedenen zweiten Bereich des Substrats angeordnet sind.
25. Bildaufnahme- und -wiedergabesystem nach Anspruch 24, wobei der zweite Bereich des Substrats den ersten Bereich ringförmig umgibt .
26. Bildaufnahme- und -wiedergabesystem nach einem der Ansprüche 11 bis 25, wobei das Anzeigesystem zum Anzeigen des ersten und des zweiten Teilbilds eine einzige Anzeigefläche aufweist, wobei dem ersten Bereich des Substrats ein entsprechender erster Bereich der Anzeige zugeordnet ist, in welchem im wesentlichen nur Bildelemente angeordnet sind, die in Abhängigkeit von dem ersten Bildsignal angesteuert werden, und wobei dem zweiten Bereich des Substrats ein entsprechender zweiter Bereich der Anzeige zugeordnet ist, in welchem im wesentlichen nur Bildelemente angeordnet sind, die in Abhängigkeit von dem zweiten Bildsignal angesteuert werden.
27. Bildaufnahme- und -wiedergabesystem nach Anspruch 26, wobei die Kameraoptik in einem dritten Betriebsmodus das Objekt mit einer dritten Vergrößerung, welche kleiner als die zweite Vergrößerung ist, auf das Substrat der Kamera abbildet, und wobei das Gesamtbild ferner aus dem einem von dem lichtempfindlichen Substrat in dem dritten Betriebsmodus detektierten Bildsignal zusammengesetzt ist.
28. Bildaufnahme- und -wiedergabesystem nach Anspruch 27, wobei die Bildelemente, aus denen das dritte Bildsignal gebildet ist, im wesentlichen gleich den Bildelementen sind, aus denen das zweite Bildsignal gebildet ist.
29. Bildaufnahme- und -wiedergabesystem zur Aufnahme und Wiedergabe eines Bildes eines Objekts, insbesondere in Kombination mit einem der Ansprüche 1 bis 28, umfassend: eine erste Kamera mit einer ersten Kameraoptik (27cl) zum Abbilden des Objekts auf ein lichtempfindliches erstes Substrat (31cl) der ersten Kamera unter einem ersten Beobachtungswinkel ; eine von der ersten Kamera verschiedene zweite Kamera mit einer zweiten Kameraoptik (27cr) zum Abbilden des Objekts auf ein lichtempfindliches zweites Substrat (31cr) der zweiten Kamera unter einem von dem ersten Beobachtungswinkel verschiedenen zweiten Beobachtungswinkel; eine erste Anzeige (55cr) zum Erzeugen eines von einem ersten Auge eines Benutzers (18cr) wahrnehmbaren ersten Bildes des Objekts aus wenigstens einem von dem ersten lichtempfindlichen Substrat detektierten ersten Bildsignal; eine zweite Anzeige (55cl) , zum Erzeugen eines von einem zweiten Auge (18cl) eines Benutzers wahrnehmbaren zweiten Bildes des Objekts aus wenigstens einem von dem zweiten lichtemp indlichen Substrat detektierten zweiten Bildsignal; wobei das erste Bild einen kleineren Bereich des Objekts repräsentiert als das zweite Bild und der in dem ersten Bild repräsentierte Bereich des Objekts in dem ersten Bild mit einer höheren Auflösung repräsentiert ist als der in dem zweiten Bild repräsentierte Bereich des Objekts.
30. Bildaufnahme- und -wiedergabesystem nach Anspruch 29, wobei eine Vergrößerung für den in dem ersten Bild repräsentierten Bereich des Objekts im wesentlichen gleich einer Vergrößerung für den in dem zweiten Bild repräsentierten Bereich des Objekts ist.
31. Bildaufnahme- und -wiedergabesystem nach Anspruch 29 oder 30, wobei der durch das erste Bild repräsentierte Bereich des Objekts in einem zentralen Bereich des zweiten Bildes dargestellt ist.
32. Bildaufnahme- und -wiedergabesystem nach einem der Ansprüche 29 bis 31, wobei eine Position des in dem ersten Bild repräsentierten Bereichs des Objekts in dem ersten Bild verlagerbar ist .
33. Bildaufnahme- und -wiedergabesystem nach Anspruch 32, ferner umfassend eine Blickrichtungserfassungseinrichtung zur Erfassung einer Blickrichtung des Benutzers, wobei die Position des in dem ersten Bild repräsentierten Bereichs des Objekts in dem ersten Bild in Abhängigkeit von der erfaßten Blickrichtung änderbar ist.
3 . Bildaufnahme- und -wiedergabesystem nach einem der Ansprüche 29 bis 33, wobei das erste Bild zusammengesetzt ist aus einem aus dem Bildsignal des ersten Substrats erzeugten ersten Teilbild und einem aus dem Bildsignal des zweiten Substrats erzeugten zweiten Teilbild.
35. Bildaufnahme- und -wiedergabesystem zur Aufnahme und Wiedergabe eines Bildes eines Objekts, insbesondere in Kombination mit einem der Ansprüche 1 bis 34, umfassend: eine Kamera mit einer Kameraoptik und einem lichtempfindlichen Substrat und einem ersten Scanner, wobei das lichtempfindlichen Substrat in einem Bereich einer Bildebene der Kameraoptik angeordnet ist, wobei das lichtempfindliche Substrat eine Mehrzahl von lichtempfindlichen Elementen umfaßt, und wobei der erste Scanner :
(a) in einem Strahlengang zwischen dem Objekt und dem lichtempfindlichen Substrat (43d) angeordnet ist und dazu ausgebildet ist, die Bildebene in einer in der Bildebene orientierten Richtung zu verlagern, oder/und
(b) eine in . einem Strahlengang vor dem lichtempfindlichen Substrat (43f) angeordnete Lochmaske (235) und einen Aktuator (219f) umfaßt, wobei die Lochmaske eine Mehrzahl von den lichtempfindlichen Elementen zugeordneten Öffnungen aufweist, und wobei der Aktuator dazu ausgebildet ist, die Lochmaske in einer in der Bildebene orientierten Richtung zu verlagern, oder/und
(c) einen Aktuator (219) zur Verlagerung des licht- empfindlichen Substrats (43e) relativ zu der Kameraoptik in einer in der Bildebene orientierten Richtung; eine Anzeige zum Erzeugen eines Bildes des Objekts aus wenigstens einem von dem lichtempfindlichen Substrat detektierten Bildsignal, wobei die Anzeige eine Mehrzahl von Bildelementen und einen zweiten Scanner umfaßt, und wobei der zweite Scanner: (a) dazu ausgebildet ist, in einem Strahlengang der Anzeige einen änderbaren Versatz in einer in einer Ebene der Bildelemente (45d) orientierten Richtung zu erzeugen, oder/und
(b) eine in einem Strahlengang der Anzeige angeordnete Lochmaske und einen Aktuator umfaßt, wobei die Lochmaske eine Mehrzahl von den Bildelementen zugeordneten Öffnungen aufweist, und wobei der Aktuator dazu ausgebildet ist, die Lochmaske relativ zu den Bildelementen in einer in einer Ebene der Bildelemente orientierten Richtung zu verlagern; oder/und (c) einen Aktuator zur Verlagerung der Bildelemente relativ zu einem Betrachter der Anzeige und in einer in einer Ebene der Bildelemente orientierten Richtung; und eine Steuerung, welche dazu ausgebildet ist, eine Scan- Auslenkung des ersten Scanners synchron mit einer Scan- Auslenkung des zweiten Scanners einzustellen.
36. Bildaufnahme- und -wiedergabesystem nach einem der Ansprüche 1 bis 35, wobei die Anzeige ein Okular umfaßt:
37. Bildaufnahme- und -wiedergabesystem nach einem der Ansprüche 1 bis 36, wobei die Anzeige eine in einem köpfgetragenen Anzeigegerät integrierte Anzeige umfaßt .
38. Bildaufnahme- und -wiedergabesystem nach einem der Ansprüche 1. bis. 37, wobei das Bildaufnahme- und -wiedergabesystem ein Stereo-Mikroskopiesystem ist.
39. Bildwiedergabesystem zur Wiedergabe eines Bildes, umfassend eine Anzeige mit einer Mehrzahl von Bildelementen und einem Scanner, welcher eine in einem Strahlengang der Anzeige angeordnete Lochmaske und einen Aktuator umfaßt, wobei die Lochmaske eine Mehrzahl von den Bildelementen zugeordneten Öffnungen aufweist, und wobei der Aktuator dazu ausgebildet ist, die Lochmaske relativ zu den Bildelementen in einer in einer Ebene der Bildelemente orientierten Richtung zu verlagern.
40. Bildaufnahmesystem zur Aufnahme eines Bildes eines Objekts, umfassend: eine Kamera mit einem lichtempfindlichen Substrat (43b) , welches eine Mehrzahl von lichtempfindlichen Elementen aufweist, und einer Kameraoptik (91) mit änderbarer Vergrößerung zum Abbilden des Objekts auf das lichtempfindliche Substrat, wobei die Kameraoptik in einem ersten Betriebsmodus das Objekt mit einer ersten Vergrößerung auf das Substrat der Kamera abbildet und in einem zweiten Betriebsmodus das Objekt mit einer von der ersten Vergrößerung verschiedenen zweiten Vergrößerung auf das Substrat der Kamera abbildet; und einen Bildspeicher (121) zum Speichern von wenigstens ein Gesamtbild des Objekts repräsentierenden Bilddaten, welche wenigstens einen ersten Datensatz, welcher aus Bildsignalen der lichtempfindlichen Elemente in dem ersten Betriebsmodus gewonnen ist, und einen zweiten Datensatz, welcher aus Bildsignalen der lichtempfindlichen Elemente in dem zweiten Betriebsmodus gewonnen ist, umfassen, und .wobei gilt:
Figure imgf000049_0001
wobei Vj die erste Vergrößerung repräsentiert und V2 die zweite Vergrößerung repräsentiert.
41. Bildaufnahme- und -wiedergabesystem nach einem der Ansprüche 1 bis 9, ferner umfassend ein Objektiv (21) zum Empfang eines von dem . Objekt ausgehenden objektseitigen Strahlenbündels (23) und Überführen desselben in ein bildseitiges Strahlenbündel (25) ; wobei die erste Kameraoptik (27) das Objekt mit Licht (29) aus dem bildseitigen Strahlenbündel (25) auf das lichtempfindliche erste Substrat (31) der ersten Kamera abbildet und die zweite Kameraoptik (41) das Objekt mit Licht (29) aus dem bildseitigen Strahlenbündel (25) auf das lichtempfindliche zweite Substrat (43) der zweiten Kamera abbildet.
42. Bildaufnahme- und -wiedergabesystem nach Anspruch 13, wobei die erste und die zweite Menge von Bildelementen gemeinsame Bildelemente enthalten.
43. Bildaufnahme- und -wiedergabesystem nach Anspruch 22, wobei die Position des von dem ersten Teilbild repräsentierten Bereichs des Objekts in Abhängigkeit von der erfaßten Blickrichtung änderbar ist .
44. Bildaufnahme- und -wiedergabesystem nach Anspruch 23, wobei die Bildelemente, ' aus denen das dritte Bildsignal gebildet ist, wenigstens teilweise in dem zweiten Bereich des Substrats angeordnet sind.
45. Bildaufnahme- und -wiedergabeverfahren zur Aufnahme und Wiedergabe eines Bildes eines Objekts (19) , wobei das Verfahren umfaßt :
Aufnehmen eines ersten Bildes eines größeren ersten Bereichs des Objekts;
Aufnehmen eines zweiten Bildes eines kleineren zweiten Bereichs des Objekts, welcher eine kleinere Ausdehnung an dem Objekt aufweist als der erste Bereich; Darstellen des ersten Bildes mit einer ersten Anzeige und Darstellen des zweiten Bildes mit einer zweiten Anzeige; und optisches Überlagern des durch die erste Anzeige dargestellten Bildes mit dem durch die zweite Anzeige dargestellten Bild zu einem Gesamtbild des Objekts.
46. Bildaufnahme- und -wiedergabeverfahren nach Anspruch 45, wobei das Aufnehmen des ersten Bildes mit einer ersten Kamera und das Aufnehmen des zweiten Bildes mit einer von der ersten Kamera verschiedenen zweiten Kamera erfolgt.
47. Bildaufnahme- und -wiedergabeverfahren nach Anspruch 46, wobei die erste Kamera das erste Bild unter einem ersten Blickwinkel aufnimmt, welcher von einem Blickwinkel verschieden ist, unter dem die zweite Kamera das zweite Bild des Objekts aufnimmt.
48. Bildaufnahme- und -wiedergabeverfahren zur Aufnahme und Wiedergabe eines Bildes eines Objekts (19) , wobei das Verfahren umfaßt : Aufnehmen eines ersten Bildes eines größeren ersten Bereichs des Objekts mit einer auf eine erste Vergrößerung der Abbildungsoptik eingestellten Abbildungsoptik einer Kamera;
Aufnehmen eines zweiten Bildes eines kleineren ersten Bereichs des Objekts, welcher eine kleinere Ausdehnung an dem Objekt aufweist als der erste Bereich, mit der Abbildungsoptik, wobei die Abbildungsoptik auf eine von der ersten Vergrößerung der Abbildungsoptik verschiedene zweite Vergrößerung der Abbildungsoptik eingestellt ist; und
Erzeugen eines Gesamtbildes des Objekts aus dem aufgenommenen ersten Bild und dem aufgenommenen zweiten Bild.
49. Bildaufnahme- und -wiedergabeverfahren nach Anspruch 48, wobei Erzeugen des Gesamtbildes umfaßt :
Darstellen des aufgenommenen ersten Bildes auf einer Anzeigevorrichtung und Abbilden der Anzeigevorrichtung mit einer auf eine erste Vergrößerung der Darstellungsoptik eingestellten Darstellungsoptik; und
Darstellen des aufgenommenen zweiten Bildes auf der Anzeigevorrichtung und Abbilden der Anzeigevorrichtung mit der Darstellungsoptik, wobei die Darstellungsoptik auf eine von der ersten Vergrößerung der Darstellungsoptik verschiedene zweite Vergrößerung der Darstellungsoptik eingestellt ist.
50. Bildaufnahme- und -wiedergabeverfahren nach einem der Ansprüche 45 bis 49, wobei von einem Kamerachip zur Aufnahme des ersten Bildes Daten von lediglich einer ersten Teilmenge von Bildelementen ausgelesen werden, und Daten von einer zweiten Teilmenge von Bildelementen nicht ausgelesen werden, welche in dem Gesamtbild dem von dem zweiten Bild repräsentierten Bereich des Objektes entsprechen.
51. Bildaufnahme- und -wiedergabeverfahren zur Aufnahme und - Wiedergabe eines Bildes eines Objekts (19) , wobei das Verfahren umfaßt:
Abbilden des Objekts mit einer Kameraoptik auf einen Kamerachip und Auslesen eines ersten detektierten Bildes aus dem Kamerachip;
Abbilden des Objekts mit der Kameraoptik auf den Kamerachip, wobei eine Lage des Abbilds des Objekts relativ zu einer Lage des Abbilds des Objekts bei der Aufnahme des ersten Bildes um eine erste Distanz verlagert ist, und Auslesen eines zweiten detektierten Bildes aus dem Kamerachip;
Darstellen des aufgenommenen ersten Bildes auf einem Displaychip und Abbilden des Displaychips mit einer Darstellungsoptik; und
Darstellen des aufgenommenen zweiten Bildes auf dem Displaychip und Abbilden des Displaychips mit der Darstellungsoptik, wobei eine Lage eines Abbilds des Displaychips relativ zu einer Lage des Abbilds des Displaychips bei der Darstellung des ersten Bildes um eine zweite Distanz verlagert ist .
52. Bildaufnahme- und -wiedergabeverfahren nach Anspruch 51, wobei die erste Distanz kleiner ist als ein Abstand zwischen benachbarten Bildelementen des Kamerachips .
53. Bildaufnahme- und -wiedergabeverfahren nach Anspruch 51 oder 52, wobei die zweite Distanz kleiner ist als ein Abstand zwischen benachbarten Bildelementen des Anzeigechips in dessen Abbild.
54. Datenstruktur, umfassend: eine erste Repräsentierung eines ersten Teils eines Gesamtbildes, und eine zweite Repräsentierung eines zweiten Teils eines Gesamtbildes, wobei der erste Teil des Gesamtbildes lediglich einen den zweiten Teil umgebenden Bereich des Gesamtbildes umfaßt .
55. Datenstruktur nach Anspruch 54, umfassend eine Vielzahl von ersten und zweiten Repräsentierungen jeweils zeitlich aufeinanderfolgend aufgenommener Bilder eines Objektes.
56. Datenstruktur, umfassend: eine erste Repräsentierung eines ersten Teils eines Gesamtbildes, eine zweite Repräsentierung eines zweiten Teils eines Gesamtbildes und eine dritte Repräsentierung von Vergrößerungen, mit welchen der erste und der zweite Teil des Gesamtbildes aufgenommen wurden beziehungsweise darzustellen sind.
57. Datenstruktur, umfassend: eine erste Repräsentierung eines ersten Bildes mit einer Vielzahl von Bildelementen und eine zweite Repräsentierung eines zweiten Bildes mit einer Vielzahl von Bildelementen, und eine dritte Repräsentierung eines lateralen Versatzes der Bildelemente des ersten Bildes relativ zu den Bildelementen des ersten Bildes korrespondierenden Bildelementen des zweiten Bildes .
58. Träger, enthaltend eine computerlesbare Verkörperung der Datenstruktur nach einem der Ansprüche 54 bis 57.
59. Bildaufnahme- und -wiedergabesystem zur Aufnahme und Wiedergabe eines Bildes eines Objekts, insbesondere in Kombination mit einem der Ansprüche 1 bis 44, umfassend: eine Bildaufnahmevorrichtung mit einer Vielzahl von ersten Bildaufnahmeelementen zur Aufnahme wenigstens eines ersten Teilbildes eines Gesamtbildes und mit einer Vielzahl von zweiten Bildaufnahmeelementen zur Aufnahme wenigstens eines zweiten Teilbildes des Gesamtbildes, eine Bildwiedergabevorrichtung mit einer Mehrzahl von ersten Bildwiedergabeelementen zur Wiedergabe des von der .Bildaufnahmevorrichtung aufgenommenenersten ersten Teilbildes und mit einer Mehrzahl von zweiten Bildwiedergabeelementen zur Wiedergabe des von der Bildaufnahmevorrichtung aufgenommenenersten zweiten Teilbildes, wobei das erste Teilbild einen kleineren Teil des Gesamtbildes repräsentiert als das zweite Teilbild und eine Anzahl der ersten Bildaufnahmeelemente geteilt durch eine Ausdehnung des ersten Teilbildes im Gesamtbild größer ist als eine Anzahl der zweiten Bildaufnahmeelemente geteilt durch eine Ausdehnung des zweiten Teilbildes im Gesamtbild.
60. Bildaufnahme- und -wiedergabesystem nach Anspruch 59, wobei eine Anzahl der ersten Bildwiedergabeelemente geteilt durch eine Ausdehnung des ersten Teilbildes im Gesamtbild größer ist als eine Anzahl der zweiten Bildwiedergabeelemente geteilt durch eine Ausdehnung des zweiten Teilbildes im Gesamtbild.
61. Bildaufnahme- und -wiedergabesystem nach Anspruch 60, wobei die Anzahl der ersten Bildaufnahmeelemente gleich der Anzahl der ersten Bildwiedergabeelemente ist oder/und die Anzahl der zweiten Bildaufnahmeelemente gleich der Anzahl der zweiten Bildwiedergabeelemente ist.
PCT/EP2005/003568 2004-04-05 2005-04-05 Bildaufnahmesystem, bildwiedergabesystem und bildaufnahme/-wiedergabesystem WO2005098508A2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102004016736.2 2004-04-05
DE102004016736A DE102004016736A1 (de) 2004-04-05 2004-04-05 Bildaufnahmesystem, Bildwiedergabesystem und Bildaufnahme/-wiedergabesystem

Publications (2)

Publication Number Publication Date
WO2005098508A2 true WO2005098508A2 (de) 2005-10-20
WO2005098508A3 WO2005098508A3 (de) 2006-02-02

Family

ID=34963410

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2005/003568 WO2005098508A2 (de) 2004-04-05 2005-04-05 Bildaufnahmesystem, bildwiedergabesystem und bildaufnahme/-wiedergabesystem

Country Status (2)

Country Link
DE (1) DE102004016736A1 (de)
WO (1) WO2005098508A2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2982384A1 (fr) * 2011-11-04 2013-05-10 Univ Paris Curie Dispositif de visualisation d'une lame virtuelle
WO2017197217A1 (en) * 2016-05-12 2017-11-16 Life Technologies Corporation Systems, methods, and apparatuses for image capture and display

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006003575A1 (de) * 2006-01-25 2007-07-26 Carl Zeiss Surgical Gmbh Optisches System, Verwendung eines optischen Systems sowie Verfahren zur Betrachtung eines Objektes mit einem optischen System
DE102006041497A1 (de) * 2006-08-31 2008-03-06 Carl Zeiss Microimaging Gmbh Verfahren und Einrichtung zum optischen Tracking kleiner beweglicher Objekte
DE102009010288B9 (de) * 2009-02-24 2016-11-24 Carl Zeiss Meditec Ag Mikroskopiesystem und Darstellungssystem
DE102009012897B4 (de) * 2009-03-12 2021-12-23 Carl Zeiss Meditec Ag Stereomikroskop
US10054797B2 (en) * 2015-02-12 2018-08-21 Google Llc Combining a high resolution narrow field display and a mid resolution wide field display
DE102018110642B4 (de) * 2018-05-03 2024-02-22 Carl Zeiss Meditec Ag Mikroskopieverfahren zur Abbildung eines Objekts sowie Mikroskop

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4673973A (en) * 1985-02-04 1987-06-16 National Biomedical Research Foundation Split-image, multi-power microscopic image display system and method
DE3837063C1 (de) * 1988-10-31 1990-03-29 Reimar Dr. 8000 Muenchen De Lenz
US5220429A (en) * 1987-08-27 1993-06-15 Saab Instruments Aktiebolag Vision system for detecting a picture and reproducing said picture as a picture within a picture
DE4327944A1 (de) * 1992-08-31 1994-03-03 Shimadzu Corp Zweidimensionaler Bilddetektor
US5363190A (en) * 1992-09-07 1994-11-08 Olympus Optical Co., Ltd. Method and apparatus for optical micro manipulation
US5552929A (en) * 1991-07-23 1996-09-03 Olympus Optical Co., Ltd. Stereomicroscope
DE19702837C1 (de) * 1997-01-27 1998-07-16 Reimar Dr Lenz Digitale Farbkamera für die elektronische Fotografie
US6219181B1 (en) * 1997-06-09 2001-04-17 Olympus Optical Co., Ltd. Monitor-aided microscope
US20020030636A1 (en) * 2000-06-26 2002-03-14 Richards Angus Duncan Virtual reality display device
US6396941B1 (en) * 1996-08-23 2002-05-28 Bacus Research Laboratories, Inc. Method and apparatus for internet, intranet, and local viewing of virtual microscope slides
US20020141614A1 (en) * 2001-03-28 2002-10-03 Koninklijke Philips Electronics N.V. Method and apparatus for eye gazing smart display
US20020167531A1 (en) * 2001-05-11 2002-11-14 Xerox Corporation Mixed resolution displays
US6525878B1 (en) * 1999-10-15 2003-02-25 Olympus Optical Co., Ltd. 3-D viewing system
US6535194B1 (en) * 1998-05-11 2003-03-18 Olympus Optical Co., Ltd. Image display using wobbling
JP2003131142A (ja) * 2001-10-25 2003-05-08 Olympus Optical Co Ltd 顕微鏡
JP2003299121A (ja) * 2002-04-05 2003-10-17 Canon Inc 立体画像表示装置および立体画像表示システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01110243A (ja) * 1987-10-23 1989-04-26 Hitachi Vlsi Eng Corp 外観検査装置
DE4332381A1 (de) * 1993-09-23 1995-03-30 Zeiss Carl Fa Bildwiedergabesystem, Bildaufnahmegerät dafür, Verfahren zur Erzeugung einer Bilddarstellung und deren Verwendung
JPH09322099A (ja) * 1996-05-30 1997-12-12 Olympus Optical Co Ltd 映像表示装置

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4673973A (en) * 1985-02-04 1987-06-16 National Biomedical Research Foundation Split-image, multi-power microscopic image display system and method
US5220429A (en) * 1987-08-27 1993-06-15 Saab Instruments Aktiebolag Vision system for detecting a picture and reproducing said picture as a picture within a picture
DE3837063C1 (de) * 1988-10-31 1990-03-29 Reimar Dr. 8000 Muenchen De Lenz
US5552929A (en) * 1991-07-23 1996-09-03 Olympus Optical Co., Ltd. Stereomicroscope
DE4327944A1 (de) * 1992-08-31 1994-03-03 Shimadzu Corp Zweidimensionaler Bilddetektor
US5363190A (en) * 1992-09-07 1994-11-08 Olympus Optical Co., Ltd. Method and apparatus for optical micro manipulation
US6396941B1 (en) * 1996-08-23 2002-05-28 Bacus Research Laboratories, Inc. Method and apparatus for internet, intranet, and local viewing of virtual microscope slides
DE19702837C1 (de) * 1997-01-27 1998-07-16 Reimar Dr Lenz Digitale Farbkamera für die elektronische Fotografie
US6219181B1 (en) * 1997-06-09 2001-04-17 Olympus Optical Co., Ltd. Monitor-aided microscope
US6535194B1 (en) * 1998-05-11 2003-03-18 Olympus Optical Co., Ltd. Image display using wobbling
US6525878B1 (en) * 1999-10-15 2003-02-25 Olympus Optical Co., Ltd. 3-D viewing system
US20020030636A1 (en) * 2000-06-26 2002-03-14 Richards Angus Duncan Virtual reality display device
US20020141614A1 (en) * 2001-03-28 2002-10-03 Koninklijke Philips Electronics N.V. Method and apparatus for eye gazing smart display
US20020167531A1 (en) * 2001-05-11 2002-11-14 Xerox Corporation Mixed resolution displays
JP2003131142A (ja) * 2001-10-25 2003-05-08 Olympus Optical Co Ltd 顕微鏡
JP2003299121A (ja) * 2002-04-05 2003-10-17 Canon Inc 立体画像表示装置および立体画像表示システム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
LEWIS, JOHN: "2003 Press Realeases"[Online] 3. Juni 2003 (2003-06-03), XP002333174 ROSEMONT, IL Gefunden im Internet: URL:http://www.cognex.com/news/press_relea ses/2003/cmos.asp> [gefunden am 2004-06-22] *
PATENT ABSTRACTS OF JAPAN Bd. 013, Nr. 351 (P-912), 7. August 1989 (1989-08-07) & JP 01 110243 A (HITACHI VLSI ENG CORP), 26. April 1989 (1989-04-26) *
PATENT ABSTRACTS OF JAPAN Bd. 2003, Nr. 09, 3. September 2003 (2003-09-03) -& JP 2003 131142 A (OLYMPUS OPTICAL CO LTD), 8. Mai 2003 (2003-05-08) *
PATENT ABSTRACTS OF JAPAN Bd. 2003, Nr. 12, 5. Dezember 2003 (2003-12-05) & JP 2003 299121 A (CANON INC), 17. Oktober 2003 (2003-10-17) -& US 2005/078370 A1 (NISHIHARA HIROSHI ET AL) 14. April 2005 (2005-04-14) *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2982384A1 (fr) * 2011-11-04 2013-05-10 Univ Paris Curie Dispositif de visualisation d'une lame virtuelle
WO2013064697A1 (fr) * 2011-11-04 2013-05-10 Universite Pierre Et Marie Curie (Paris 6) Dispositif de visualisation d'une image numerique
WO2017197217A1 (en) * 2016-05-12 2017-11-16 Life Technologies Corporation Systems, methods, and apparatuses for image capture and display
CN109416465A (zh) * 2016-05-12 2019-03-01 生命技术公司 用于图像捕获和显示的系统、方法和设备
USD951283S1 (en) 2016-05-12 2022-05-10 Life Technologies Corporation Microscope system display screen with graphical user interface
US11416997B2 (en) 2016-05-12 2022-08-16 Life Technologies Corporation Systems, methods, and apparatuses for image capture and display

Also Published As

Publication number Publication date
DE102004016736A1 (de) 2005-11-10
WO2005098508A3 (de) 2006-02-02

Similar Documents

Publication Publication Date Title
DE69433556T2 (de) Bildanzeigevorrichtung
DE69327390T2 (de) Anordnung zur dreidimensionalen Bildanzeige
DE69327173T2 (de) Virtuelle netzhautbildanzeige
EP0776576B1 (de) Verfahren und vorrichtung zur darstellung von stereoskopischen videobildern auf einem display
DE10204430A1 (de) Stereo-Mikroskopieverfahren und Stereo-Mikroskopiesystem
WO2005098508A2 (de) Bildaufnahmesystem, bildwiedergabesystem und bildaufnahme/-wiedergabesystem
DE102008028482A1 (de) Optisches Beobachtungsgerät mit Mehrkanal-dateneinblendung
WO2018134129A1 (de) Mikroskop und verfahren zum mikroskopieren einer probe
DE69512386T2 (de) Bildwiedergabevorrichtung
EP3108282A2 (de) Erzeugen eines beobachtungsbildes eines objektbereichs
EP3293558B1 (de) Vorrichtung zum erfassen eines stereobilds
DE10336475B4 (de) Mikroskopiesystem
DE202005021436U1 (de) Optisch verbessertes digitales Abbildungssystem
DE102005000820A1 (de) Verfahren zum Verbessern der Sehfähigkeit einer sehbehinderten Person und Sehhilfe
DE4212924A1 (de) Stereomikroskop
WO2014012694A1 (de) Multifokale darstellungsvorrichtung und multifokales darstellungsverfahren zum dreidimensionalen darstellen eines objektes
DE102011106453A1 (de) Verfahren und Vorrichtung zum zeitsequentiellen Aufnehmen dreidimensionaler Bilder
DE10243852B4 (de) Mikroskopiesystem und Mikroskopieverfahren
DE102015100765A1 (de) Operationsmikroskop und Verfahren zum Hervorheben von Augenlinsenstücken
WO2021175727A1 (de) Kopfgetragenes visualisierungssystem
DE10021063A1 (de) Stereomikroskop
DE102008024732A1 (de) Medizinisch optisches Beobachtungsgerät und Verfahren zum Erstellen einer stereoskopischen Zwischenperspektive in einem derartigen Gerät
DE9217643U1 (de) Videobrille
DE4340461A1 (de) Stereoskopische Bildaufnahmevorrichtung
DE19840972A1 (de) Stereoskopisches Anzeigesystem

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

122 Ep: pct application non-entry in european phase