WO2013143882A1 - Verfahren zum scannenden messen eines dentalen objektes sowie intraoral-scanner - Google Patents

Verfahren zum scannenden messen eines dentalen objektes sowie intraoral-scanner Download PDF

Info

Publication number
WO2013143882A1
WO2013143882A1 PCT/EP2013/055369 EP2013055369W WO2013143882A1 WO 2013143882 A1 WO2013143882 A1 WO 2013143882A1 EP 2013055369 W EP2013055369 W EP 2013055369W WO 2013143882 A1 WO2013143882 A1 WO 2013143882A1
Authority
WO
WIPO (PCT)
Prior art keywords
pattern
sensor
intraoral scanner
projected
lens array
Prior art date
Application number
PCT/EP2013/055369
Other languages
English (en)
French (fr)
Inventor
Klaus Zaeper
Markus Vollmann
Original Assignee
Degudent Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Degudent Gmbh filed Critical Degudent Gmbh
Publication of WO2013143882A1 publication Critical patent/WO2013143882A1/de

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • A61C9/006Optical means or methods, e.g. scanning the teeth by a laser or light beam projecting one or more stripes or patterns on the teeth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00016Operational features of endoscopes characterised by signal transmission using wireless means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0605Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for spatially modulated illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/063Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for monochromatic or narrow-band illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/24Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • A61C9/0066Depth determination through adaptive focusing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Definitions

  • the invention relates to a method of scanning the shape of at least a portion of a dental object by projecting a pattern on the portion and imaging the backprojected pattern on a sensor. Also, the invention relates to an intraoral scanner comprising a generator of a pattern to be imaged onto a dental region, a sensor, and a first optic disposed thereon.
  • the focal plane can then be determined (DE-A-10 2007 019 267).
  • Intraoral scanners are known for the 3D determination of dental objects which work according to the triangulation method (DE-A-10 2007 054 907) or the principle of confocal microscopy (DE-A-10 2004 059 526).
  • EP-A 2 377 464 discloses an arrangement of telecentric optics for determining a focal plane.
  • the focal planes are physically adjusted in order subsequently to iteratively calculate the actual focal plane over all images.
  • the plenoptic principle is described in the reference R. Ng et al.: "Light field photography with a hand-held plenoptic camera", Computer Science Technical Report CSTR, Vol. 2, 2005, pp. 1-11
  • a method of reconstruction the Fourier-Slice theorem known from tomography is proposed, but in the following, a possible retrospective computation of virtual focal planes is used to obtain the focus Tomography Images from different fluoroscopic angles through the Fourier-Slice theorem are backprojected mathematically, and Ren Ng and co-workers calculate analytically the different levels of projection.
  • R. Ng. “Fourier slice photography", ACM Transactions on Graphics (TOG), Vol. 24, No. 3, 2005, pp. 735-744, describes the plenoptic principle.
  • the present invention is based on the object, a method and an intraoral scanner of the type mentioned in such a way that the three-dimensional shape of at least a portion of a dental object can be measured by an alternative method, wherein compared to known methods constructive Simplifications should result.
  • either the back-projected pattern is virtually purely computationally focused on the basis of the plenoptic principle, ie the virtual focal planes are determined, or several times the sensor backprojected pattern is analyzed epipolargeometrically for 3D information acquisition.
  • a microlens array is placed between an optic and a sensor. Then, according to the plenoptic principle, the course of the beam (the light field) can be reconstructed in order to subsequently be able to calculate different focal planes. Behind every microlens of the microlens array, not the entire region of interest is projected completely onto the sensor. Thus, the overall picture as a whole is not projected multiple times onto the sensor, but only the sub-areas expanded to obtain the plenoptic information. For larger distances you can therefore recognize the whole picture instead of a multiple duplicated picture.
  • the sensor elements located below each individual microlens represent a kind of "SuperPixel", its light intensity is the sum of all underlying lower sensor elements.
  • the principle used in plenoptic light field analysis is as follows. If the recorded focal plane of a conventional digital camera lies exactly in the focal plane of an imaged object point, it is in principle imaged on exactly one pixel of a matrix sensor such as a CCD sensor, since all the light rays emitted by the object point concentrate in principle in a focal point. If the focal plane lies only slightly away from the focal plane of this object point, the emitted light intensity is distributed over a larger area, ie several pixels. With increasing distance of the focal plane to the focal plane, the area to which the object point is imaged blurred increases quadratically.
  • the light intensity at each individual point is correspondingly square: the imaged object point "blurs with its surroundings.”
  • the imaged object point Blurs with its surroundings.
  • the function of the microlenses which is the sensor in the Upstream of the focal plane. Instead of simply adding up the light rays regardless of their direction, they are refracted again and, depending on the direction from which they come, they each encounter different sensor elements.
  • a focused light beam impinging vertically on a microlens would thus be expanded into a cone and circularly imaged on the sensor surface, and an obliquely incident light bundle will continue elliptically along the edge.
  • the alternative solution options that is, on the one hand, the multiply split projecting of the pattern and on the other hand, the plenoptic refraction of the pixels is common that each lens array of the optics is connected before or after. Multiple projection uses a smaller number of larger lenses compared to the second alternative, with the lenses spaced closer to the optics than to the sensor.
  • a large number of small microlenses are used, which are arranged in the region of the focal plane of the optics and thus closer to the sensor, which is shifted out of the focal plane of the optics behind the microlenses.
  • the focal planes are subsequently calculated by a plenoptic light field analysis. It is provided according to Invention that a simple pattern is used instead of a complex image to perform the analysis. This results in a reduction of the necessary spatial (x / y) resolution with thereby faster calculation of the focal plane and simultaneous increase of the spatial (z) resolution and thus the desired information. In this case, it is particularly advantageously noticeable that additionally fast computing times can be achieved if an inventively adapted Hough analysis is used. This is a suggestive suggestion.
  • the plenoptic principle is used to calculate virtual focal planes for the backprojected pixels of the pattern and thus to obtain the desired depth information.
  • the back-projected pattern which consists of individual light elements such as light spots, is imaged on the sensor by means of optics, the optics being arranged downstream of the lens array.
  • the lens array should be in front of the optic.
  • the pattern is preferably imaged onto the section by means of monochromatic light. It is possible to project a static or varying pattern onto the section. In particular, it is provided that the pattern is generated by laser dots projected onto the section.
  • the laser points should have a sufficient distance from one another so that the partial images projected onto the sensor via the lens array are imaged without overlapping, so that the evaluation is simplified and accelerated.
  • the lenses of the lens array preferably have the same focal lengths, there is also the possibility that they have different focal lengths. As a result, the individual projection positions in the partial images imaged by the individual lenses of the lens array can be differentiated more strongly, and thus the accuracy of the evaluation can be increased.
  • the invention preferably provides that the focal planes of the back-projected elements of the pattern are determined by means of the Hough transformation.
  • An intraoral scanner of the type mentioned above is characterized in that the lens array with the first optics and the sensor forms either a light field camera or a multifocal measuring system.
  • the invention provides, in particular, that in an intraoral scanner a generator of the pattern and the optics, the lens array and the sensor are integrated, that the intraoral scanner is operated wirelessly and signals from the sensor are transmitted to a computer by remote access, such as WLAN or Bluetooth.
  • the lens array with respect to the optical axis of the optics may be upstream or downstream.
  • the pattern which is projected onto the dental area to be measured preferably consists of laser spots, in particular monochromatic radiation, blue being preferred.
  • the pattern can also be projected by multichromatic, in particular broadband white light sources, in order to simultaneously gain color information about the object to be scanned by means of color sensors.
  • the pattern itself can be a static or a varying pattern.
  • the lens array may consist of lenses having the same focal lengths. However, there is also the possibility that lenses or lens groups with differing focal lengths form the lens array. Furthermore, the intraoral scanner should contain a second pattern reflecting the pattern on the object.
  • 1 to 3 are schematic diagrams for explaining the epipolar geometry
  • FIG. 4 is a schematic diagram of the function of a camera using multifocal image splitting
  • Fig. 5 shows an embodiment of an intraoral camera with multifocal
  • FIG. 9 is a schematic diagram for determining a virtual focal plane
  • FIG. 10 shows an embodiment of an intraoral scanner according to the plenoptic
  • the projection point x of the pixel X on the sensor S, S 'of one of the two cameras, not shown is - simplified - described by the pinhole camera principle by the beam from the pixel to the projection center C of the camera.
  • the projection center is always in the same position for all pixels with unchanged camera setting.
  • the points X and Y are projected onto different pixels x 'and y'.
  • the three-dimensional position of the object point X can be determined precisely from the corresponding pixels x and x 'under optimal conditions: the point lies at the intersection of the straight lines g (C.i) and C'x'.
  • the search can be reduced to a straight line P: The so-called epipolar straight line corresponding to pixel x.
  • the straight line P is determined here by the intersection of the plane defined by C, C and x with the sensor plane of the right camera. All possible epipolar lines corresponding to pixels in the left image in the right image intersect in the so-called epipole e ', which at the same time represents the projection point of the left projection center C in the right image.
  • the epipolar straight lines are simplified, since they run exactly parallel to the image lines of the sensor.
  • the search for corresponding points can be simplified by specifying corresponding image lines. In practice, however, this condition can only be approximately achieved since a shift of the projection centers and different aberrations in different lens systems lead to deviations.
  • the relevant principle is used according to the invention in an intraoral scanner, as this is shown in principle in FIG. 5.
  • a pattern projector For this purpose, for the simple detection of corresponding points by means of a pattern projector 1, a static or varying pattern is projected onto a dental object 5. If the camera resolution or sufficiently large texturing of the dental object is sufficiently large, the pattern projector could possibly even be replaced by a uniform illumination source.
  • the reflected pattern is then initially focused via a lens system 3 and is - possibly deflected by a beam splitter 2 - by a camera system consisting of a lens system 7 and photosensor 8, detected.
  • the camera system is preceded by a lens array 6.
  • a lens array 6 Through this lens array 6, a plurality of images are formed on the image plane in which a surface sensor 8 such as matrix CCD sensor is located, which form a unit by itself and image the projected pattern.
  • a surface sensor 8 such as matrix CCD sensor
  • the multiply projected images are then evaluated stereoscopically or multifocal by corresponding points in each sub-image - as outlined above - are offset against each other. Due to the given parallel image planes, as projected onto the same sensor, the search for corresponding pixels is relatively easy.
  • the 3D coordinates which can then be determined for each 2D pixel are obtained by minimization algorithms on the Based on faster matrix calculations. Overall, the calculation up to the 3D information of the projected pattern points is relatively simple and thus fast enough to live to get the point cloud, which is supplemented with displacement of the intraoral scanner to the complete 3D model of the dental object.
  • the point clouds of the respective scan data are matched for this purpose.
  • the evaluation can be further accelerated if the projected pattern is further simplified by, for. B. only individual laser dots are projected, which have a sufficiently large distance, so that they are imaged without overlapping in all fields.
  • the upstream lenses of the lens array 6 may each have different focal lengths. In this way, if necessary, the individual projection positions in the partial images can be more different and the accuracy of the evaluation can be increased.
  • a dental object can be determined on the basis of the epipolar geometry, wherein according to the representation in Fig. 5, the lens array 6 is arranged in front of the lens system 7, so in the application of the plenoptic principle, as explained with reference to FIGS. 6 to 11, a microlens array 6 'between a photosensor 8 and a lens system V arranged, as Fig. 10 illustrates in principle.
  • the plenoptic function was first defined in 1991 by Adelson and Bergen ("The plenoptic function and the elements of early vision, Cambridge: MIT Press, 1991). It describes the intensity of a light beam of arbitrary wavelength ⁇ , at any time t at any possible angle ⁇ and ⁇ that falls on a camera at x, y, z: l 7 - 1 7 ( ⁇ , ⁇ , ⁇ ,. ⁇ , ⁇ , t, l)
  • the term light field was coined by A. Gershun ("The Light Field", pages 51-151) in 1936. If the description of the light rays is limited to a defined volume and transforms the spherical coordinates into planar image coordinates, one can parameterize the light rays through two planes (u, v) and (x, y), where a ray of light is defined by a point on the u, v plane and the x, y plane ( Figure 7) both planes is called a light field.
  • This parameterization can be used to individually describe the beams of light entering a camera.
  • a light beam can be unambiguously characterized by the entry point at the diaphragm and the point of its impact on the sensor.
  • FIG. 8 illustrates this in simplified form as a 2D light field.
  • the diaphragm plane is regarded as (u, v) plane, the sensor plane as (x, y) plane, the constant volume between the planes to be considered for necessarily fixed focus Light field called. Due to the given image resolution of the Image sensor, the plenoptic function can also be considered as a sampling theorem for optical radiation.
  • Ren Ng describes in his thesis (see above) a light field camera in which a micro lens array is arranged in front of the sensor plane. Instead of meeting at this point in a conventional manner directly on a sensor element each pixel is refracted by this lens grid again and then meets depending on the angle of incidence on different sensor elements.
  • this microlens array as an array of many micro-cameras, each directed to an individual, but overlapping portion of the u / v plane in the aperture region of the camera.
  • the respective point in the u / v plane for each light beam i. determine the light field.
  • the photosensor has only a certain resolution, which is divided by use in a light field camera.
  • Spatial (spatial) resolution is determined by the size of the microlenses. Compared to the conventional camera, this is greatly reduced because the microlenses always radiate to the resolution of the light field on multiple sensor elements. The spatial resolution of the sensor decreases accordingly by this factor.
  • the accuracy for determining the u / v plane is determined by the number of sensor elements that each microlens irradiate. The more sensor elements each of the microlenses emit, the higher the resolution of the u / v plane, and thus ultimately the depth information.
  • the spatial resolution of the x / y plane decreases all the more. Thus, depending on the application, the optimum balance between the two resolutions must always be determined.
  • the light field of a virtual focal plane can be calculated with:
  • the so-called Fourier slice theorem is used for the practical calculation of the individual virtual focal planes.
  • the Fourier transforms of the respective focal planes correspond to certain firmly defined sections through the 4-dimensional Fourier space of the 4D light field.
  • the virtual focal planes are obtained by first applying a 4D Fourier transformation to the light field, then a coordinate transformation and finally an inverse Fourier transformation for each 2D section.
  • the light field camera is used in the method according to Ng for measuring three-dimensional structures on the dental area, wherein corresponding depth information is obtained on the basis of the light field and thus possible refocusing, as has already been explained above and in particular in connection with FIGS. 6 to 8.
  • FIG. 10 shows a purely exemplary embodiment, which can be used in an intraoral scanner, by a light field detection by a Microlens array takes place.
  • the same reference numerals are used according to the illustration of FIG. 5 for the same elements.
  • a static or varying, simple pattern is projected onto the dental object 5.
  • the thereby backprojected from the dental object pattern passes z. B. via a deflection mirror 4, possibly polarization / color or other filters, the lens system 3 and possibly the beam splitter 2 in a light field camera, consisting of a lens system 7 ⁇ for focusing, the photosensor 8 for image acquisition and a microlens Array 6 'for detecting the required light field information, as previously explained in detail.
  • pattern projection z As an array of laser spots or a laser grating are used, as it is state of the art with corresponding upstream optics. Other conventional pattern projectors with LEDs or other light sources, which project a pattern on one level and are quickly blurred on other levels, are accordingly conceivable.
  • the pattern preferably consists of pixels of circular geometry, then other geometries can likewise be used.
  • image patterns consisting of light lines or crosses on the dental object.
  • a dynamically changing projection pattern is also conceivable, by means of which depth information from further intermediate points is obtained even when the scanner head is stationary. There should preferably be gaps between the projected pattern points to allow easy processability, thus simplifying the information content.
  • Changing or varying patterns are generally understood to mean that patterns are not constantly projected, but alternating patterns are projected. This can be achieved by means of a pattern generator by means of which the patterns are not always projected onto the same x / y coordinates. Rather, the positions are varied in order to obtain information on intermediate areas, even in the case of the coarse pattern.
  • a monochrome pattern generator should be used. This has the advantage that the intraoral scanner can be made less sensitive to scattered light and other sources of interference by color and possibly polarization filters by the backprojected pattern can be clearly filtered out already physically.
  • the tilt should be limited so as to avoid shading in areas such as interdental spaces.
  • V upstream microlens array 6 and subordinate Mikrolinsenarray 6 'and the sensor 8 the following should also be noted.
  • a sensor 8 each planar sensor with its costs incurred in normal photography advantages and disadvantages.
  • a grayscale sensor can be used because it is higher resolution and less expensive compared to a color sensor. If a pattern of different wavelengths is used, a color sensor is used.
  • a Foveon CMOS sensor which has superimposed color sensor layers and color has a higher resolution than a CCD color sensor with adjacent color pixels.
  • the principle applies that the higher the resolution, the greater the fundamental resolution of the depth information, whereby the number of microlenses must also be taken into account.
  • the highest possible resolution sensor 8 should be used.
  • the lens array 6, 6 ' the following should be noted.
  • the larger a microlens the more depth information one gains.
  • the number of microlenses for a given size of the sensor so the number of pixels compared to a microlens array with a small areal extent of each lens is lower.
  • each microlens it is preferable for each microlens to cover as many sensor elements as possible, which represent a superpixel, since larger lenses can in turn be corrected by a larger pattern spacing.
  • theorem can be used. However, there is also the possibility of obtaining a simplified pattern faster necessary depth information or a 3D point cloud. The following approach should be used.
  • the rays emanating from this point are focused on a point of the x / y plane or distributed to several pixels of the sensor such as CCD sensor.
  • the virtual plane with the greatest light intensity represents the searched focal plane, unless there are influences from other sources.
  • the desired depth information g (x, y) can be determined directly by
  • Pinhole rear projection of the pixel (x, jp) at the distance z wi is determined.
  • the pattern in both methods (Hough transformation or direct assignment after calibration), the pattern can be constructed so simply or the individual projected pattern points have such a minimum distance that the local intensity maxima actually represent focus points and do not result from superposition of different pattern points.
  • a safe distance can be estimated from the necessary accuracy and width for ⁇ and the resulting minimum possible distance in Hough space.
  • the previously explained methods for determining the virtual focal planes and thus the calculation of the depth information (z-axis) taking into account the Fourier slice theorem of Ng or preferably the Hough space apply in particular when the microlens array is arranged downstream of the main optics, ie positioned directly in front of the sensor. Regardless of this, the teaching according to the invention can be realized in particular using the adapted Hough transformation, which is inventively inventive.
  • object points can be sharply imaged, i. H. be focused by the distance between the sensor plane and lens is adjusted.
  • An object is sharply imaged according to the Gaussian lens formula for thin lenses if object distance g (distance object to aperture) and image distance b (distance sensor plane to aperture) correspond to the following equation:
  • paper fibers can be used, which can be measured nanometer-accurate by means of an exactly focusable light microscope by approaching exactly the sharpest point of each structure.
  • the pixels "blur" with their neighboring points and are shown out of focus emitted single object point and on the (imaginary) u / v plane incoming light rays are projected equal to several points of the x / y plane.
  • a pattern is projected onto a dental image. Examples of corresponding patterns that are points, lines, or crosses are exemplified.
  • the pattern should be made the requirement that it be easy to enable quick and easy detection and evaluation.
  • the projected pattern should be focused on the measurement area or the pattern should be sharply imaged within a certain range and not have merging gradients.
  • high-frequency parts are within a Fourier analysis of the projected pattern, the z. B. sharp edges and lines, is advantageous because blur acts as a low-pass filter, d. H. primarily high-frequency components influenced.
  • the defined focal plane of the pattern projected onto the dental object should lie in the middle scanning region with rapid defocusing beyond the focal range.
  • a fine shadow mask can be used, which is penetrated by the radiation of the light source.
  • the shadow mask is then followed by a lens by means of which is focused.
  • the laser pattern can z. B. consist of points or crosses with limited focus range.
  • the pattern projected onto the dental object is projected back from the dental object.
  • the pattern is blurred on the sensor, d. That is, the light intensity of the pattern smears over several pixels, and if the radiation forming the pattern falls obliquely on the object, the back-projected pattern is also distorted.
  • the projected radiation is in the process step c) bundled by one or more lens systems.
  • each pixel is again refracted by the lenses of the microlens array 6 'and, depending on the angle of incidence, strikes different sensor elements.
  • the direction of the light beams can be determined.
  • the upstream microlens array enables the light field / plenoptic analysis with subsequent calculable virtual focus change.
  • Superpixel therefore means that several pixels of the sensor are combined as a function of the areal extent of the respective lens. In the x / y direction, i. H. the spatial resolution, there is the resolution, which is given by the number of microlenses.
  • step d) then virtual focal planes are calculated.
  • a different pattern results on the sensor level. In vertical radiation, this depends mainly on the degree of focusing, and also on the angle of the projection. Due to the light field technology can be derived from this information by known methods calculate virtual focal planes. In this case, a fiction, according to adapted Hough transformation is preferably used.
  • the axial position, ie z-coordinate, can be limited by virtual focal planes.
  • the x-y coordinate then calculates the position of the pixels in which the partial image is sharply imaged, ie in the virtual focal plane.
  • the accuracy of the z-coordinate, ie the distance measurement depends primarily on the number of sensor elements and the microlenses, but is also - especially in inclined projection of the pattern on the object - determined by the lateral "SuperpixeP" position (microlens).
  • Interpolation at sub-pixel level can increase accuracy.
  • step f when scanning by registration or matching the 3D shape of the measured portion of the object such as dental area is detected.
  • a low cost and relatively lightweight handset which finds use as an intraoral scanner.
  • the fine mechanical alignment between the projected patterns and the microlens array can be done easily.
  • the use of a monochromatic laser or other simple pattern projections makes it possible to integrate them into the oral scanner, without the need for the optical cable required in the prior art.
  • the intraoral scanner can operate wirelessly even when the data is captured remotely, such as WLAN or BLUETOOTH.
  • the monochromatic light source shows considerable advantages both in terms of cost and of manageability in comparison to those which can be used in the prior art in intraoral scanners, such as xenon light sources.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Computing Systems (AREA)
  • Epidemiology (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)

Abstract

Die Erfindung bezieht sich auf ein Verfahren zum Messen der Form von zumindest einem Abschnitt eines Objektes durch Projektion eines Musters auf den Abschnitt und Abbilden des rückprojizierten Musters auf einen Sensor. Um mit konstruktiv einfachen Maßnahmen genau den zumindest einen Abschnitt des Objektes messen zu können, wird vorgeschlagen, dass das auf den Sensor rückprojizierte Muster unter Zugrundelegung des plenoptischen Prinzips analysiert wird.

Description

Verfahren zum scannenden Messen eines dentalen Objektes sowie Intraoral-Scanner
Die Erfindung bezieht sich auf ein Verfahren zum scannenden Messen der Form von zumindest einem Abschnitt eines dentalen Objektes durch Projektion eines Musters auf den Abschnitt und Abbilden des rückprojizierten Musters auf einen Sensor. Auch nimmt die Erfindung Bezug auf einen Intraoral-Scanner, umfassend einen Erzeuger eines auf einen Dentalbereich abzubildenden Musters, einen Sensor und eine diesem vorgeordnete erste Optik.
Es ist bekannt, ein Muster auf ein dentales Objekt abzubilden, um sodann das rückprojizierte Muster eine Lochmaske durchsetzen zu lassen. Die im Fokus der Lochmaske rückprojizierten Muster wie Lichtpunkte, die im Fokus der Lochmaske liegen, passieren diese mit hoher Intensität, um sodann auf den Sensor zu fallen. Lichtpunkte außerhalb des Fokus strahlen nur mit geringer Intensität auf den Sensor. Der Sensor und/oder die Lochmaske werden iterativ axial verschoben, wobei Intensitätsmaxima die Fokusebenen ergeben, aus der sodann der Z- Abstand berechnet werden kann. Alternativ besteht die Möglichkeit, das Muster mittels eines Objektivs auf den Gegenstand abzubilden, das eine große chromatische Aberration aufweist, so dass sich eine wellenlängenabhängige Fokussierung und somit ein multifokales Muster ergibt. In Abhängigkeit von den Wellenlängenpeaks kann sodann die Fokusebene ermittelt werden (DE-A-10 2007 019 267). Die Literaturstelle K. Harding et al.:„3D imaging System for biometric applications"; SPIE Defense, Security and Sensing, 2010, S. 76900J-1 - 76900J-12, beschreibt das Prinzip eines Multi-Image-Systems mit nahezu identischer Bildaufsplittung durch ein Linsenarray das dem Prinzip der stereoskopischen Analyse mit der Einschränkung entspricht, dass nicht nur zwei Kameras/Blickwinkel, sondern mehrere Kameras/Blickwinkel benutzt werden, um ein Bild in mehrere Bilder leicht unterschiedlicher Blickwinkel und Fokusebenen aufzuspalten. Mittels eines einer Optik nachgeordneten Linsenarrays wird ein zu analysierendes Bild mehrfach auf einen Sensor abgebildet. Das Verfahren wird biometrisch genutzt, um z. B. einen Fingerabdruck oder eine Gesichtspartie zu erfassen.
Zur 3D-Bestimmung von dentalen Objekten sind Intraoralscanner bekannt, die nach dem Triangulationsverfahren (DE-A-10 2007 054 907) oder dem Prinzip der konfokalen Mikroskopie (DE-A-10 2004 059 526) arbeiten.
Der EP-A 2 377 464 ist eine Anordnung von telezentrischen Optiken zur Ermittlung einer Fokusebene zu entnehmen. Hierzu werden die Fokusebenen physikalisch verstellt, um anschließend iterativ über alle Bilder die tatsächliche Fokusebene zu berechnen.
In der Literaturstelle R. Ng et al.:„Light field photography with a hand-held plenoptic camera", Computer Science Technical Report CSTR, Vol. 2, 2005, S. 1 - 11, wird das plenoptische Prinzip beschrieben. Dabei wird vorrangig auf eine mögliche nachträgliche Berechnung virtueller Fokusebenen eingegangen, um im Nachhinein Bildausschnitte in den Fokus zu bekommen bzw. durchgängig fokussierte Aufnahmen zu erhalten. Als Verfahren zur Rekonstruktion wird das Fourier-Slice-Theorem vorgeschlagen, das aus der Tomographie bekannt ist. Während jedoch in der Tomographie Bilder aus verschiedenen Durchleuchtung s winkeln durch das Fourier- Slice-Theorem mathematisch rückprojiziert werden, werden bei Ren Ng et al. die verschiedenen Projektionsebenen analytisch berechnet. Auch die Literaturstelle R. Ng. „Fourier slice photography"; ACM Transactions on Graphics (TOG), Vol. 24, No. 3, 2005, S. 735 - 744, beschreibt das plenoptische Prinzip.
In der Literaturstelle L. Nalpantidis et al.:„Obtaining reliable depth maps for robotic applications from a quad-camera System"; Intelligent Robotics and Applications, 2009, S. 906 - 916, ist die stereoskopische Auswertung mehrfacher Kamerabilder beschrieben.
Der vorliegenden Erfindung liegt die Aufgabe zu Grunde, ein Verfahren und einen Intraoral-Scanner der eingangs genannten Art so weiterzubilden, dass die dreidimensionale Form von zumindest einem Abschnitt eines dentalen Objekts nach einem alternativen Verfahren gemessen werden kann, wobei sich im Vergleich zu bekannten Verfahren konstruktive Vereinfachungen ergeben sollen.
Zur Lösung der Aufgabe wird verfahrensmäßig im Wesentlichen vorgeschlagen, dass zur Bestimmung der 3D-Form des zumindest einen Abschnitts des dentalen Objekts entweder das rückprojizierte Muster unter Zugrundelegung des plenoptischen Prinzips virtuell rein rechnerisch fokussiert wird, also die virtuellen Fokusebenen ermittelt werden, oder das mehrfach auf den Sensor rückprojizierte Muster epipolargeometrisch zur 3D-Informationsgewinnung analysiert wird.
Nach der ersten Alternative wird ein Mikrolinsenarray zwischen einer Optik und einem Sensor angeordnet. Sodann kann nach dem plenoptischen Prinzip der Strahlverlauf (das Lichtfeld) nachvollzogen werden, um somit im Nachhinein verschiedene Fokusebenen berechnen zu können. Hinter jeder Mikrolinse des Mikrolinsenarrays wird nicht der gesamte interessierende Bereich komplett auf den Sensor projiziert. Somit wird das Gesamtbild als Ganzes nicht mehrfach auf den Sensor projiziert, sondern lediglich die Teilbereiche zum Erhalt der plenoptischen Information aufgeweitet. Bei größerer Distanz erkennt man daher auch statt eines mehrfach duplizierten Bildes das Gesamtbild. Die unterhalb jeder einzelnen Mikrolinse befindlichen Sensorelemente stellen dabei zusammengefasst eine Art„SuperPixel" dar, dessen Lichtintensität sich aus der Summe aller darunter befindlichen Unter- Sensorelemente ergibt. Hierdurch erscheint das Gesamtbild dann auch größer gepixelt. Ein Heranzoomen auf die einzelnen Sensorelemente der jeweiligen„Superpixel" lässt dabei dann die jeweils aufgeweiteten Teilausschnitte erkennen, aus denen die plenoptische Information gewonnen werden kann, d. h., die Bestimmung der Richtung aus der alle auf den„Superpixel" fallenden Lichtstrahlen herkommen.
Nach der zweiten Alternative werden in Abhängigkeit von der Anzahl der Linsen des Arrays, die insbesondere nahe an der Optik liegen statt dem Sensor direkt vorgeordnet zu sein, entsprechend der Anzahl der Linsen beinahe identische komplette Bilder des interessierenden Bereichs, also Bilder mehrfach projiziert. Es erfolgt eine Mehrfachabbildung, so dass prinzipiell eine Darstellung erfolgt, als würde der interessierende Bereich von mehreren Kameras erfasst. Die Gewinnung der Tiefeninformation erfolgt unter Ausnutzung der Epipolargeometrie.
Das Prinzip, das bei der plenoptischen Lichtfeldanalyse benutzt wird, ist Folgendes. Liegt die aufgenommene Brennebene einer herkömmlichen Digitalkamera genau in der Fokusebene eines abgebildeten Objektpunktes, so wird dieser im Prinzip auf genau einem Pixel eines Matrixsensors wie CCD-Sensors abgebildet, da sich sämtliche von dem Objektpunkt ausgesandte Lichtstrahlen im Prinzip in einem Fokuspunkt bündeln. Liegt die Brennebene nur etwas abseits von der Fokusebene dieses Objektpunktes, verteilt sich die ausgesandte Lichtintensität auf eine größere Fläche, also mehrere Pixel. Mit zunehmendem Abstand der Brennebene zur Fokusebene nimmt die Fläche, auf die der Objektpunkt unscharf abgebildet wird, quadratisch zu. Die Lichtintensität an jedem einzelnen Punkt entsprechend quadratisch ab: der abgebildete Objektpunkt „verschwimmt mit seiner Umgebung". Bei der Verwendung eines Sensors ohne Mikrolinsenarray würde daher an dieser Stelle lediglich ein mit seinen Nachbarelementen verschwommenes Objekt abgebildet. Auf jedem Sensorelement werden dabei sämtliche auftreffenden Strahlen, egal aus welcher Richtung sie stammen, einfach aufaddiert, ohne dass man im Nachhinein die aus unterschiedlicher Richtung und damit von unterschiedlichen Objekten stammenden Lichtstrahlen unterscheiden könnte. Hier setzt die Funktion der Mikrolinsen ein, die dem Sensor im Bereich der Brennebene vorgelagert werden. Statt die Lichtstrahlen unabhängig von deren Richtung einfach aufzuaddieren, werden diese nochmals gebrochen und treffen je nach Richtung, aus der sie kommen, auf jeweils unterschiedliche Sensorelemente. Ein auf eine Mikrolinse senkrecht auftreffendes fokussiertes Lichtbündel würde somit zu einem Kegel erweitert und auf der Sensorfläche kreisförmig abgebildet, ein schräg auftreffendes Lichtbündel entsprechend ellipsenförmig weiter am Rand.
Mit Hilfe dieser Information, aus welcher Richtung die auf die Mikrolinsen auftreffenden Lichtstrahlen stammen, lässt sich sodann im Nachhinein für verschiedene Ebenen berechnen, wie ein auf eine virtuelle Fokusebene projiziertes Bild ausgesehen hätte. Damit lässt sich im Nachhinein bestimmen, wo die Fokusebene zu einem Objektpunkt liegt und damit sodann auch der Abstand, also die Tiefeninformation berechnen.
Den alternativen Lösungsmöglichkeiten, also einerseits das mehrfach aufgesplittete Projizieren des Musters und andererseits der plenoptischen Lichtbrechung der Bildpunkte ist gemeinsam, dass jeweils ein Linsenarray der Optik vor oder nach geschaltet ist. Bei der Mehrfachprojektion werden im Vergleich zur zweiten Alternative eine geringere Anzahl größerer Linsen verwendet, wobei die Linsen abstandsmäßig näher an der Optik als am Sensor liegen. Bei der Nutzung des plenoptischen Prinzips werden eine Vielzahl kleiner Mikrolinsen verwendet, die im Bereich der Brennebene der Optik angeordnet sind und damit dichter am Sensor, der aus der Brennebene der Optik heraus hinter die Mikrolinsen verschoben ist.
Beim plenoptischen Prinzip werden im Nachhinein die Fokusebenen durch eine plenoptische Lichtfeldanalyse errechnet. Dabei ist erfindungs gemäß vorgesehen, dass ein einfaches Muster statt eines komplexen Bildes benutzt wird, um die Analyse durchzuführen. Hierdurch bedingt ergibt sich eine Reduktion der notwendigen spatialen (x/y-) Auflösung mit dadurch schnelleren Berechnung der Fokusebene und gleichzeitigen Steigerung der räumlichen (z-) Auflösung und damit der gewünschten Information. Dabei macht sich insbesondere vorteilhaft bemerkbar, dass zusätzlich schnelle Rechenzeiten dann erzielbar sind, wenn eine erfindungsgemäß angepasste Hough- Analyse verwendet wird. Hierbei handelt es sich um einen eigenerfinderischen Vorschlag.
Erfindungsgemäß wendet man das plenoptische Prinzip an, um virtuelle Fokusebenen für die rückprojizierten Bildpunkte des Musters zu berechnen und so die gewünschten Tiefeninformationen zu erhalten.
Es ist vorgesehen, dass das rückprojizierte Muster, das aus einzelnen Lichtelementen wie Lichtpunkten besteht, mittels einer Optik auf den Sensor abgebildet wird, wobei der Optik das Linsenarray nachgeordnet ist. Bei der Mehrfachabbildung des Musters und der sodann erfolgenden epipolargeometrischen Analyse sollte das Linsenarray der Optik vorgeordnet sein.
Unabhängig hiervon ist in Weiterbildung der Erfindung vorgesehen, dass das Muster vorzugsweise mittels monochromatischen Lichts auf den Abschnitt abgebildet wird. Dabei besteht die Möglichkeit, auf den Abschnitt ein statisches oder variierendes Muster zu projizieren. Insbesondere ist vorgesehen, dass das Muster durch auf den Abschnitt projizierte Laserpunkte erzeugt wird.
Die Laserpunkte sollten einen genügenden Abstand zueinander aufweisen, damit die über das Linsenarray auf den Sensor projizierten Teilbilder überlappungsfrei abgebildet werden, so dass die Auswertung vereinfacht und beschleunigt wird.
Weisen die Linsen des Linsenarrays vorzugsweise gleiche Brennweiten auf, so besteht auch die Möglichkeit, dass diese unterschiedliche Brennweiten besitzen. Hierdurch lassen sich die individuellen Projektionspositionen in den von den einzelnen Linsen des Linsenarrays abgebildeten Teilbildern stärker differenzieren und somit die Genauigkeit der Auswertung steigern.
Um eine einfache Auswertung der Teilbilder zur Bestimmung der dreidimensionalen Form des Abschnitts des Objekts zu ermöglichen, sieht die Erfindung bevorzugterweise vor, dass mittels der Hough-Transformation die Fokusebenen der rückprojizierten Elemente des Musters ermittelt werden.
Es besteht aber auch die Möglichkeit, mittels des Fourier-Slice-Theorems die Fokusebenen der rückprojizierten Elemente des Musters zu ermitteln.
Ein Intraoralscanner der eingangs genannten Art zeichnet sich dadurch aus, dass das Linsenarray mit der ersten Optik und dem Sensor entweder eine Lichtfeldkamera oder ein multifokales Messsystem bildet.
Hierzu sieht die Erfindung insbesondere vor, dass in einem Intraoralscanner ein Erzeuger des Musters und die Optik, das Linsenarray und der Sensor integriert werden, dass der Intraoralscanner kabellos betrieben wird und Signale des Sensors durch Fernzugriff wie WLAN oder Bluetooth an einen Rechner übertragen werden.
Dabei kann das Linsenarray in Bezug auf die optische Achse der Optik vor- oder nachgeordnet sein.
Das Muster, das auf den zu messenden Dentalbereich projiziert wird, besteht vorzugsweise aus Laserpunkten, insbesondere monochromatischer Strahlung, wobei blau zu bevorzugen ist.
Das Muster kann aber auch durch multichromatische, insbesondere breitbandige Weißlichtquellen projiziert werden, um mittels Farbsensoren zugleich Farbinformationen über das zu scannende Objekt zu gewinnen.
Das Muster selbst kann ein statisches oder ein variierendes Muster sein.
Das Linsenarray kann aus Linsen bestehen, die gleiche Brennweiten aufweisen. Es besteht jedoch auch die Möglichkeit, das Linsen oder Linsengruppen mit voneinander abweichenden Brennweiten das Linsenarray bilden. Ferner sollte der Intraoralscanner eine zweite das Muster auf das Objekt abbildende Optik enthalten.
Weitere Einzelheiten, Vorteile und Merkmale der Erfindung ergeben sich nicht nur aus den Ansprüchen, den diesen zu entnehmenden Merkmalen - für sich und/oder in Kombination - sondern auch aus der nachfolgenden Beschreibung.
Es zeigen:
Fig. 1 bis 3 Prinzipdarstellungen zur Erläuterung der Epipolar-Geometrie,
Fig. 4 eine Prinzipdarstellung der Funktion einer Kamera unter Anwendung der multifokalen Bildaufsplittung,
Fig. 5 eine Ausführungsform einer Intraoralkamera mit multifokaler
Bildaufsplittung,
Fig. 6 Prinzipdarstellungen der plenoptischen Funktion,
Fig. 7, 8 Prinzipdarstellungen eines Lichtfeldes,
Fig. 9 eine Prinzipdarstellung zur Ermittlung einer virtuellen Fokusebene,
Fig. 10 eine Ausführungsform eines Intraoralscanners nach dem plenoptischen
Prinzip und
Fig. 11 ein Ablaufdiagramm.
Erfindungsgemäß werden zum Ermitteln der dreidimensionalen Form zumindest eines Abschnitts eines dentalen Objektes, insbesondere eines semitransparenten Objektes, Grundprinzipien der Optik angewendet, auf die nachstehend eingegangen wird. Wird ein Objektpunkt gleichzeitig in zwei Kameras abgebildet, gibt es grundlegende Beziehungen, die mit Hilfe der sogenannten Epipolar-Geometrie beschrieben werden. Dies wird anhand der Fig. 1 erläutert.
Der Projektionspunkt x des Bildpunktes X auf den Sensor S, S ' einer der beiden nicht dargestellten Kameras wird - vereinfacht gesehen - nach dem Lochkamera-Prinzip durch den Strahl vom Bildpunkt zum Projektionszentrum C der Kamera beschrieben. Das Projektionszentrum ist dabei bei unveränderter Kameraeinstellung für alle Bildpunkte stets an der gleichen Position.
Da alle Punkte, die auf der Geraden g liegen auf den gleichen Punkt x projiziert werden, kann mit nur einer Kamera prinzipiell keinerlei Tiefen- Information gewonnen werden. So sind in der obigen Abbildung die Punkte X und Y für die linke Kamera nicht unterscheidbar.
Kommt nun jedoch eine zweite Kamera aus anderem Blickwinkel ins Spiel, werden hier die Punkte X und Y auf verschiedene Bildpunkte x' und y' projiziert. Bei bekannten Projektionszentren C und C kann daher aus den korrespondierenden Bildpunkten x und x' unter optimalen Bedingungen die dreidimensionale Position des Objektpunktes X genau bestimmt werden: Der Punkt liegt im Schnittpunkt der Geraden g ( C.i) und C'x'.
Man gewinnt also Tiefeninformation, wobei die Bedingungen natürlich niemals so optimal sind wie dargestellt: Insbesondere werden sich unter praktischen Bedingungen die Geraden Cx und C'x' in vielen Fällen gar nicht schneiden, so dass der Punkt X oft nur angenähert als Punkt X des kleinsten Abstandes zwischen den beiden Geraden bestimmbar wird.
Sollen nun mehrere Objektpunkte gleichzeitig vermessen werden, wird die Auswertung dadurch erschwert, dass für jeden Bildpunkt x in der einen Kamera viele hierzu möglicherweise passende Punkte in der anderen Kamera existieren und es schwer wird, den tatsächlich hiermit korrespondierenden, d. h. tatsächlich ebenfalls vom Objektpunkt X projizierten Punkt x' herauszufinden. Ist z. B. x in Fig. 1 die linke Kamera-Projektion eines Objekt- Punktes X und wird nun statt x' die Projektion y' eines ganz anderen Objekt-Punktes miteinander korrespondierend verrechnet, erhält man als Koordinaten für X komplett falsche Koordinaten. Zur stereoskopischen dreidimensionalen Vermessung mehrerer Objektpunkte ist es daher wichtig, für jeden Bildpunkt in der linken Kamera auch den hiermit tatsächlich korrespondierenden Bildpunkt in der rechten Kamera zu finden.
Um für einen Bildpunkt x die geometrische Position im zweiten Bild zu bestimmen, lässt sich die Suche aber auf eine Gerade P reduzieren: Die mit Bildpunkt x korrespondierende so genannte Epipolar-Gerade. Die Gerade ist P hierbei durch den Schnitt der von C, C und x aufgespannten Ebene mit der Sensorebene der rechten Kamera bestimmt. Alle möglichen mit Bildpunkten im linken Bild korrespondierenden Epipolar-Geraden im rechten Bild schneiden sich dabei im so genannten Epipol e', der zugleich der Projektionspunkt des linken Projektionszentrum C im rechten Bild darstellt.
Sind beide Sensorebenen parallel zueinander ausgerichtet, vereinfachen sich die Epipolar-Geraden, da sie genau parallel zu den Bildzeilen des Sensors verlaufen. Beim so genannten Stereonormalfall, bei dem die Sensorebenen parallel ausgerichtet sind und auch die Projektionszentren auf einer Höhe liegen (Fig. 3), lässt sich die Suche nach korrespondierenden Punkten durch die Angabe korrespondierender Bildzeilen vereinfachen. In der Praxis lässt sich diese Bedingung jedoch nur näherungsweise erreichen, da eine Verschiebung der Projektionszentren und unterschiedliche Abbildungsfehler bei verschiedenen Linsensystemen zu Abweichungen führen.
Nach dem Ansatz von Georgiev et al. [„Spatio-angular resolution tradeoffs in integral photography", 2006] wird vor dem eigentlichen Objektiv ein Linsenarray angebracht (Fig. 4). Georgiev et al. konnten dabei zeigen, dass dies äquivalent zu einem System von mehreren leicht zueinander verschobenen Kameras ist. Auf dem Sensor wird hierbei der aufgenommene Bildabschnitt mehrfach dargestellt, wobei je nach Entfernung der Objektpunkte die Positionen der projizierten Bildpunkte untereinander variieren. Bei Verwendung einer solchen Kamera mit vorgelagertem Mikrolinsen-Array lassen sich mit Hilfe der Epipolar-Geometrie und den parallel zueinander ausgerichteten Sensorebenen (Stereonormalfall nur näherungsweise) korrespondierende Bildpunkte und damit die Tiefeninformationen berechnen. Die tatsächliche Tiefeninformation kann durch Minimierungs-Algorithmen über alle Punkt-Paare berechnet bzw. allgemein weiter präzisiert werden.
Das diesbezügliche Prinzip wird erfindungsgemäß bei einem Intraoral-Scanner eingesetzt, wie dieser prinzipiell der Fig. 5 zu entnehmen ist. Hierzu wird zur einfachen Detektion korrespondierender Punkte mittels eines Muster-Projektors 1 ein statisches oder variierendes Muster auf ein dentales Objekt 5 projiziert. Bei genügend großer Kamera-Auflösung bzw. hinreichend großer Texturierung des dentalen Objekts könnte der Muster-Projektor ggf. sogar durch eine einheitliche Beleuchtungs-Quelle ersetzt werden.
Allerdings sollte eine zusätzliche Muster-Projektion bei oftmals glatten nur schwach texturierten Objekten - wie bei Zähnen - erfolgen, um eindeutige korrespondierende Punkte detektieren zu können.
Als Muster-Projektor können dabei Laser mit vorgeschalteter Optik oder aber andere herkömmliche Musterprojektoren mit LEDs oder anderen Lichtquellen verwendet werden. Das reflektierte Muster wird dann über ein Linsensystem 3 zunächst gebündelt und wird - ggf. über einen Strahlteiler 2 abgelenkt - von einem Kamerasystem, bestehend aus einem Linsensystem 7 und Fotosensor 8, erfasst. Dem Kamerasystem ist dabei ein Linsen-Array 6 vorgeschaltet. Durch dieses Linsenarray 6 werden auf der Bildebene, in der sich ein Flächensensor 8 wie Matrix-CCD-Sensor befindet, mehrere Bilder erzeugt, die für sich selbst eine Einheit bilden und das projizierte Muster abbilden. Innerhalb jedes Unterbildes sind die jeweiligen relativen Bildpositionen je nach Distanz des reflektierten Musters - und damit dentalen Objektpunktes - leicht unterschiedlich, woraus man die 3D-Information erhält.
Die mehrfach projizierten Bilder werden sodann stereoskopisch bzw. multifokal ausgewertet, indem in jedem Teilbild jeweils korrespondierende Punkte - wie oben skizziert - miteinander verrechnet werden. Aufgrund der gegebenen parallelen Bildebenen, da auf gleichen Sensor projiziert, gestaltet sich die Suche nach korrespondierenden Bildpunkten relativ einfach. Die sodann für jeden 2D-Bildpunkt bestimmbaren 3D-Koordinaten erhält man durch Minimierungs-Algorithmen auf der Grundlage schneller Matrix-Berechnungen. Insgesamt gestaltet sich die Berechnung bis hin zur 3D-Information der projizierten Musterpunkte relativ einfach und damit schnell genug, um live die Punktwolke zu erhalten, die mit Verschiebung des Intraoral- Scanners zum kompletten 3D-Modell des Dentalobjektes ergänzt wird. Die Punktewolken der jeweiligen Scandaten werden hierzu gematcht.
Die Auswertung lässt sich noch weiter beschleunigen, wenn das projizierte Muster weiter vereinfacht wird, indem z. B. nur einzelne Laserpunkte projiziert werden, die einen genügend großen Abstand haben, damit sie in allen Teilbildern überlappungsfrei abgebildet werden.
Mit steigender Anzahl an Linsen im vorgeschalteten Linsen-Array 6 steigt die Genauigkeit der errechneten Tiefeninformation auch bei sonst teilweise uneindeutigen Projektionen. Zugleich sinkt aber die spatiale (geometrische) Auflösung der Punkte. Somit ist jeweils - je auch nach vorhandener Auflösung des Fotosensors 8 - der optimale Ausgleich zu bestimmen.
Die vorgeschalteten Linsen des Linsenarray 6 können jeweils unterschiedliche Brennweiten aufweisen. Hierdurch lassen sich ggf. die individuellen Projektions- Positionen in den Teilbilder stärker differieren und die Genauigkeit der Auswertung steigern.
Ist anhand der Fig. 1 bis 5 erläutert worden, wie Tiefeninformationen eines dentalen Objektes unter Zugrundelegung der Epipolar-Geometrie ermittelt werden können, wobei entsprechend der Darstellung in Fig. 5 das Linsenarray 6 vor dem Linsensystem 7 angeordnet ist, so ist bei der Anwendung des plenoptischen Prinzips, wie dies anhand der Fig. 6 bis 11 erläutert wird, ein Mikrolinsen-Array 6' zwischen einem Fotosensor 8 und einem Linsensystem V angeordnet, wie die Fig. 10 prinzipiell verdeutlicht.
Im Zusammenhang mit der diesbezüglichen und der Fig. 10 zu entnehmenden Anordnung gelangen erfindungs gemäß Prinzipien der an und für sich bekannten Lichtfeldkamera zur Anwendung, wobei auf Grundlagen Bezug genommen wird, die der Disseration von R. Ng„Digital light field photography," 2006, zu entnehmen sind. In seiner Dissertation beschreibt Ren Ng das Prinzip seiner Lichtfeldkamera, das zum Verständnis mitsamt einiger Begriffsdefinitionen im Folgenden stark vereinfacht erläutert wird.
Die plenoptische Funktion wurde erstmals 1991 von Adelson und Bergen („The plenoptic function and the elements of early vision, Cambridge: MIT Press, 1991) definiert. Sie beschreibt die Intensität eines Lichtstrahls mit beliebiger Wellenlänge λ, zu jedem Zeitpunkt t in jedem möglichen Winkel Θ und φ, der auf eine Kamera am Ort x, y, z fällt: l 7— 17(β,φ,. χ,. γ,. Σ, t,l)
Damit hat diese allgemeinste Beschreibung eines Lichtstrahls im Raum sieben Dimensionen. Durch Einschränkung auf statische Szenen und Vernachlässigung der Wellenlänge (diese wird oft nicht benötigt oder kann bei Bedarf z. B. vom Flächen- CCD-Sensor erfasst werden) verbleibt dann noch die dargestellte fünfdimensionale plenoptische Funktion: I = L(x,y, z, θ, ψ) (s. Fig. 6, Quelle: http:/de.wikipedia.ord/wiki/Plenoptische_Kamera).
Der Begriff Lichtfeld wurde 1936 von A. Gershun („The Light Field", Journal of Mathematics and Physics, Seiten 51-151) geprägt. Begrenzt man die Beschreibung der Lichtstrahlen auf ein definiertes Volumen und transformiert die sphärischen Koordinaten in planare Bildkoordinaten, lassen sich die Lichtstrahlen durch zwei Ebenen (u, v) und (x, y) parametrisieren, wobei ein Lichtstrahl durch einen Punkt auf der u, v-Ebene und der x, y-Ebene festgelegt ist (Fig. 7). Das Volumen zwischen den beiden Ebenen wird als Lichtfeld bezeichnet.
Diese Parametrisierung kann verwendet werden, um die in eine Kamera eintreffenden Lichtstrahlen einzeln zu beschreiben. Vorausgesetzt die Kamera ist fest fokussiert, d. h. der Abstand zwischen Objektiv und Sensor statisch fixiert, kann ein Lichtstrahl durch den Eintrittspunkt an der Blende und den Punkt seines Auftreffens am Sensor eindeutig charakterisiert werden. Fig. 8 stellt dies vereinfacht als 2D-Lichtfeld dar. Die Blendenebene wird als (u, v)-Ebene, die Sensorebene als (x, y)-Ebene betrachtet, wobei das bei notwendigerweise festem Fokus zu betrachtende konstante Volumen zwischen den Ebenen das Lichtfeld bezeichnet. Durch die vorgegebene Bildauflösung des Bildsensors kann die plenoptische Funktion dabei zugleich auch als Abtasttheorem für optische Strahlen betrachtet werden.
Ren Ng beschreibt in seiner Dissertation (s. o.) eine Lichtfeldkamera, bei der vor der Sensorebene ein Mikrolinsen-Array angeordnet ist. Statt an dieser Stelle in herkömmlicher Weise direkt auf ein Sensorelement zu treffen wird jeder Bildpunkt durch dieses Linsengitter nochmals gebrochen und trifft dann je nach Einfallswinkel auf unterschiedliche Sensorelemente. Man kann sich dieses Mikrolinsenarray wie ein Array aus vielen Kleinst-Kameras vorstellen, die jeweils auf einen individuellen, sich aber überlappenden Teilbereich der u/v-Ebene im Blendenbereich der Kamera gerichtet sind. Hierdurch lässt sich neben dem Eintrittspunkt in der x/y- Ebene auch der jeweilige Punkt in der u/v-Ebene für jeden Lichtstrahl, d.h. das Lichtfeld bestimmen.
Der Photosensor hat natürlich nur eine gewisse Auflösung, die sich durch Verwendung in einer Lichtfeld- Kamera aufteilt. Die spatiale (räumliche) Auflösung wird durch die Größe der Mikrolinsen bestimmt. Im Vergleich zur herkömmlichen Kamera ist diese stark verkleinert, da die Mikrolinsen zur Auflösung des Lichtfeldes stets auf mehrere Sensorelemente einstrahlen. Die spatiale Auflösung des Sensors verringert sich entsprechend um diesen Faktor. Die Genauigkeit zur Bestimmung der u/v-Ebene wird dagegen durch die Anzahl der Sensorelemente bestimmt, auf die jede Mikrolinse einstrahlt. Auf je mehr Sensorelemente jede Mikrolinse einstrahlt, umso höher wird damit die Auflösung der u/v-Ebene und steigt damit letztlich auch die Tiefeninformation. Umso stärker sinkt aber auch die spatiale Auflösung der x/y-Ebene. Somit ist je nach Anwendung stets der optimale Ausgleich zwischen beiden Auflösungen zu bestimmen.
Aufgrund der zusätzlichen Information über die u/v-Ebene ist es möglich, bei einer Lichtfeld- Kamera auch im Nachhinein die Fokusebene zu verändern. Bei einem einzelnen Pixel einer herkömmlichen Kamera werden auf der x/y-Ebene sämtliche Intensitäten aller eintreffenden Lichtstrahlen miteinander addiert, was im Lichtfeld betrachtet im Prinzip (abgesehen von einem Vignettierungs-Faktor cos49 und anderen Einflüssen) einer Integration über alle Strahlen der u/v-Ebene entspricht: EF(xry) =— ^ JJ LF(x, y,ii, i?) cos40du.it
Nach der Fig. 9 lässt sich bei bekanntem Lichtfeld auf der Aufnahmeebene das Lichtfeld einer virtuellen Fokusebene mit «=— berechnen durch:
F x Ii y v
LF'(x',y'ru.rv) = LF u + , v H—
Figure imgf000016_0001
Hieraus ergibt sich bei vereinfachter Betrachtung ohne Vignettierung und anderen Einflüssen für die Lichtintensität an der Position x'/y' auf der virtuellen Fokusebene:
*C«rt fr ', ) = ^i fl ^ («(l - + X-, v (l - + }-,uf vj dudv
Es sei angemerkt, dass für die praktische Berechnung der einzelnen virtuellen Fokusebenen das so genannte Fourier-Slice-Theorem Anwendung findet. Bei diesem macht man sich zu Nutze, dass die Fouriertransformierten der jeweiligen Fokusebenen bestimmten fest definierten Schnitten durch den 4-dimensionalen Fourierraum des 4D- Lichtfeldes entsprechen. Man erhält die virtuellen Fokusebenen, indem auf das Lichtfeld zunächst eine 4D-Fouriertransformation angewandt wird, danach eine Koordinaten-Transformation und abschließend für jeden 2D-Schnitt eine inverse Fourier- Transformation.
Diese Berechnung gestaltet sich allerdings relativ rechenintensiv.
Erfindungsgemäß wird die Lichtfeldkamera in dem Verfahren nach Ng zur Vermessung dreidimensionaler Strukturen auf dem Dentalbereich angewendet, wobei aufgrund des Lichtfeldes und damit möglicher Refokussierung entsprechende Tiefeninformationen gewonnen werden, wie dies bereits zuvor und insbesondere im Zusammenhang mit den Fig. 6 bis 8 erläutert worden ist.
Der Fig. 10 ist ein Ausführungsbeispiel rein prinzipiell zu entnehmen, das bei einem Intraoral-Scanner zum Einsatz gelangen kann, indem eine Lichtfelderfassung durch ein Mikrolinsenarray erfolgt. Dabei werden entsprechend der Darstellung der Fig. 5 für gleiche Elemente gleiche Bezugszeichen verwendet.
Folglich wird mittels des Muster-Projektors 1 ein statisches oder variierendes, einfaches Muster auf das dentale Objekt 5 projiziert. Das dabei vom dentalen Objekt rückprojizierte Muster gelangt z. B. über einen Umlenk-Spiegel 4, möglicherweise Polarisations-/Farb- oder andere Filter, das Linsensystem 3 und ggf. den Strahlteiler 2 in eine Lichtfeldkamera, bestehend aus einem Linsensystem 7< zur Fokussierung, dem Fotosensor 8 zur Bilderfassung und einem Mikrolinsen-Array 6' zur Erfassung der benötigten Lichtfeld- Information, wie zuvor ausführlich erläutert worden ist.
Die Verwendung eines einfachen Musters hat zur Folge:
1. Die Sicherstellung einer deutlichen Textur zum optimalen Auffinden der Fokusebene und damit der Tiefeninformation
2. Eine geringere flächige (x/y-) Auflösung mit verbundener Steigerung der räumlichen (z-) Auflösung
3. Die vereinfachte und damit deutlich schnellere Analyse durch Berechnung nur einzelner, deutlicher Abschnitte anstatt des gesamten Bildes mitsamt allen Fokus-Ebenen.
Zur Musterprojektion kann z. B. ein Array aus Laserpunkten oder ein Lasergitter verwendet werden, wie es mit entsprechend vorgeschalteter Optik Stand der Technik ist. Auch andere herkömmliche Musterprojektoren mit LEDs oder anderen Lichtquellen, die ein Muster auf einer Ebene scharf projizieren und auf anderen Ebenen rasch unscharf werden, sind entsprechend denkbar.
Besteht das Muster vorzugsweise aus Bildpunkten kreisförmiger Geometrie, so können andere Geometrien gleichfalls zum Einsatz gelangen. Insbesondere besteht die Möglichkeit, Muster bestehend aus Lichtstrichen oder -kreuzen auf das dentale Objekt abzubilden. Neben der Projektion eines statischen Musters ist auch ein sich dynamisch veränderndes Projektionsmuster denkbar, durch das auch bei unbewegtem Scanner-Kopf Tiefen- Informationen von weiteren Zwischen-Punkten gewonnen werden. Es sollten vorzugsweise Lücken zwischen den projizierten Musterpunkten vorhanden sein, damit eine einfache Verarbeitbarkeit möglich wird, um folglich den Informationsgehalt zu vereinfachen.
Unter sich verändernden oder variierenden Mustern versteht man ganz allgemein, dass nicht konstant das gleiche Muster, sondern wechselnde Muster projiziert werden. Dies kann mittels eines Mustergenerators erreicht werden, mittels dessen die Muster nicht stets an die gleichen x/y-Koordinaten projiziert werden. Vielmehr werden die Positionen variiert, um auch beim Grobmuster Informationen über Zwischenbereiche zu erhalten.
Vorzugsweise sollte ein monochromer Mustergenerator zum Einsatz gelangen. Dieser hat den Vorteil, dass der Intraoralscanner durch Färb- und ggf. Polarisationsfilter unempfindlicher gegenüber Streulicht und anderen Störquellen gemacht werden kann, indem das rückprojizierte Muster eindeutiger schon physikalisch herausgefiltert werden kann.
Die Verwendung mehrerer, verschiedenfarbiger Muster ist gleichfalls möglich. Hierdurch ergibt sich der Vorteil, gleichzeitig mehrere Muster getrennt auszuwerten, um so die Punktdichte des projizierten Musters weiter zu erhöhen. Dies führt zu einer deutlich gesteigerten Anzahl an Messpunkten und damit dichteren 3D-Punktewolke. Voraussetzung hierfür ist ein Farbsensor als Sensor 8. Zur größeren Fehlertoleranz könnten die mehrfachen Muster ggf. auch unterschiedlich fokussiert sein. Ein multichromatisches Muster durch z. B. eine breitbandige Lichtquelle könnte zudem eine zusätzliche Auswertung der Farbinformation des gescannten Objektes ermöglichen.
Auch ist es ggfs. sinnvoll, das Muster nicht senkrecht auf das dentale Objekt einzustrahlen, sondern unter einem gewissen, leicht gekippten Winkel. Dies erhöht die Auflösung der Tiefeninformation, da neben des je nach Fokusebene unterschiedlichen u/v-Ebenen-Lichtfeldes zusätzlich eine je nach Fokusebene unterschiedliche x/y- Translation vorhanden ist. Je nach Auflösung des Sensors und Größe der verwendeten Mikrolinsen - die damit die x/y- Auflösung verringern bzw. die u/v- Auflösung erhöhen-, ergibt sich hieraus ein Auflösungs- Vorteil für die resultierende Punktwolke.
Die Kippung sollte jedoch derart begrenzt sein, dass eine Abschattung in Bereichen wie Zahnzwischenräumen unterbleibt.
Zu dem Haupt- Linsensystem 7, V vorgeordneten Mikrolinsenarray 6 bzw. nachgeordnetem Mikrolinsenarray 6' und dem Sensor 8 ist Folgendes ergänzend anzumerken. Grundsätzlich ist als Sensor 8 jeder flächige Sensor mit seinen in der normalen Fotografie anfallenden Vor- und Nachteilen geeignet. Bei einer einfachen Musterprojektion kann ein Graustufen-Sensor verwendet werden, da dieser im Vergleich zu einem Farbsensor höher auflösend und preiswerter ist. Wird ein Muster verschiedener Wellenlängen benutzt, gelangt ein Farbsensor zum Einsatz. Zu bevorzugen ist ein Foveon CMOS-Sensor, der übereinander liegende Farbsensorschichten besitzt und im Farbfall eine höhere Auflösung als ein CCD- Farbsensor mit nebeneinander liegenden Farbpixeln besitzt.
Von der Auflösung her gilt der Grundsatz, dass je höher die Auflösung ist, umso größer ist die prinzipielle Auflösung der Tiefeninformation, wobei auch die Anzahl der Mikrolinsen zu berücksichtigen ist. Bevorzugt sollte ein möglichst hoch auflösender Sensor 8 zum Einsatz gelangen. Bezüglich des Linsenarrays 6, 6' ist Folgendes anzumerken. Je mehr Pixel des Sensors 8 unter eine Linse des Linsenarrays 6, 6' liegen, also einer Linse zugeordnet sind und somit ein Superpixel bilden, umso größer ist die Auflösung der Tiefeninformation. Es gilt somit, dass je größer eine Mikrolinse ist, umso mehr Tiefeninformationen gewinnt man. Allerdings ist die Anzahl der Mikrolinsen bei vorgegebener Größe des Sensors, also deren Pixelanzahl im Vergleich zu einem Mikrolinsenarray mit kleiner flächiger Erstreckung jeder Linse geringer. Bei einer geringen Anzahl von Mikrolinsen verliert man jedoch die spatiale (geometrische) x/y-Auflösung. Dies kann dadurch ausgeglichen werden, dass das projizierte Muster gröber gewählt wird. Der Sensor 8 sollte daher möglichst hoch auflösend sein. Bevorzugt ist jedoch, dass jede Mikrolinse möglichst viele Sensorelemente abdeckt, die ein Superpixel darstellen, da größere Linsen wiederum durch einen größeren Musterabstand korrigiert werden können.
Zur Bestimmung der virtuellen Fokusebene und damit des z-Abstandes - die x/y- Koordinate wird durch die Koordinaten des Teilbildes auf dem Fotosensor 8 ermittelt - kann das zuvor erläuterte Fourier-Slice-Theorem zur Anwendung gelangen. Es besteht jedoch auch die Möglichkeit, durch ein vereinfachtes Muster schneller notwendige Tiefeninformationen bzw. eine 3D-Punktwolke zu erhalten. Dabei ist von folgendem Ansatz auszugehen.
Je nachdem, ob ein Punkt fokussiert wurde, werden die von diesem Punkt ausgehenden Strahlen auf einen Punkt der x/y-Ebene fokussiert oder aber auf mehrere Pixel des Sensors wie CCD-Sensor verteilt. Demnach stellt bei einem einfachen Muster für einen gegebenen Bildpunkt (x, y) diejenige virtuelle Ebene mit der größten Lichtintensität die gesuchte Fokusebene dar, sofern keine Einflüsse aus anderen Quellen vorliegen.
Nach den Erläuterungen im Zusammenhang mit der Fig. 9 wird für jeden Musterpunkt (x, y) derjenige Abstand aF gesucht, für den E<KF) (x, y) maximal wird:
= aremax— -— - | ί LF dtidv
Figure imgf000020_0001
Hieraus ist unter Berücksichtigung der Ausführungen im Zusammenhang mit den Fig. 6 bis 8 die gesuchte Tiefeninformation g (x, y) direkt bestimmbar durch
wird eine Hough-Transformation
Figure imgf000020_0002
bevorzugt. Hierzu wird zunächst ein diskreter dreidimensionalen Hough-Raum über den Parametern x, y und α aufgespannt und mit jeweils 0 initialisiert. Anschließend wird über alle denkbaren Parameter- Kombinationen (x,y,u,v,a) iteriert, wobei der Hough- Raum an der Stelle (x,y,a) jeweils um den gemessenen Wert
Fokus-Punkte können dadurch
Figure imgf000021_0001
detektiert werden, dass lokale Maxima (x, y, a); in dem so gewonnenen Hough- Akkumulator bestimmt werden. Aus diesen lokalen Maxima lassen sich sodann in direkter Weise zugehörige Punkte (xMF,yWJzw)i im D- Raum bestimmen, wobei zunächst zwi = ττ~^~ berechnet und anschließend 6vw,yw> z*-); mittels der bekannten
aF—f
Lochkamera-Rückprojektion vom Bildpunkt(x, jp)in der Entfernung zwi bestimmt wird.
Die notwendige Iteration über alle denkbaren Kombination von fünf Parametern erscheint zunächst sehr aufwändig und rechenintensiv. Die möglichen u, v- Kombinationen bei der beschriebenen Lichtfeld- Kamera stellen jedoch lediglich Unterbilder auf dem Gesamt-Sensor-Bild dar. Somit stellt die Iteration über alle denkbaren Parameter (x, y, u, v) lediglich eine Iteration über alle Pixel des Sensors dar mit entsprechender Indexierung auf (x, y, u, v). Auch für α kommen nur wenige diskrete Werte in Frage.
Da auch andere Hough-Transformationen mit Iterationen über alle Sensorelemente z. B. zum Auffinden von Linien und Kreisen beinahe in Echtzeit ablaufen, ist eine Online- Berechnung der entsprechenden 3D-Punktewolke aus den Fokuspunkten des beschriebenen Hough-Raumes möglich.
Denkbar ist zudem, dass sich bei entsprechender Kalibration bestimmte lokale Bildmuster direkt 3D-Objekt-Koordinaten zuordnen lassen.
Insgesamt können bei beiden Verfahren (Hough-Transformation oder direkte Zuordnung nach Kalibration) das Muster so einfach aufgebaut sein bzw. die einzelnen projizierten Musterpunkte einen solchen Mindestabstand haben, dass die lokalen Intensitäts-Maxima tatsächlich Fokuspunkte darstellen und sich nicht durch Überlagerung verschiedener Musterpunkte ergeben. Ein sicherer Abstand lässt sich aus der notwendigen Genauigkeit und Breite für α und der sich daraus ergebenden möglichen Minimaldistanz im Hough-Raum abschätzen. Die zuvor erläuterten Verfahren zur Ermittlung der virtuellen Fokusebenen und damit die Berechnung der Tiefeninformationen (z- Achse) unter Berücksichtigung des Fourier- Slice-Theorems von Ng bzw. bevorzugterweise des Hough-Raums gelten insbesondere dann, wenn das Mikrolinsen-Array der Hauptoptik nachgeordnet, also unmittelbar vor dem Sensor positioniert ist. Unabhängig hiervon ist die erfindungs gemäße Lehre insbesondere unter Anwendung der angepassten Hough-Transformation realisierbar, die eigenerfinderisch ist.
In herkömmlichen Kameras können Objektpunkte scharf abgebildet, d. h. fokussiert werden, indem der Abstand zwischen Sensorebene und Objektiv angepasst wird. Ein Gegenstand wird nach der Gaußschen Linsenformel für dünne Linsen genau dann scharf abgebildet, wenn Gegenstandsweite g (Abstand Gegenstand zu Blende) und Bildweite b (Abstand Sensorebene zu Blende) der folgenden Gleichung entsprechen:
- + - = - , wobei f der Brennweite der Linse entspricht.
S i> f
Sofern Objektpunkte exakt fokussiert sind, d. h. scharf abgebildet werden, lässt sich
£P f
damit der Objektabstand g bestimmen mittels g= -ς^. Dieses Prinzip wird z. B. bei der
Erfassung kleinster Strukturen wie z. B. Papierfasern angewandt, die mittels eines exakt fokussierbaren Lichtmikroskops nanometergenau vermessen werden können, indem für jede Struktur genau deren schärfster Punkt angefahren wird.
Bei einer herkömmlichen Kamera kann bei bekanntem Projektionszentrum - dieses kann durch eine Kamera-Kalibration ermittelt werden - für jeden Bildpunkt nach dem Lochkamera-Modell zwar ermittelt werden, aus welcher Richtung der Hauptstrahl eintraf (Fig. 1, 2). Sämtliche aus verschiedenen Richtungen auf das Sensorelement eintreffenden Lichtstrahlen können jedoch nicht unterschieden werden, sondern werden in ihrer Lichtintensität einfach addiert. Das Lichtfeld kann daher aufgrund der nicht bestimmbaren u/v-Ebene nicht näher spezifiziert werden.
Insbesondere, wenn Punkte nicht fokussiert wurden,„verschwimmen" die Bildpunkte mit deren Nachbarpunkten und werden unscharf dargestellt. D.h. die von einem einzelnen Objektpunkt ausgesandten und auf der (gedachten) u/v-Ebene eintreffenden Lichtstrahlen werden gleich auf mehrere Punkte der x/y-Ebene projiziert.
Zwar lassen sich bei vereinzelten Objektpunkten mit wenig umgebenden Störfaktoren auch aus dem sich ergebenden Unscharf-Bildverlauf Rückschlüsse auf den Objekt- Abstand gewinnen (vgl. z. B. „Depth from Defocus" in C. Wöhler, 3D Computer Vision, Heidelberg: Springer, 2009, Seiten 162 ff). Dies ist aber zum einen relativ ungenau und setzt im Allgemeinen gut separierbare einzelne Punkte voraus.
Der Verfahrensablauf, der beim intraoralen Scannen unter Verwendung des plenoptischen Prinzips durchgeführt wird, wird rein prinzipiell noch einmal anhand der Fig. 11 erläutert.
Im Verfahrensschritt a) wird ein Muster auf ein dentales Bild projiziert. Beispiele von entsprechenden Mustern, bei denen es sich um Punkte, um Geraden oder Kreuze handelt, sind beispielhaft dargestellt.
An das Muster sollte die Anforderung gestellt werden, dass es einfach ist, um eine schnelle und einfache Detektion und Auswertung zu ermöglichen.
Ferner sollte das projizierte Muster auf den Messbereich scharf eingestellt werden bzw. das Muster innerhalb eines gewissen Bereichs scharf abgebildet sein und nicht ineinander übergehende Verläufe aufweisen. Mit anderen Worten sind hochfrequente Teile innerhalb einer Fourier- Analyse des projizierten Musters, die z. B. scharfen Kanten und Linien entsprechen, von Vorteil, da Unschärfe wie ein Tiefpassfilter wirkt, d. h. vorrangig hochfrequente Anteile beeinflusst. Je schärfer die Details sind, umso präziser lässt sich die Fokusebene bestimmen. Ferner sollte die definierte Fokusebene des auf das dentale Objekt projizierten Musters im mittleren Abtastbereich mit rascher Defokussierung jenseits des Schärfebereichs liegen.
Als Lichtquelle zur Erzeugung des Musters kann eine feine Lochmaske benutzt werden, die von der Strahlung der Lichtquelle durchsetzt wird. Der Lochmaske ist sodann eine Linse nachgeordnet, mittels der fokussiert wird. Es besteht auch die Möglichkeit, ein von Laserstrahlung erzeugtes Muster zu benutzen. Das Lasermuster kann z. B. aus Punkten oder Kreuzen mit begrenztem Schärfebereich bestehen.
Im Verfahrensschritt b) wird das auf das dentale Objekt projizierte Muster vom dentalen Objekt zurückprojiziert. Je nach Abstand von der vorgegebenen Fokusebene wird das Muster unscharf auf den Sensor abgebildet, d. h., die Lichtintensität des Musters „verschmiert" über mehrere Pixel. Fällt die das Muster bildende Strahlung geneigt auf das Objekt, wird das zurückprojizierte Muster zudem verzerrt.
Es können Polarisations-, Färb- oder andere Filter dem Objekt vorgeordnet werden, um z. B. Störstrahlung zu minimieren.
Die projizierte Strahlung wird im Verfahrens schritt c) durch ein oder mehrere Linsensysteme gebündelt. Anstelle der Integration der Lichtintensität wird jeder Bildpunkt durch die Linsen des Mikrolinsenarrays 6', nochmals gebrochen, und trifft je nach Einfallswinkel auf unterschiedliche Sensorelemente. Neben der Position dieser als Superpixel zu bezeichnenden unterschiedlichen Sensorelemente kann die Richtung der Lichtstrahlen bestimmt werden. Das vorgeschaltete Mikrolinsenarray ermöglicht die lichtfeld/plenoptische Analyse mit nachträglicher berechenbarer virtuellen Fokusänderung. Superpixel bedeutet folglich, dass mehrere Pixel des Sensors in Abhängigkeit von der flächigen Erstreckung der jeweiligen Linse zusammengefasst sind. In der x/y-Richtung, d. h. der spatialen Auflösung, liegt die Auflösung vor, die durch die Anzahl an Mikrolinsen vorgegeben ist.
Im Verfahrens schritt d) werden sodann virtuelle Fokusebenen berechnet. Je nach Entfernung der rückprojizierten Objektpunkte ergibt sich ein unterschiedliches Muster auf der Sensorebene. Dieses hängt bei senkrechter Strahlung hauptsächlich vom Grad der Fokussierung ab, daneben auch vom Winkel der Projektion. Aufgrund der Lichtfeldtechnik lassen sich aus diesen Informationen durch bekannte Verfahren virtuelle Fokusebenen errechnen. Dabei wird bevorzugterweise eine erfindungs gemäß adaptierte Hough-Transformation verwendet.
Sodann werden im Verfahrensschritt e) 3D-Einzelpunkte ermittelt. Die axiale Position, also z-Koordinate, lässt sich durch virtuelle Fokusebenen eingrenzen. Durch die x-y- Koordinate wird sodann die Position der Pixel berechnet, in der das Teilbild scharf abgebildet ist, also in der virtuellen Fokusebene.
Die Genauigkeit der z-Koordinate, also der Entfernungsmessung hängt vorrangig von der Anzahl der Sensorelemente und die der Mikrolinsen ab, wird aber auch - insbesondere bei geneigter Projektion des Musters auf das Objekt - von der lateralen „SuperpixeP'-Position (Mikrolinse) bestimmt.
Eine Interpolation auf Subpixel-Ebene kann die Genauigkeit steigern.
Unabhängig hiervon ist insbesondere vorgesehen, dass der Abstand zwischen den einzelnen Elementen des Musters, also den projizierten Punkten, die jedoch nicht die Geometrie eines Punktes aufweisen müssen, sondern z. B. kreuzförmig oder linienförmig sein können, bevorzugterweise so zu wählen ist, dass im zu erfassenden Abtastbereich jeweils überlappungsfreie Projektionen erfolgen.
Schließlich wird im Verfahrens schritt f) beim Scannen durch Registrierung bzw. Matchen die 3D-Form des zu messenden Abschnitts des Objektes wie dentalen Bereichs erfasst.
Aufgrund der erfindungsgemäßen Lehre werden im Vergleich zu bekannten Verfahren weniger komplexe Linsensysteme benötigt. Somit kann ein kostengünstiges und relativ leichtes Handgerät zur Verfügung gestellt werden, das als Intraoralscanner Verwendung findet. Die feinmechanische Ausrichtung zwischen den projizierten Mustern und dem Mikrolinsenarray kann problemlos erfolgen. Der Einsatz eines monochromatischen Lasers oder anderer einfacher Musterprojektionen ermöglicht es, diese in den Oralscanner zu integrieren, ohne dass es der nach dem Stand der Technik erforderlichen Lichtleiterkabel bedarf. Der Intraoralscanner kann sogar dann kabellos arbeiten, wenn die Daten durch Fernzugriff wie WLAN oder BLUETOOTH erfasst werden.
Dabei zeigt die monochromatische Lichtquelle erhebliche Vorteile sowohl hinsichtlich der Kosten als auch der Handhabbarkeit im Vergleich zu solchen, die nach dem Stand der Technik bei Intraoralscannern zum Einsatz gelangen können, wie Xenon- Lichtquellen.

Claims

Patentansprüche Verfahren zum scannenden Messen eines dentalen Objektes sowie Intraoral-Scanner
1. Verfahren zum scannenden Messen der Form von zumindest einem Abschnitt eines dentalen Objektes (5) durch Projektion eines Musters auf den Abschnitt und Abbilden des rückprojizierten Musters auf einen Sensor (8),
dadurch gekennzeichnet,
dass zur Bestimmung der 3D-Form des zumindest einen Abschnitts des dentalen Objektes entweder
das auf den Sensor (8) rückprojizierte Muster unter Zugrundelegung des plenoptischen Prinzips oder
das mehrfach auf den Sensor rückprojizierte Muster epipolargeometrisch analysiert wird.
2. Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
dass das rückprojizierte Muster zumindest eine Optik (7, V) durchsetzt, der ein Linsenarray (6, 6') vor- oder nachgeordnet wird.
3. Verfahren nach Anspruch 1 oder 2,
dadurch gekennzeichnet,
dass auf den Abschnitt des Objekts (5) ein statisches oder variierendes Muster abgebildet wird.
4. Verfahren nach zumindest einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
dass das Muster durch auf den Abschnitt des Objekts (5) projizierte Laserpunkte erzeugt wird.
5. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet,
dass das Linsenarray (6, 6') aus Linsen gebildet wird, die gleiche Brennweiten aufweisen.
6. Verfahren nach zumindest einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
dass das Linsenarray (6, 6') aus Linsen gebildet wird, die oder Untergruppen dieser von voneinander abweichender Brennweiten aufweisen.
7. Verfahren nach zumindest einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
dass auf den Abschnitt des Objekts (5) gleichzeitig zumindest zwei Muster mit voneinander abweichenden Wellenlängen oder Wellenlängenbereichen projiziert werden.
8. Verfahren nach zumindest einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
dass unter Verwendung des Hough-Raums und mittels einer Hough- Transformation virtuelle Fokusebenen der rückprojizierten Elemente des Musters berechnet werden.
9. Verfahren nach zumindest einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
dass mittels des Fourier-Slice-Theorems virtuelle Fokusebenen der rückprojizierten Elemente des Musters berechnet werden.
10. Verfahren nach zumindest einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
dass in einem Intraoralscanner ein Mustererzeuger (1), die zumindest eine Optik (7, 7'), das Linsenarray (6, 6') und der Sensor (8) integriert werden, dass der Intraoralscanner kabellos betrieben wird und dass Signale des Sensors durch Fernzugriff, wie WLAN oder BLUETOOTH, an einen Rechner übertragen werden.
11. Verfahren nach zumindest einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
dass zur Erzielung von Farbinformationen des zumindest einen Abschnitts auf diesen das Muster mittels multichromatischer Lichtquelle, insbesondere breitbandiger Weißlichtquelle projiziert wird.
12. Intraoralscanner, umfassend einen Erzeuger (1) eines auf einen dentalen Bereich (5) abzubildenden Musters, zumindest eine erste Optik (7, V) und einen dieser nachgeordneten rückprojiziertes Muster erfassenden Sensor (8),
dadurch gekennzeichnet,
dass das Linsenarray (6, 6') mit der ersten Optik (7, 7') und dem Sensor (8) entweder eine Lichtfeldkamera oder ein multifokales Messsystem bildet.
13. Intraoralscanner nach Anspruch 12,
dadurch gekennzeichnet,
dass das Linsenarray (6, 6') in dem Intraoralscanner der ersten Optik (7, 7') vor- oder nachgeordnet ist.
14. Intraoralscanner nach Anspruch 12 oder 13,
dadurch gekennzeichnet,
dass das Muster aus Laserpunkten, insbesondere monochromatischer Strahlung besteht.
15. Intraoralscanner nach zumindest einem der Ansprüche 12 bis 14,
dadurch gekennzeichnet,
dass das Muster ein statisches oder variierendes Muster ist.
Intraoralscanner nach zumindest einem der Ansprüche 12 bis 15, dadurch gekennzeichnet,
dass das Linsenarray (6, 6') aus Linsen mit gleichen Brennweiten oder aus Linsen oder Linsengruppen mit voneinander abweichenden Brennweiten besteht.
17. Intraoralscanner nach zumindest einem der Ansprüche 12 bis 16,
dadurch gekennzeichnet,
dass der Intraoralscanner eine das Muster auf den dentalen Bereich (5) projizierende zweite Optik (3) aufweist.
18. Intraoralscanner nach zumindest einem der Ansprüche 12 bis 17,
dadurch gekennzeichnet,
dass das Muster durch eine oder mehrere multichromatische Lichtquellen, insbesondere durch eine vorzugsweise breitbandige Weißlichtquelle erzeugbar ist.
PCT/EP2013/055369 2012-03-26 2013-03-15 Verfahren zum scannenden messen eines dentalen objektes sowie intraoral-scanner WO2013143882A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102012102580.0 2012-03-26
DE102012102580A DE102012102580A1 (de) 2012-03-26 2012-03-26 Verfahren zum Messen eines Objektes sowie Intraoral-Scanner

Publications (1)

Publication Number Publication Date
WO2013143882A1 true WO2013143882A1 (de) 2013-10-03

Family

ID=47915186

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2013/055369 WO2013143882A1 (de) 2012-03-26 2013-03-15 Verfahren zum scannenden messen eines dentalen objektes sowie intraoral-scanner

Country Status (2)

Country Link
DE (1) DE102012102580A1 (de)
WO (1) WO2013143882A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107296585A (zh) * 2017-08-11 2017-10-27 四川大学 口腔扫描装置及口腔扫描系统

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013005616A1 (de) * 2013-04-04 2014-10-23 DüRR DENTAL AG Dentalkamerasystem
DE102014119013A1 (de) 2014-12-18 2016-06-23 Universität Rostock Verfahren zur Herstellung einer kieferorthopädischen Apparatur
US10835352B2 (en) 2018-03-19 2020-11-17 3D Imaging and Simulation Corp. Americas Intraoral scanner and computing system for capturing images and generating three-dimensional models
DE102020133627A1 (de) 2020-12-15 2022-06-15 Infinisense Technologies GmbH Verfahren und Intraoralscanner zum Erfassen der Topographie der Oberfläche eines transluzenten, insbesondere dentalen, Objektes

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10356412A1 (de) * 2003-11-24 2005-06-23 Universität Stuttgart Multifokales konfokales Verfahren und konfokale Anordnung für wenig kooperative Objekte
US20070188769A1 (en) * 2006-02-13 2007-08-16 Janos Rohaly Three-channel camera systems with collinear apertures
DE102007019267A1 (de) * 2007-04-24 2008-10-30 Degudent Gmbh Messanordnung sowie Verfahren zum dreidimensionalen Messen eines Objekts

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004059526B4 (de) * 2004-12-09 2012-03-08 Sirona Dental Systems Gmbh Vermessungseinrichtung und Verfahren nach dem Grundprinzip der konfokalen Mikroskopie
DE102007054907A1 (de) * 2007-11-15 2009-05-28 Sirona Dental Systems Gmbh Verfahren zur optischen Vermessung von Objekten unter Verwendung eines Triangulationsverfahrens
US8134719B2 (en) * 2010-03-19 2012-03-13 Carestream Health, Inc. 3-D imaging using telecentric defocus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10356412A1 (de) * 2003-11-24 2005-06-23 Universität Stuttgart Multifokales konfokales Verfahren und konfokale Anordnung für wenig kooperative Objekte
US20070188769A1 (en) * 2006-02-13 2007-08-16 Janos Rohaly Three-channel camera systems with collinear apertures
DE102007019267A1 (de) * 2007-04-24 2008-10-30 Degudent Gmbh Messanordnung sowie Verfahren zum dreidimensionalen Messen eines Objekts

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107296585A (zh) * 2017-08-11 2017-10-27 四川大学 口腔扫描装置及口腔扫描系统

Also Published As

Publication number Publication date
DE102012102580A1 (de) 2013-09-26

Similar Documents

Publication Publication Date Title
DE69207176T2 (de) Optischer Sensor
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
EP1971820B1 (de) Erstellung eines abstandsbildes
DE69826753T2 (de) Optischer Profilsensor
DE102006007172B4 (de) Verfahren und Anordnung zur schnellen, ortsaufgelösten, flächigen, spektroskopischen Analyse, bzw. zum Spectral Imaging oder zur 3D-Erfassung mittels Spektroskopie
DE102010040518A1 (de) Bildaufnahmegerät, Bilddarstellungsverfahren und Aufnahmemedium sowie darauf aufgenommenes Bilddarstellungsprogramm
DE102015107517B3 (de) Vorrichtung und Verfahren zur Bildaufnahme mit erhöhter Schärfentiefe
DE102008002730A1 (de) Verfahren und Vorrichtung zur 3D-Rekonstruktion
EP1984770A1 (de) Verfahren und anordnung zur schnellen und robusten, chromatisch-konfokalen 3d-messtechnik
EP0449859B1 (de) Verfahren und vorrichtung zur beobachtung von moiremustern von zu untersuchenden oberflächen unter anwendung des moireverfahrens mit phasenshiften
WO2007107214A2 (de) Verfahren und vorrichtung zur korrespondenzbestimmung, vorzugsweise zur dreidimensionalen rekonstruktion einer szene
DE102012106584A1 (de) Verfahren und Vorrichtung zur Bildrekonstruktion
WO2013143882A1 (de) Verfahren zum scannenden messen eines dentalen objektes sowie intraoral-scanner
WO2014000738A2 (de) Verfahren zur bilderfassung einer vorzugsweise strukturierten oberfläche eines objekts und vorrichtung zur bilderfassung
DE112009000516T5 (de) Intraorales Abbildungssystem und Verfahren, das auf der konoskopischen Holographie beruht
DE102004041115A1 (de) Verfahren und Anordnung zur Erfassung biometrischer Daten
DE112012004591T5 (de) Beobachtungsvorrichtung
DE19749974C2 (de) Verfahren und Apparat zur Erzeugung einer 3D-Punktwolke
DE4143193A1 (de) System zur mathematischen erfassung dreidimensionaler oberflaechen
DE102020201097B4 (de) Anordnung und Verfahren zur optischen Objektkoordinatenermittlung
DE102006013318A1 (de) 3D-Rekonstruktion von statischen Szenen durch vereinheitlichte Kombination von geometrischen und photometrischen Verfahren
DE102006013316A1 (de) 3D-Rekonstruktion von statischen Szenen durch vereinheitlichte Kombination der Methode des Depth from Defokus und der des Shape from Motion
EP4227636B1 (de) Bestimmung von tiefenwerten eines oberflächenbereichs eines werkstücks
DE102011121334B4 (de) Messanordnung und korrespondierendes Bildaufbereitungsverfahren

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13711329

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2013711329

Country of ref document: EP

122 Ep: pct application non-entry in european phase

Ref document number: 13711329

Country of ref document: EP

Kind code of ref document: A1